#
Advanced Formatting
As configurações fornecidas nesta seção permitem mais controle sobre a estratégia de construção de prompt, principalmente para APIs de Text Completion.
A maioria das configurações neste painel não se aplica a APIs de Chat Completions, pois são governadas pelo sistema de prompt manager.
System Prompt Context Template Tokenizer Custom Stopping Strings
- System Prompt: não aplicável, use Prompt Manager
- Context Template: não aplicável, use Prompt Manager
Tokenizer Custom Stopping Strings
#
Redefinindo Templates
Você pode restaurar os templates padrão ao seu estado original. Isso pode ser feito através da interface do usuário ou excluindo manualmente os arquivos de dados relevantes.
#
Redefinição pela Interface
- Abra o menu Advanced Formatting.
- Escolha o template que deseja redefinir.
- Clique no botão Restore current template.
- Confirme a ação quando solicitado.
#
Redefinição Manual
Certifique-se de que a configuração skipContentCheck esteja definida como false em config.yaml, caso contrário a verificação de conteúdo não será acionada.
- Navegue até seu diretório de dados do usuário (veja Data paths para detalhes).
- Exclua o arquivo
content.logda raiz do seu diretório de dados do usuário. Este arquivo rastreia os arquivos padrão copiados para seu usuário. - Exclua os arquivos JSON de template dos subdiretórios relevantes (
context,instruct,sysprompt, etc.). - Reinicie o servidor SillyTavern. A aplicação repovoará o conteúdo padrão, restaurando quaisquer templates padrão excluídos.
#
Templates definidos pelo Backend
Aplica-se a: APIs de Text Completion
Não aplicável a APIs de Chat Completion, pois usam um construtor de prompt diferente.
Algumas fontes de Text Completion fornecem uma capacidade de escolher automaticamente templates recomendados pelo autor do modelo. Isso funciona comparando um hash do chat template definido no arquivo tokenizer_config.json do modelo com um dos templates padrão do SillyTavern.
- A opção Derive templates deve estar habilitada no menu Advanced Formatting. Isso pode ser aplicado a Context, Instruct, ou ambos.
- Um backend suportado deve ser escolhido como fonte de Text Completion. Atualmente, apenas llama.cpp e KoboldCpp suportam derivação de templates.
- O modelo deve relatar corretamente seus metadados quando a conexão com a API é estabelecida. Se isso não funcionou, tente atualizar o backend para a versão mais recente.
- O hash do chat template relatado deve corresponder ao de um dos templates conhecidos do SillyTavern. Isso cobre apenas templates padrão, como Llama 3, Gemma 2, Mistral V7, etc.
- Se o hash corresponder, o template será automaticamente selecionado se existir na lista de templates (ou seja, não renomeado ou excluído).
#
System Prompt
Aplica-se a: APIs de Text Completion
Para configurações equivalentes em APIs de Chat Completion, use Prompt Manager. O Main Prompt é o equivalente do System Prompt em APIs de Chat Completion.
O System Prompt define as instruções gerais para o modelo seguir. Ele define o tom e o contexto para a conversa. Por exemplo, ele diz ao modelo para agir como um assistente de IA, um parceiro de escrita ou um personagem fictício.
O System Prompt é uma parte da Story String e geralmente a primeira parte do prompt que o modelo recebe.
Veja o guia de prompting para saber mais sobre o System Prompt.
#
Context Template
Aplica-se a: APIs de Text Completion
Para configurações equivalentes em APIs de Chat Completion, use Prompt Manager.
Geralmente, modelos de IA exigem que você forneça os dados do personagem de alguma maneira específica. O SillyTavern inclui uma lista de regras de conversão pré-fabricadas para diferentes modelos, mas você pode personalizá-las como quiser.
As opções para esta seção são explicadas em Context Template.
#
Tokenizer
Um tokenizer é uma ferramenta que divide um texto em unidades menores chamadas tokens. Esses tokens podem ser palavras individuais ou até partes de palavras, como prefixos, sufixos ou pontuação. Uma regra geral é que um token geralmente corresponde a 3~4 caracteres de texto.
As opções para esta seção são explicadas em Tokenizer.
#
Custom Stopping Strings
Aceita um array serializado em JSON de strings de parada. Exemplo: ["\n", "\nUser:", "\nChar:"]. Se não tiver certeza sobre a formatação, use um validador JSON online. Se a saída do modelo terminar com qualquer uma das strings de parada, elas serão removidas da saída.
APIs suportadas:
- KoboldAI Classic (versões 1.2.2 e superiores) ou KoboldCpp
- AI Horde
- APIs de Text Completion: Text Generation WebUI (ooba), Tabby, Aphrodite, Mancer, TogetherAI, Ollama, etc.
- NovelAI
- OpenAI (máximo 4 strings) e APIs compatíveis
- OpenRouter (tanto Text quanto Chat Completion)
- Claude
- Google AI Studio
- MistralAI
#
Start Reply With
Nota
Por padrão, o prefixo Start Reply With não será mostrado na mensagem resultante. Habilite "Show reply prefix in chat" para exibi-lo.
#
APIs de Text Completion
Pré-preenche a última linha do prompt, forçando o modelo a continuar a partir desse ponto. Isso é útil para impor conteúdo, como guiar para o Model Reasoning com o prefixo definido:
<think>
Sure!
#
APIs de Chat Completion
Adiciona uma mensagem de função assistant ao final do prompt. Para alguns modelos de backend, isso é equivalente a pré-preencher a resposta do modelo, mas alguns podem não suportar isso de forma alguma e falharão com um erro de validação. Se não tiver certeza, deixe este campo vazio.