Aprenda a reduzir alucinações da IA na escrita com prompts “fontes primeiro”, limites de afirmações, passos de verificação e checagens rápidas para identificar texto não verificável.

Alucinações acontecem quando uma IA escreve algo que soa confiante e específico, mas está errado ou simplesmente inventado. O perigo está no tom. Uma frase pode ler como um fato verificado mesmo quando é só um palpite.
Frequentemente você reconhece alucinações pelos detalhes “certos demais”. Um rascunho passa a incluir números exatos, datas precisas ou citações perfeitas que você nunca forneceu. Pode citar um estudo, um livro ou um especialista que não existe.
Sinais comuns incluem:
Isso acontece porque modelos de linguagem preveem sequências de palavras prováveis. Quando o modelo não tem informação suficiente, ele preenche lacunas com algo que se encaixa no padrão de um bom artigo. Prompts que pedem autoridade (“inclua estatísticas” ou “adicione uma citação”) sem fornecer fontes empurram o modelo a improvisar.
O objetivo não é perfeição. É garantir que afirmações arriscadas sejam ou respaldadas por evidência ou claramente marcadas como não verificadas. Um processo sólido mantém o rascunho útil enquanto você controla o que é apresentado como fato.
Uma regra simples ajuda: se uma afirmação puder afetar uma decisão, reputação ou conformidade, trate-a como de alto risco e exija uma fonte antes de deixá-la no texto.
Se quiser reduzir alucinações, comece antes do primeiro prompt. Diga ao modelo o que ele pode dizer, o que deve evitar e para quem está escrevendo. Limites claros tornam o rascunho mais fácil de verificar e muito mais difícil de “inventar”.
Escreva um orçamento simples de afirmações. Não é ser tímido — é ser explícito.
Defina o leitor em uma frase. Exemplo: “Gerente de marketing atarefado, não técnico, lendo no celular, quer um checklist prático.” Essa linha muda tom e escolha de palavras mais do que a maioria dos prompts de estilo.
Estabeleça limites de escopo para que o modelo não misture contextos.
Por fim, escolha o tipo de saída desde o começo (seção de blog, resumo de notícias, entrada de glossário). Quando isso fica vago, os modelos tendem a encher com afirmações de preenchimento.
Se você deixa a IA escrever primeiro e justificar depois, está convidando ficção confiante. Inverta a ordem: faça-a coletar evidências antes de fazer afirmações.
Comece pedindo um plano de fontes, não um rascunho. O objetivo é um pequeno conjunto de fontes (ou espaços reservados) nas quais o modelo deve se apoiar ao escrever.
Use uma solicitação em duas etapas: fontes primeiro, depois o rascunho. Mantenha a etapa de redação vinculada a essas fontes.
Esse rótulo "No source" é o ponto. Ele destaca o que precisa de verificação e impede que o modelo invente uma referência que soa real.
Escolha um formato rígido e sem graça para que você possa escanear rápido:
Exemplo (você pode colar em qualquer ferramenta ou numa chamada de API):
Task: Write a 700-word section.
Step 1: Propose 6 sources (S1-S6). For each: title, publisher, date, what it supports.
Step 2: Draft the section using ONLY S1-S6. After every factual claim add [S#].
If you cannot support a claim, write [No source] and do not guess.
Output: sources list, then draft.
A maioria das alucinações se esconde em detalhes que soam credíveis: percentagens, datas de lançamento, listas “top 10” e citações exatas. Trate esses como afirmações de alto risco que precisam de regras extras.
Um freio prático é simples: se o rascunho inclui números, datas, rankings, nomes ou citações, deve também incluir uma fonte que você possa checar. Se não houver fonte, o modelo deve remover o detalhe ou marcá-lo como desconhecido.
Restrições úteis que você pode inserir nos prompts:
Rótulos de incerteza mantêm os rascunhos utilizáveis sem fingir precisão. Peça ao modelo para marcar declarações arriscadas como confirmado, provável ou desconhecido. Permita “provável” somente quando também for explicado o porquê (por exemplo, “baseado no trecho do changelog fornecido”).
O maior ganho é consistência. Use sempre o mesmo fluxo pequeno para que a verificação não seja uma reflexão tardia.
Um loop rápido que ainda pega o que é arriscado:
Exemplo: se um rascunho diz “Google confirmou X em 2023”, a lista de afirmações força o acompanhamento: qual anúncio, que data e onde está registrado? Se você não consegue responder rápido, suavize ou remova.
A edição fica lenta quando cada frase vira um julgamento. Uma abordagem mais rápida é fazer o rascunho identificar o que precisa ser checado, e então verificar só as linhas de alto risco.
Ao invés de dizer ao modelo para “ser preciso”, peça que rotule a incerteza. Se não viu uma fonte, não deve soar seguro.
Use espaços reservados que se destacam durante a edição:
Depois, rode uma segunda passada que reescreva as linhas marcadas de forma mais segura.
Exemplo: “Acme lançou em 2018 e agora atende 10.000 clientes.” Se não houver fonte, reescreva para: “Acme lançou em [VERIFY: ano de lançamento] e atende [VERIFY: número de clientes].” Uma alternativa segura é: “Acme cresceu continuamente desde o lançamento, atendendo clientes em vários mercados.” Menos chamativo, mas não incorreto.
Ao revisar as marcas, decida rápido:
Você pode reduzir alucinações sem montar um processo pesado. O truque é manter alguns artefatos pequenos que acompanhem o rascunho e acelerem a checagem.
Mantenha uma tabela pequena ao lado do rascunho (mesmo como nota). Cada vez que o modelo fizer uma afirmação factual, registre-a uma vez e decida o que fazer:
Se não conseguir referenciar “Empresa X lançou em 2017”, trate como alto risco e reescreva o parágrafo para que continue válido caso a data mude.
Separado do rascunho, mantenha um log contínuo de fontes já verificadas. Com o tempo isso vira sua prateleira de referências confiáveis e reduz a tentação de aceitar inventos do modelo.
Mantenha simples: nome da fonte, para que serve e limites (por exemplo, “bom para definições, não para estatísticas de mercado”).
Red flags merecem segunda olhada: superlativos (“o melhor”), estatísticas precisas, pessoas/empresas nomeadas, citações, datas e claims “primeiro/único/mais”.
Um roteiro curto de revisão basta:
Alucinações geralmente aparecem quando o modelo recebe liberdade para preencher lacunas e ninguém percebe. Grande parte da solução é eliminar essas lacunas.
Armadilhas comuns:
Se precisar de estatísticas, exija um tipo específico de fonte (relatório nomeado, dataset público, demonstração anual) e force “desconhecido” quando não estiver disponível.
Antes de publicar, trate o rascunho como um conjunto de afirmações, não só frases.
Leia uma vez para o sentido. Depois escaneie por detalhes de alto risco: números, datas, rankings, citações e qualquer coisa muito específica.
Um truque prático: marque linhas questionáveis com [VERIFY] enquanto edita. Se sobrar qualquer [VERIFY] no final, o texto não está pronto.
Imagine um post sobre finanças pessoais: “Devo pagar antecipadamente a hipoteca ou investir?” Aqui é comum a IA gerar afirmações confiantes sobre retornos, inflação, regras fiscais e médias históricas.
Trate isso como uma tarefa com fontes primeiro, não como uma tarefa criativa. Comece com um prompt curto e estrito:
Task: Write a 900-word blog post for US readers deciding between extra mortgage payments vs investing.
Scope: General education only. No personal advice.
Allowed claims: Only claims supported by the sources I provide.
High-risk claims (must be cited): rates of return, inflation, tax rules, dates, named products, quotes.
Citations: After any sentence with a high-risk claim, add [S1], [S2], etc.
If a claim cannot be supported: mark it as [UNVERIFIED] and suggest what source is needed.
Sources:
S1: (paste a trusted explainer)
S2: (paste IRS page excerpt or official guidance excerpt)
S3: (paste a reputable calculator methodology page excerpt)
Depois siga um fluxo rigoroso:
Uma linha típica de risco é: “O mercado de ações rende 10% ao ano em média.” Se suas fontes não dizem isso, reescreva para evitar precisão falsa: “Retornos de longo prazo variam conforme período, e nenhum retorno anual é garantido. [UNVERIFIED: precisa de fonte e período específicos]” Ou substitua por uma afirmação mais estreita e referenciada (por exemplo, “Alguns estudos de longo prazo relatam médias históricas em períodos específicos. [S1]”).
A maneira mais rápida de reduzir alucinações é parar de tratar cada post como um caso isolado. Salve seus melhores prompts como templates com as mesmas salvaguardas: fontes permitidas, tipos de afirmações proibidas e como rotular incerteza.
Se publicar em escala, ajude quando sua ferramenta suporta a mesma estrutura entre rascunhos, reescritas e atualizações. GENERATED (generated.app) é um exemplo de plataforma de conteúdo que pode gerar via API, apoiar polimentos e traduções e ajudar a manter um fluxo consistente em torno de rascunhos e revisões.
Uma alucinação é quando a IA afirma algo específico e confiante que na verdade não é suportado pelo seu material de entrada ou por qualquer fonte real. Geralmente aparece como números limpos, datas exatas ou frases em estilo de citação que parecem críveis mas não têm origem rastreável.
Procure por detalhes que pareçam “certos demais”: percentuais precisos, anos exatos, atribuições perfeitas ou frases entre aspas que você não forneceu. Se você não consegue apontar rapidamente de onde veio uma afirmação, trate-a como não verificada e adicione uma fonte ou reescreva de forma mais geral.
Considere de alto risco tudo o que pode influenciar uma decisão, prejudicar credibilidade ou afetar conformidade. Por padrão, exija uma fonte verificável para números, datas, classificações, nomes e citações — e não deixe esses detalhes no texto sem evidência.
Defina um “orçamento de afirmações” antes de começar: o que o modelo pode fazer (explicar, resumir material fornecido) e o que não pode (inventar estatísticas, datas, citações ou linhas do tipo “segundo X”). Limites claros tornam a saída mais fácil de verificar e reduzem a tendência do modelo de preencher lacunas.
Defina geografia, período de tempo e fontes permitidas desde o início e mantenha-os. Se não estabelecer limites, o modelo pode misturar regiões, informações desatualizadas e contextos não relacionados de forma que soa coerente, mas não é confiável.
Peça fontes primeiro e exija que o rascunho use apenas essas fontes, com uma chave de citação simples como [S1] após afirmações factuais. Se o modelo não puder sustentar uma afirmação, ele deve escrever algo como “[No source]” em vez de chutar.
Use uma regra rígida: todo número, data, estudo nomeado ou citação deve incluir uma etiqueta de fonte, e citações devem vir do texto que você fornece (não parafraseadas entre aspas). Se não tiver fonte, troque o detalhe por uma afirmação geral ou marque-o como precisando de verificação.
Inclua marcadores visíveis que o modelo precise usar quando estiver em dúvida, como “[VERIFY]” ou “[SOURCE NEEDED]”. Isso mantém o rascunho em movimento enquanto deixa as linhas arriscadas fáceis de identificar, de modo que você verifique só o que importa em vez de checar cada sentença.
Extraia uma lista simples de afirmações do rascunho e verifique primeiro só os itens de alto risco. Reescreva apenas as sentenças que mudaram e faça uma passada final para remover quaisquer marcadores de incerteza antes de publicar.
Trate seus prompts e regras de verificação como templates reutilizáveis, não instruções isoladas. Se publicar em escala, uma plataforma como GENERATED pode ajudar a padronizar o fluxo entre rascunhos, reescritas, traduções e atualizações, garantindo que as regras de “usar só fontes” e “marcar incerteza” se mantenham.