Apprenez à réduire les hallucinations d'IA dans l'écriture grâce à des invites axées sur les sources, des limites d'affirmation, des étapes de vérification et des contrôles rapides pour repérer le texte non vérifiable.

Les hallucinations surviennent lorsqu'une IA écrit quelque chose qui sonne confiant et précis, mais qui est faux ou tout simplement inventé. Le danger vient du ton. Une phrase peut se lire comme un fait vérifié alors qu'il ne s'agit que d'une supposition.
On repère souvent les hallucinations à leurs détails « trop nets ». Un brouillon inclut soudain des chiffres exacts, des dates précises ou des citations parfaites que vous n'avez pas fournies. Il peut citer une étude, un livre ou un expert qui n'existe pas.
Signes courants :
Cela arrive parce que les modèles de langage prédisent des séquences de mots probables. Quand le modèle n'a pas assez d'information, il comble les vides par quelque chose qui ressemble au style d'un bon article. Les invites qui demandent de l'autorité ("inclure des stats" ou "ajouter une citation") sans fournir de sources poussent le modèle à improviser.
L'objectif n'est pas la perfection. Il s'agit de s'assurer que les affirmations risquées sont soit étayées par des preuves, soit clairement marquées comme non vérifiées. Un processus solide garde le brouillon utile tout en vous laissant le contrôle de ce qui est présenté comme un fait.
Une règle simple aide : si une affirmation peut affecter une décision, la réputation ou la conformité, considérez-la comme à haut risque et exigez une source avant qu'elle reste dans le texte.
Pour réduire les hallucinations, commencez avant la première invite. Indiquez au modèle ce qu'il est autorisé à dire, ce qu'il doit éviter et à qui il s'adresse. Des limites claires rendent le brouillon plus facile à vérifier et beaucoup plus difficile à « inventer ».
Rédigez un budget d'affirmations simple. Ce n'est pas être timide, c'est être explicite.
Définissez le lecteur en une phrase. Exemple : "Responsable marketing occupé, non technique, lit sur mobile, veut une checklist pratique." Cette seule ligne change le ton et le choix des mots plus que la plupart des invites de style.
Fixez des limites de périmètre pour que le modèle ne mélange pas les contextes.
Enfin, choisissez le type de sortie dès le départ (section de blog, résumé d'actualité, entrée de glossaire). Quand c'est vague, les modèles ont tendance à remplir avec des affirmations inutiles.
Si vous laissez une IA écrire d'abord puis justifier ensuite, vous l'invitez à produire de la fiction confiante. Inversez l'ordre : faites-lui collecter des preuves avant qu'elle n'affirme quoi que ce soit.
Commencez en demandant un plan de sources, pas un brouillon. L'objectif est un petit ensemble de sources (ou des emplacements) sur lesquelles le modèle devra s'appuyer pour rédiger.
Utilisez une requête en deux passes : d'abord les sources, puis le brouillon. Verrouillez l'étape de rédaction à ces sources.
Cette étiquette "No source" est le but : mettre en évidence ce qui doit être vérifié et empêcher le modèle d'inventer une référence qui sonne réelle.
Choisissez un format strict et ennuyeux pour pouvoir le scanner rapidement :
Exemple (à coller dans un outil ou un appel API) :
Task: Write a 700-word section.
Step 1: Propose 6 sources (S1-S6). For each: title, publisher, date, what it supports.
Step 2: Draft the section using ONLY S1-S6. After every factual claim add [S#].
If you cannot support a claim, write [No source] and do not guess.
Output: sources list, then draft.
La plupart des hallucinations se cachent dans des détails qui paraissent crédibles : pourcentages, dates de lancement, classements "top 10" et citations exactes. Traitez-les comme des affirmations à haut risque qui nécessitent des règles supplémentaires.
Un garde-fou pratique est simple : si le brouillon inclut des nombres, des dates, des classements, des noms ou des citations, il doit aussi inclure une source vérifiable. Si aucune source n'est disponible, le modèle doit supprimer le détail ou le marquer comme inconnu.
Contraintes utiles à intégrer dans les invites :
Les étiquettes d'incertitude maintiennent les brouillons utilisables sans prétendre. Demandez au modèle de taguer les affirmations risquées comme confirmé, probable ou inconnu. N'autorisez probable que lorsqu'il indique aussi pourquoi (par exemple, "basé sur l'extrait du changelog fourni").
Le plus grand bénéfice vient de la constance. Utilisez le même petit flux de travail à chaque fois pour que la vérification ne soit pas une réflexion après coup.
Une boucle rapide qui attrape quand même l'essentiel :
Exemple : si un brouillon dit "Google a confirmé X en 2023", la liste d'affirmations force le suivi : quelle annonce, quelle date et où est-elle enregistrée ? Si vous ne pouvez pas répondre rapidement, adoucissez ou supprimez la phrase.
L'édition devient lente si chaque phrase se transforme en audience. Une approche plus rapide est de faire en sorte que le brouillon identifie lui-même ce qui doit être vérifié, puis de ne vérifier que les lignes à haut risque.
Au lieu de dire au modèle "sois précis", demandez-lui d'étiqueter l'incertitude. S'il n'a pas vu de source, il ne doit pas avoir l'air sûr.
Utilisez des espaces réservés qui ressortent pendant l'édition :
Faites ensuite une seconde passe qui réécrit les lignes signalées de façon plus sûre.
Exemple : "Acme a été lancé en 2018 et sert maintenant 10 000 clients." Si vous n'avez pas de source, réécrivez : "Acme a été lancé en [VERIFY: year] et sert [VERIFY: customer count]." Une alternative sûre : "Acme a connu une croissance régulière depuis son lancement et sert des clients sur plusieurs marchés." Moins tape-à-l'oeil, mais pas faux.
Quand vous passez en revue les signaux, décidez vite :
Vous pouvez réduire les hallucinations sans instaurer un processus lourd. L'astuce est de garder quelques petits artefacts qui accompagnent le brouillon et rendent la vérification rapide.
Gardez un tableau simple à côté du brouillon (même en note). Chaque fois que le modèle fait une affirmation factuelle, capturez-la une fois et décidez quoi faire ensuite :
Si vous ne pouvez pas sourcer "La société X a été lancée en 2017", traitez-la comme hautement risquée et réécrivez le paragraphe pour qu'il fonctionne même si la date change.
Séparé du brouillon, conservez un journal des sources déjà vérifiées. Avec le temps, cela devient votre étagère de références fiables et réduit la tentation d'accepter ce que le modèle invente.
Gardez-le simple : nom de la source, à quoi elle sert et ses limites (par exemple, "bon pour définitions, pas pour stats de marché").
Les signaux rouges méritent une seconde lecture : superlatifs ("le meilleur"), statistiques précises, personnes/entreprises nommées, citations, dates et affirmations "premier/seul/plus".
Un script de relecture court suffit :
Les hallucinations apparaissent généralement quand le modèle est autorisé à combler les vides et que personne ne s'en rend compte. La plupart de la solution consiste à supprimer ces vides.
Pièges fréquents :
Si vous avez besoin de statistiques, exigez un type de source spécifique (rapport nommé, jeu de données public, dépôt financier) et forcez "unknown" quand ce n'est pas disponible.
Avant de publier, considérez le brouillon comme un ensemble d'affirmations, pas seulement de phrases.
Lisez une fois pour le sens. Puis scannez pour les détails à haut risque : chiffres, dates, classements, citations et tout ce qui est trop spécifique.
Une astuce pratique : marquez les lignes douteuses avec [VERIFY] pendant l'édition. Si des tags [VERIFY] restent à la fin, l'article n'est pas prêt.
Imaginez un billet sur une question de finances personnelles : "Dois-je rembourser mon prêt hypothécaire plus vite ou investir ?" C'est un terrain où l'IA produit souvent des affirmations sûres sur les rendements, l'inflation, les règles fiscales et les moyennes historiques.
Traitez-le comme une tâche source-first, pas comme un exercice créatif. Commencez par une invite courte mais stricte :
Task: Write a 900-word blog post for US readers deciding between extra mortgage payments vs investing.
Scope: General education only. No personal advice.
Allowed claims: Only claims supported by the sources I provide.
High-risk claims (must be cited): rates of return, inflation, tax rules, dates, named products, quotes.
Citations: After any sentence with a high-risk claim, add [S1], [S2], etc.
If a claim cannot be supported: mark it as [UNVERIFIED] and suggest what source is needed.
Sources:
S1: (paste a trusted explainer)
S2: (paste IRS page excerpt or official guidance excerpt)
S3: (paste a reputable calculator methodology page excerpt)
Puis suivez un flux strict :
Une phrase à risque typique est : "Le marché actions rapporte 10% par an en moyenne." Si vos sources ne le disent pas, réécrivez pour éviter une précision fictive : "Les rendements à long terme varient selon les périodes et aucun rendement annuel n'est garanti. [UNVERIFIED: needs a specific source and timeframe]" Ou remplacez par une phrase plus étroite et sourcée (par exemple, "Certaines études à long terme rapportent des moyennes historiques sur des périodes spécifiques. [S1]").
Le moyen le plus rapide de réduire les hallucinations est d'arrêter de traiter chaque article comme un cas isolé. Sauvegardez vos meilleures invites comme modèles avec les mêmes garde-fous : sources autorisées, types d'affirmations interdits et comment marquer l'incertitude.
Si vous publiez à grande échelle, il est utile que vos outils supportent la même structure à travers brouillons, réécritures et mises à jour. GENERATED (generated.app) est un exemple de plateforme de contenu qui peut générer via une API, aider au polissage et aux traductions, et maintenir un workflow cohérent autour des brouillons et des révisions.
Une hallucination se produit lorsque l'IA affirme quelque chose de précis et sûr qui n'est pas réellement supporté par vos données d'entrée ou par une source réelle. Elle prend souvent la forme de chiffres propres, de dates exactes ou de lignes présentées comme des citations mais qui n'ont pas de trace vérifiable.
Cherchez les détails qui paraissent « trop parfaits » : pourcentages précis, années exactes, attributions impeccables ou phrases entre guillemets que vous n'avez jamais fournies. Si vous ne pouvez pas rapidement indiquer d'où vient une affirmation, considérez-la comme non vérifiée et ajoutez une source ou reformulez-la de façon plus générale.
Considérez comme à haut risque toute affirmation susceptible d'influencer une décision, de nuire à la crédibilité ou d'avoir des implications réglementaires. Par défaut, exigez une source vérifiable pour les chiffres, dates, classements, noms et citations, et n'autorisez pas ces détails sans preuve.
Donnez un « budget d'affirmations » avant la rédaction : ce que le modèle a le droit de faire (expliquer, résumer des sources fournies) et ce qu'il doit éviter (inventer des statistiques, des dates, des citations ou des formules du type « selon X »). Des limites claires rendent la sortie plus facile à vérifier et réduisent la tentation du modèle de combler les vides.
Définissez la géographie, la période et les sources autorisées dès le départ, puis respectez ces contraintes. Sans bornes, le modèle peut mélanger régions, informations obsolètes et contextes qui semblent cohérents mais ne le sont pas.
Demandez d'abord une liste de sources, puis exigez que le brouillon n'utilise que ces sources avec une clé de citation simple comme [S1] après les affirmations factuelles. Si le modèle ne peut pas soutenir une affirmation, il doit écrire quelque chose comme « No source » plutôt que d'inventer.
Appliquez une règle stricte : tout nombre, date, étude nommée ou citation doit inclure une balise de source, et les citations doivent provenir d'un texte que vous fournissez (pas de paraphrases présentées comme citations). Si vous n'avez pas de source, remplacez le détail par une formulation générale ou indiquez qu'il faut vérifier.
Ajoutez des repères visibles que le modèle doit utiliser quand il est incertain, comme « [VERIFY] » ou « [SOURCE NEEDED] ». Cela garde le brouillon fluide tout en rendant évidentes les lignes risquées, de sorte que vous vérifiiez seulement l'essentiel au lieu de relire chaque phrase.
Extrayez une liste simple d'affirmations du brouillon et vérifiez d'abord les éléments à haut risque. Réécrivez ensuite uniquement les phrases modifiées et faites une passe finale pour supprimer les marqueurs d'incertitude avant publication.
Considérez vos invites et règles de vérification comme des modèles réutilisables, pas comme des instructions ponctuelles. Si vous publiez à grande échelle, une plateforme comme GENERATED peut aider à standardiser le flux (génération via API, polissage, traductions) pour que vos règles « sources-only » et « marquer l'incertitude » restent cohérentes.