Lerne, wie du KI‑Halluzinationen beim Schreiben mit quellenbasierten Prompts, Begrenzung von Behauptungen, Verifikationsschritten und schnellen Prüfungen für nicht überprüfbaren Text reduzierst.

Halluzinationen treten auf, wenn eine KI etwas schreibt, das selbstbewusst und konkret klingt, aber falsch oder einfach erfunden ist. Gefährlich ist der Ton: Ein Satz kann sich wie eine verifizierte Tatsache lesen, obwohl er nur eine Vermutung ist.
Oft erkennst du Halluzinationen an ihren „zu sauberen“ Details. Ein Entwurf enthält plötzlich genaue Zahlen, präzise Daten oder perfekte Zitate, die du nicht geliefert hast. Er kann eine Studie, ein Buch oder einen Expertin zitieren, die es nicht gibt.
Häufige Anzeichen sind:
Das passiert, weil Sprachmodelle wahrscheinliche Wortfolgen vorhersagen. Wenn das Modell nicht genug Informationen hat, füllt es Lücken mit etwas, das zum Muster eines guten Artikels passt. Prompts, die nach Autorität fragen ("füge Statistiken ein" oder "fünf Zitate"), ohne Quellen zu liefern, treiben das Modell in Richtung Improvisation.
Das Ziel ist nicht Perfektion. Es geht darum, riskante Behauptungen entweder zu belegen oder klar als unbestätigt zu kennzeichnen. Ein robuster Prozess macht den Entwurf nützlich, während du kontrollierst, was als Fakt dargestellt wird.
Eine einfache Regel hilft: Wenn eine Behauptung eine Entscheidung, Reputation oder Compliance beeinflussen könnte, behandle sie als hochriskant und fordere eine Quelle, bevor sie im Text bleibt.
Wenn du Halluzinationen reduzieren willst, starte vor dem ersten Prompt. Sag dem Modell, was es sagen darf, was es vermeiden muss und für wen es schreibt. Klare Grenzen machen den Entwurf leichter verifizierbar und deutlich schwieriger zu „erfinden“.
Schreibe ein einfaches Behauptungs‑Budget. Es geht nicht um Zögerlichkeit, sondern um Explizitheit.
Definiere die Leserschaft mit einem Satz. Beispiel: "Gestresste Marketing‑Managerin, nicht technisch, liest mobil, will eine praktische Checkliste." Diese eine Zeile verändert Ton und Wortwahl mehr als die meisten Stil‑Prompts.
Setze Grenzen für den Umfang, damit das Modell Kontexte nicht vermischt:
Und wähle im Voraus den Ausgabetyp (Blog‑Abschnitt, News‑Zusammenfassung, Glossareintrag). Wenn das unklar ist, neigen Modelle dazu, mit Füllmaterial und riskanten Behauptungen aufzufüllen.
Wenn du eine KI zuerst schreiben lässt und später rechtfertigen lässt, lädst du selbstbewusste Fiktionen ein. Dreh die Reihenfolge um: Lass sie Belege sammeln, bevor sie Behauptungen aufstellt.
Beginne damit, nach einem Quellenplan zu fragen, nicht nach einem Entwurf. Ziel ist eine kleine Menge an Quellen (oder Platzhaltern), auf die sich das Modell beim Schreiben stützen muss.
Nutze eine Anfrage in zwei Durchgängen: zuerst Quellen, dann der Entwurf. Halte den Schreibschritt an diese Quellen gebunden.
Dieses "No source"‑Label ist der Punkt. Es macht deutlich, was geprüft werden muss, und verhindert, dass das Modell eine Referenz erfindet, die echt klingt.
Wähle ein striktes, langweiliges Format, damit du es schnell überfliegen kannst:
Beispiel (zum Einfügen in ein Tool oder einen API‑Call):
Task: Write a 700-word section.
Step 1: Propose 6 sources (S1-S6). For each: title, publisher, date, what it supports.
Step 2: Draft the section using ONLY S1-S6. After every factual claim add [S#].
If you cannot support a claim, write [No source] and do not guess.
Output: sources list, then draft.
Die meisten Halluzinationen verstecken sich in Details, die glaubwürdig klingen: Prozentsätze, Start‑Dates, „Top‑10“‑Rankings und exakte Zitate. Behandle diese als Hochrisiko‑Behauptungen und gib ihnen zusätzliche Regeln.
Eine praktische Leitplanke ist simpel: Wenn der Entwurf Zahlen, Daten, Rankings, Namen oder Zitate enthält, muss er auch eine prüfbare Quelle angeben. Fehlt eine Quelle, soll das Modell die Angabe entfernen oder als unbekannt markieren.
Nützliche Einschränkungen, die du in Prompts einbauen kannst:
Unsicherheits‑Labels halten Entwürfe brauchbar, ohne vorzutäuschen. Bitte das Modell, riskante Aussagen als confirmed, likely oder unknown zu kennzeichnen. "Likely" nur zulassen, wenn es auch begründet wird (z. B. "basierend auf dem bereitgestellten Changelog‑Ausschnitt").
Der größte Gewinn ist Konsistenz. Verwende jedes Mal denselben kleinen Workflow, damit Verifikation kein Nachgedanke wird.
Eine schnelle Schleife, die dennoch das Risiko trifft:
Beispiel: Wenn ein Entwurf sagt „Google bestätigte X im Jahr 2023“, zwingt die Behauptungsliste zu Nachforschungen: Welche Ankündigung, an welchem Datum und wo ist sie dokumentiert? Wenn du das nicht schnell beantworten kannst, schwäche die Aussage ab oder entferne sie.
Editing wird langsam, wenn jeder Satz zum Gerichtssaal wird. Ein schnellerer Ansatz ist, den Entwurf sich selbst markieren zu lassen, was geprüft werden muss, und anschließend nur die Hochrisiko‑Zeilen zu verifizieren.
Sag dem Modell nicht nur „sei genau“, sondern veranlasse es, Unsicherheit zu kennzeichnen. Wenn es keine Quelle gesehen hat, darf es nicht sicher klingen.
Verwende auffällige Platzhalter für die Bearbeitung:
Führe dann einen zweiten Durchgang durch, der markierte Zeilen sicherer umformuliert.
Beispiel: „Acme wurde 2018 gegründet und bedient jetzt 10.000 Kunden.“ Wenn du keine Quelle hast, schreibe: "Acme wurde [VERIFY: Gründungsjahr] gegründet und bedient [VERIFY: Kundenzahl]." Eine sichere Alternative: "Acme ist seit der Gründung stetig gewachsen und bedient Kunden in mehreren Märkten." Weniger spektakulär, aber nicht falsch.
Bei der Prüfung der Markierungen entscheide zügig:
Du kannst Halluzinationen reduzieren, ohne einen schweren Prozess aufzubauen. Der Trick ist, ein paar kleine Artefakte mit dem Entwurf mitlaufen zu lassen, die das Prüfen beschleunigen.
Halte eine kleine Tabelle neben dem Entwurf (auch als Notiz). Jedes Mal, wenn das Modell eine faktische Aussage macht, erfasse sie einmal und entscheide dann:
Wenn du "Firma X wurde 2017 gegründet" nicht belegen kannst, behandle es als hochriskant und formuliere den Absatz so um, dass er auch ohne das Datum funktioniert.
Führe getrennt vom Entwurf ein laufendes Zitierprotokoll mit Quellen, die du bereits geprüft hast. Mit der Zeit wird das dein Standard‑Regal für verlässliche Referenzen und reduziert die Versuchung, das zu akzeptieren, was das Modell erfindet.
Halte es einfach: Quellname, wofür sie gut ist und mögliche Einschränkungen (z. B. "gut für Definitionen, nicht für Marktstatistiken").
Rote Flags verdienen einen zweiten Blick: Superlative ("das beste"), präzise Statistiken, namentliche Personen/Firmen, Zitate, Daten und "erste/einzige/größte"‑Aussagen.
Ein kurzes Review‑Skript reicht:
Halluzinationen entstehen meist, wenn das Modell Lücken füllen darf und niemand es bemerkt. Der Hauptteil der Lösung ist, diese Lücken zu schließen.
Häufige Fallen:
Wenn du Statistiken brauchst, fordere einen bestimmten Quelltyp (benannter Bericht, öffentliches Dataset, Geschäftsbericht) und zwinge das Modell, "unbekannt" zu schreiben, wenn die Angabe nicht verfügbar ist.
Behandle den Entwurf vor der Veröffentlichung wie eine Sammlung von Behauptungen, nicht als Aneinanderreihung von Sätzen.
Lies einmal für den Sinn. Scanne dann gezielt nach Hochrisiko‑Details: Zahlen, Daten, Rankings, Zitate und alles zu Spezifisches.
Ein praktischer Trick: Markiere zweifelhafte Zeilen beim Editieren mit [VERIFY]. Bleiben am Ende noch [VERIFY]‑Markierungen, ist der Beitrag nicht bereit.
Stell dir einen Beitrag zur persönlichen Finanzfrage vor: „Soll ich meine Hypothek vorzeitig ablösen oder investieren?“ Hier produziert KI oft selbstbewusste Aussagen über Renditen, Inflation, Steuerregeln und historische Durchschnitte.
Behandle es als Quellen‑zuerst‑Aufgabe, nicht als Kreativauftrag. Beginne mit einem kurzen, strengen Prompt:
Task: Write a 900-word blog post for US readers deciding between extra mortgage payments vs investing.
Scope: General education only. No personal advice.
Allowed claims: Only claims supported by the sources I provide.
High-risk claims (must be cited): rates of return, inflation, tax rules, dates, named products, quotes.
Citations: After any sentence with a high-risk claim, add [S1], [S2], etc.
If a claim cannot be supported: mark it as [UNVERIFIED] and suggest what source is needed.
Sources:
S1: (paste a trusted explainer)
S2: (paste IRS page excerpt or official guidance excerpt)
S3: (paste a reputable calculator methodology page excerpt)
Dann folge einem strengen Ablauf:
Eine typische riskante Aussage ist: "Der Aktienmarkt bringt im Durchschnitt 10% pro Jahr." Wenn deine Quellen das nicht so explizit sagen, formuliere es weniger genau: "Langfristige Renditen können je nach betrachteter Periode stark variieren; es gibt keine garantierte jährliche Rendite. [UNVERIFIED: benötigt spezifische Quelle und Zeitraum]" Oder ersetze sie durch eine engere, belegt‑bare Aussage (z. B. "Einige Langzeitstudien berichten für bestimmte Zeiträume von historischen Durchschnittsrenditen. [S1]").
Der schnellste Weg, Halluzinationen zu reduzieren, ist aufzuhören, jeden Beitrag als Einzelprojekt zu behandeln. Speichere deine besten Prompts als Vorlagen mit denselben Leitplanken: erlaubte Quellen, verbotene Behauptungsarten und wie Unsicherheit zu markieren ist.
Wenn du in großem Maßstab veröffentlichst, hilft es, wenn deine Tools dieselbe Struktur über Entwürfe, Umschreibungen und Updates unterstützen. GENERATED (generated.app) ist ein Beispiel für eine Content‑Plattform, die Inhalte über eine API generieren, polieren und übersetzen kann und dabei hilft, einen konsistenten Workflow für Entwürfe und Überarbeitungen beizubehalten.
Eine Halluzination liegt vor, wenn die KI etwas Spezifisches und Selbstbewusstes behauptet, das durch deine Eingaben oder eine reale Quelle nicht gestützt wird. Sie zeigt sich oft in sauberen Zahlen, genauen Daten oder zitierähnlichen Sätzen, die zwar glaubwürdig klingen, sich aber nicht zurückverfolgen lassen.
Achte auf Details, die „zu sauber“ wirken: präzise Prozentsätze, exakte Jahre, perfekte Zuordnungen oder zitierte Sätze, die du nie geliefert hast. Wenn du nicht schnell sagen kannst, woher eine Aussage stammt, behandle sie als unbestätigt und füge entweder eine Quelle hinzu oder schreibe sie allgemeiner um.
Behandle alles, was eine Entscheidung beeinflussen, Glaubwürdigkeit schädigen oder Compliance‑Risiken bergen könnte, als hochriskant. Standardmäßig sollte für Zahlen, Daten, Rankings, Namen und Zitate eine überprüfbare Quelle verlangt werden. Solche Details dürfen nicht im Text bleiben, ohne dass es Belege gibt.
Gib vor dem Start ein „Behauptungs‑Budget“ vor: was das Modell darf (Erklärungen, Zusammenfassungen bereitgestellter Materialien) und was es nicht darf (Erfinden von Statistiken, Daten, Zitaten oder „laut X“-Aussagen). Klare Grenzen machen die Ausgabe leichter überprüfbar und reduzieren das Bedürfnis des Modells, Lücken zu füllen.
Definiere Geografie, Zeitraum und erlaubte Quellen von vornherein und halte dich daran. Wenn du keine Grenzen setzt, kann das Modell Regionen, veraltete Informationen und unzusammenhängenden Kontext vermischen, sodass es zwar kohärent klingt, aber nicht zuverlässig ist.
Frag zuerst nach Quellen, dann nach dem Text. Fordere eine einfache Zitierkennung wie [S1] nach faktischen Aussagen. Wenn das Modell eine Aussage nicht stützen kann, sollte es etwas wie „[No source]“ schreiben, statt zu raten.
Verwende eine strikte Regel: jede Zahl, jedes Datum, jede genannte Studie oder jedes Zitat muss einen Quell‑Tag enthalten, und Zitate müssen aus einem von dir gelieferten Text stammen (nicht als Paraphrase in Anführungszeichen). Fehlt die Quelle, ersetze die Angabe durch eine allgemeine Aussage oder markiere sie als zu verifizieren.
Füge sichtbare Platzhalter ein, die das Modell verwenden muss, wenn es unsicher ist, z. B. „[VERIFY]“ oder „[SOURCE NEEDED]“. So bleibt der Entwurf im Fluss und risikoreiche Zeilen werden deutlich markiert, sodass du nur das Wesentliche prüfen musst, statt jeden Satz zu fact‑checken.
Ziehe aus dem Entwurf eine einfache Liste mit Behauptungen und verifiziere zuerst nur die Hochrisikopunkte. Schreibe anschließend nur die geänderten Sätze um und mach einen abschließenden Durchgang, um verbleibende Unsicherheits‑Markierungen vor der Veröffentlichung zu entfernen.
Behandle deine Prompts und Verifizierungsregeln als wiederverwendbare Vorlagen, nicht als Einmalanweisungen. Wenn du Inhalte in großem Maßstab erstellst, kann eine Plattform wie GENERATED helfen, den Workflow über Entwürfe, Überarbeitungen, Übersetzungen und Updates zu standardisieren, sodass Regeln wie „nur Quellen nutzen“ und „Unsicherheit markieren“ konsistent angewendet werden.