Узнайте, как снизить галлюцинации ИИ в текстах с подходом «источники в первую очередь», лимитами для утверждений, шагами проверки и быстрыми тестами для выявления непроверяемых фрагментов.

Галлюцинации происходят, когда ИИ пишет что-то уверенное и конкретное, но это неверно или выдумано. Опасность в тоне: предложение может читаться как проверенный факт, даже если это лишь догадка.
Их часто выдаёт «слишком аккуратная» детализация. В черновике внезапно появляются точные числа, конкретные даты или идеальные цитаты, которых вы не давали. Модель может сослаться на исследование, книгу или эксперта, которого не существует.
Типичные признаки:
Это происходит потому, что языковые модели предсказывают вероятные последовательности слов. Когда у модели недостаточно информации, она заполняет пробелы тем, что подходит под паттерн «хорошей статьи». Подсказки, которые просят авторитетности ("вставь статистику" или "добавь цитату") без предоставления источников, подталкивают модель к домыслам.
Цель не в идеале. Она в том, чтобы рискованные утверждения либо были подкреплены доказательствами, либо явно помечены как непроверенные. Надёжный процесс делает черновик полезным и позволяет вам контролировать, что заявляется как факт.
Простое правило: если утверждение может повлиять на решение, репутацию или соответствие требованиям, считайте его высоким риском и требуйте источник, прежде чем оставлять это в тексте.
Чтобы уменьшить галлюцинации, начните до первой подсказки. Подскажите модели, что ей разрешено говорить, чего нужно избегать и для кого она пишет. Чёткие пределы упрощают проверку черновика и сильно уменьшают вероятность "изобретения".
Напишите простой «бюджет утверждений». Речь не о трусости, а об явности.
Определите читателя в одном предложении. Пример: "Занятый маркетинг-менеджер, нетехнический, читает с мобильного, хочет практический чеклист." Эта одна строчка меняет тон и выбор слов сильнее, чем большинство стилевых подсказок.
Задайте границы по объёму, чтобы модель не смешивала контексты:
Наконец, заранее выберите тип вывода (раздел блога, новостная сводка, запись в глоссарии). Когда это расплывчато, модели склонны заполнять текст деталями и догадками.
Если вы сначала даёте ИИ написать, а потом попросите обосновать, вы приглашаете уверенное выдумывание. Переверните порядок: заставьте модель собрать доказательства до того, как она начнёт утверждать.
Начните с запроса плана источников, а не черновика. Цель — небольшой набор источников (или заплаток), на которые модель обязана опираться при написании.
Используйте двухэтапный запрос: сначала источники, затем текст. Зафиксируйте, что при написании можно опираться только на эти источники.
Метка "No source" — именно цель. Она выделяет то, что нужно проверить, и блокирует модель от выдумывания правдоподобной ссылки.
Выберите жёсткий, скучный формат, чтобы быстро просматривать:
Пример (можно вставить в любой инструмент или API-вызов):
Task: Write a 700-word section.
Step 1: Propose 6 sources (S1-S6). For each: title, publisher, date, what it supports.
Step 2: Draft the section using ONLY S1-S6. After every factual claim add [S#].
If you cannot support a claim, write [No source] and do not guess.
Output: sources list, then draft.
Большинство галлюцинаций прячутся в деталях, которые звучат убедительно: проценты, даты запуска, рейтинги «топ 10» и точные цитаты. Обращайтесь с ними как с высокорисковыми утверждениями и задавайте дополнительные правила.
Практичная защита простая: если в черновике появляются числа, даты, рейтинги, имена или цитаты, они должны идти с проверяемым источником. Если источника нет — модель должна убрать деталь или пометить её как неизвестную.
Полезные ограничения, которые можно встроить в подсказки:
Метки неопределённости делают черновики пригодными к использованию без притворства. Попросите модель тегировать рискованные утверждения как confirmed, likely или unknown. Разрешайте likely только если модель объясняет, почему (например, "на основе предоставленного фрагмента изменений").
Самый большой выигрыш — в последовательности. Используйте один и тот же небольшой рабочий процесс каждый раз, чтобы проверка не была делом на потом.
Быстрый цикл, который всё ещё ловит рискованные вещи:
Пример: если в черновике стоит "Google подтвердил X в 2023 году", список утверждений заставит вас уточнить: какое именно объявление, какая дата и где это зафиксировано? Если не сможете ответить быстро — смягчите или удалите утверждение.
Редактирование замедляется, когда каждое предложение превращается в судебный процесс. Более быстрый подход — заставить черновик сам отмечать, что нужно проверить, а затем проверять только высокорисковые строки.
Вместо общего требования "будь точным" попросите модель помечать неопределённость. Если она не видела источник, ей нельзя звучать уверенно.
Используйте яркие заполнители, которые заметны при редактировании:
Затем выполните второй проход, который перепишет помеченные строки в более безопасной форме.
Пример: "Acme запустилась в 2018 и теперь обслуживает 10 000 клиентов." Если у вас нет источника, перепишите: "Acme запустилась в [VERIFY: год запуска] и обслуживает [VERIFY: число клиентов]." Безопасная альтернатива: "Acme растёт с момента запуска и обслуживает клиентов в нескольких регионах." Менее эффектно, но не вводит в заблуждение.
При просмотре меток действуйте быстро:
Можно снизить уровень галлюцинаций, не создавая громоздкий процесс. Хитрость — хранить несколько маленьких артефактов вместе с черновиком, чтобы проверка шла быстро.
Держите рядом с черновиком небольшую таблицу (даже в заметке). Каждый раз, когда модель делает фактическое утверждение, запишите его и решите, что делать дальше:
Если не удаётся подтвердить "Компания X запустилась в 2017", считайте это высоким риском и перепишите абзац так, чтобы текст работал, даже если дата изменится.
Отдельно от черновика ведите список проверенных источников. Со временем это станет вашей полкой надёжных ссылок и уменьшит искушение принимать выдумки модели.
Держите его простым: название источника, для чего он годится и ограничения (например, "годится для определений, не для рыночной статистики").
Красные флаги требуют второго взгляда: суперлативы ("лучший"), точная статистика, имена людей/компаний, цитаты, даты и утверждения "первый/единственный/наиболее".
Короткий сценарий проверки достаточен:
Галлюцинации обычно появляются, когда модели разрешают заполнять пробелы, и никто этого не замечает. Большая часть решения — убрать эти пробелы.
Типичные ловушки:
Если нужны статистики, требуйте конкретный тип источника (названный отчёт, публичный набор данных, годовой отчёт) и заставляйте заменять на "неизвестно", если данных нет.
Перед публикацией относитесь к черновику как к набору утверждений, а не набору предложений.
Прочитайте для смысла. Затем просканируйте на высокорисковые детали: числа, даты, рейтинги, цитаты и всё слишком конкретное.
Практичный приём: помечайте сомнительные строки как [VERIFY] во время правки. Если в конце остались метки [VERIFY], материал не готов.
Представьте, что вы готовите пост про личные финансы: "Стоит ли платить ипотеку досрочно или инвестировать?" Здесь ИИ часто даёт уверенные утверждения о доходностях, инфляции, налоговых правилах и исторических средних.
Рассматривайте задачу как source-first, а не творческую. Начните с короткой, но строгой подсказки:
Task: Write a 900-word blog post for US readers deciding between extra mortgage payments vs investing.
Scope: General education only. No personal advice.
Allowed claims: Only claims supported by the sources I provide.
High-risk claims (must be cited): rates of return, inflation, tax rules, dates, named products, quotes.
Citations: After any sentence with a high-risk claim, add [S1], [S2], etc.
If a claim cannot be supported: mark it as [UNVERIFIED] and suggest what source is needed.
Sources:
S1: (paste a trusted explainer)
S2: (paste IRS page excerpt or official guidance excerpt)
S3: (paste a reputable calculator methodology page excerpt)
Затем следуйте строгому потоку:
Типичная рискованная строка: "Рынок акций даёт 10% в год в среднем." Если ваши источники этого не подтверждают, перепишите, чтобы избежать мнимой точности: "Долгосрочные доходности варьируются по периодам, и годовая доходность не гарантирована. [UNVERIFIED: нужен конкретный источник и период]" Или замените на более узкое, источенное утверждение (например, "Некоторые долгосрочные исследования приводят средние показатели за определённые периоды. [S1]").
Самый быстрый способ снизить галлюцинации — перестать считать каждый пост разовой задачей. Сохраняйте лучшие подсказки как шаблоны с одинаковыми барьерами: разрешённые источники, запрещённые типы утверждений и правила маркировки неопределённости.
Если вы публикуете в масштабе, полезно, чтобы ваши инструменты поддерживали одинаковую структуру черновиков, правок и обновлений. GENERATED (generated.app) — один пример платформы, которая может генерировать контент через API, помогать с полировкой и переводами и поддерживать согласованный рабочий процесс для черновиков и ревизий.
Галлюцинация — это когда ИИ заявляет что-то конкретное и уверенное, что на самом деле не поддержано вашими материалами или реальными источниками. Часто проявляется в виде аккуратных цифр, точных дат или цитат в кавычках, которые выглядят правдоподобно, но не отслеживаются.
Ищите детали, которые выглядят «слишком аккуратно»: точные проценты, конкретные годы, идеальные атрибуции или цитаты, которые вы не давали. Если вы не можете быстро указать источник утверждения, считайте его непроверенным — добавьте источник или переформулируйте более общо.
Считайте высокорисковыми всё, что может повлиять на решение, подорвать доверие или повлечь вопросы соответствия требованиям. По умолчанию требуйте проверяемый источник для чисел, дат, рейтингов, имён и цитат — не оставляйте такие детали в тексте без доказательств.
Перед началом набросайте «бюджет утверждений»: что модель разрешено делать (объяснять, суммировать предоставленные материалы) и что запрещено (выдумывать статистику, даты, цитаты или фразы «по данным X»). Чёткие границы упрощают проверку и уменьшают стремление модели заполнять пробелы.
Определите географию, временные рамки и разрешённые источники заранее и придерживайтесь их. Без границ модель может смешивать регионы, устаревшую информацию и нерелевантный контекст, что звучит связно, но ненадёжно.
Это когда вы просите модель сначала подобрать источники, а уже потом — писать текст, используя только эти источники, и помечать факты ключами вроде [S1]. Если модель не может подтвердить утверждение, она должна писать что-то вроде «[No source]» вместо угадывания.
Установите строгие правила: каждая цифра, дата, название исследования или цитата должна сопровождаться тегом источника, а цитаты — брать только из текста, который вы предоставили (без перекладывания в кавычки). Если источника нет, замените деталь общей формулировкой или пометьте как требующую проверки.
Попросите модель вставлять заметные метки для неуверенных мест — например, “[VERIFY]” или “[SOURCE NEEDED]”. Это позволяет черновику развиваться, но делает проблемные строки очевидными, чтобы вы проверяли только важные элементы, а не каждое предложение.
Выпишите список утверждений из черновика и сначала проверьте только высокорисковые пункты. Затем перепишите только те предложения, которые требуют изменений, и сделайте финальный проход, чтобы убрать оставшиеся метки неопределённости перед публикацией.
Считайте ваши подсказки и правила проверки повторно используемыми шаблонами, а не разовыми инструкциями. При масштабной публикации платформа вроде GENERATED помогает стандартизировать рабочий процесс для черновиков, правок, переводов и обновлений, чтобы правила «только источники» и «помечать неопределённость» соблюдались постоянно.