Разбор

Почему ИИ говорит глупости — и 5 приёмов, которые это почти исправляют

Юрист вставил в иск 4 несуществующих прецедента — ChatGPT их выдумал с датами и цитатами. Эпизод 12 курса «ИИ-агенты от нуля»: почему ИИ галлюцинирует и 5 приёмов, которые снижают ошибки почти до нуля.

• 3 мин чтения

Юрист, которого я веду с прошлой осени, готовил иск. Попросил ChatGPT найти прецеденты — постановления Верховного суда по нужной статье. Получил семь. С номерами, датами, цитатами. Всё убедительно. Вставил в документ. Через час звонит коллега: «Из семи прецедентов четыре не существуют».

4 из 7прецедентов не существовало. ChatGPT сочинил их с датами, именами судей и цитатами — убедительно и уверенно.Из практики персональной сессии, 2024

Почему ИИ это делает — механика

ИИ не врёт в том смысле, в котором врут люди. У него нет намерения. Он не знает, что такое правда и ложь.

На базовом уровне модель делает одно: угадывает следующее слово. Когда ты спрашиваешь про постановление Верховного суда, у неё не открывается база данных. У неё — статистический клубок из всего интернета. Она генерирует слова, которые звучат как правильный ответ. Структура правильная. Номера в правильном формате. Цитата убедительная. Содержание — придумано.

Аналогия: умный друг, которому очень важно никогда не молчать. Не знает точного ответа — не скажет «не знаю». Сочинит с нужной интонацией, правильными словами. Звучит как правда. Но придумано.

Это не баг, который починят. Это следствие архитектуры. Модель не различает «знаю точно» и «сейчас сгенерирую».

Где риск выше — карта зон

🟢
Низкий риск
Общие концепции, объяснения терминов, стандартные тексты, базовые инструкции
🟡
Средний риск
Исторические факты с датами, статистика, биографии, технические детали
🔴
Высокий риск
Юридические нормы, медицинские дозировки, научные ссылки, свежие события, специализированный код

Контринтуитивное правило: чем увереннее звучит ответ — тем подозрительнее. Когда ИИ не знает, он часто пишет особенно убедительно. Сомнение в его манере не предусмотрено.

5 техник, которые снижают ошибки почти до нуля

1
Режим неуверенности
Добавь в промпт прямую инструкцию. Снижает галлюцинации в разы — проверено на практике.
«Если ты не уверен или не знаешь точного ответа — скажи об этом прямо. Лучше “не знаю”, чем выдумка»
2
Проверка ссылок
После ответа на фактический вопрос: «Откуда эта информация? Дай ссылку». Ссылка не открывается — ответ сочинён.
3
Двойной вопрос
Задай тот же вопрос двумя разными формулировками. Ответы расходятся в фактах — галлюцинирует. Совпадают — выше вероятность правды.
4
ИИ с поиском
Для фактических вопросов — только Perplexity, Gemini с Search, ChatGPT с поиском. Они тянут из живых источников и дают ссылки.
5
Ручная проверка критических данных
Цена ошибки высокая — проверяй каждую цифру, дату, имя, номер закона вручную. ИИ — черновик. Ты — редактор.

Когда клиент обнаружил фиктивные прецеденты — я объяснил: так устроена архитектура, и перед подачей критических документов нужно делать именно это. После этого разговора он стал относиться к ИИ как к толковому стажёру, которого нужно проверять, а не как к оракулу. Продуктивность не упала. Ошибки пропали.

Какой тип задачи несёт наибольший риск получить галлюцинацию?
← Предыдущая
Как обучают ChatGPT
Эпизод 12 из 30ИИ-агенты от нуля
Следующая →
ИИ и творчество

Источники

Источники

Часто задаваемые вопросы

Почему ИИ уверенно говорит неправду?
ИИ не лжёт в человеческом смысле — у него нет намерения. Он генерирует следующее статистически вероятное слово. Когда точного ответа нет в обучающих данных, модель производит слова, которые «звучат правдоподобно», не отличая «знаю» от «сочиняю». Это называется галлюцинация — неизбежное следствие архитектуры языковых моделей.
В каких ситуациях ИИ ошибается чаще всего?
Три зоны повышенного риска: 1) Конкретные факты — даты, цифры, имена, ссылки, номера законов. 2) Свежие события после даты обучения модели. 3) Узкие профессиональные темы с малым объёмом обучающих данных (редкие юридические нормы, специализированный код, малоизвестные персоналии).
Как заставить ИИ признавать, что он не знает ответа?
Добавить в промпт фразу: «Если ты не уверен или не знаешь точного ответа — скажи об этом прямо. Лучше "не знаю", чем выдумка». Это снижает галлюцинации в разы. ИИ начинает чаще говорить «я не уверен» вместо того, чтобы сочинять убедительно.
Как проверить, не галлюцинирует ли ИИ?
5 техник: 1) Попросить источники и проверить ссылки. 2) Задать тот же вопрос дважды разными словами — сравнить ответы. 3) Использовать ИИ с веб-поиском (Perplexity, Gemini). 4) Попросить ИИ признавать неуверенность. 5) Лично проверять каждую цифру, имя, дату в критических документах.
Можно ли полностью избавиться от галлюцинаций?
Нет — это фундаментальная особенность архитектуры языковых моделей, а не баг, который можно починить. Но правильные техники снижают частоту ошибок настолько, что на большинстве практических задач ИИ работает надёжно. Главное правило: критически важные факты всегда верифицировать из первичных источников.
Что делать, если обнаружил ошибку в ответе ИИ?
Не закрывать вкладку. Написать прямо: «Ты только что сказал Х — это неверно, правильный ответ Y. Учти это и перепиши ответ». ИИ скорректирует. Важно: он не «обидится» и не будет защищать свою ошибку — просто пересчитает с новой информацией.
Обсуждение

    Пока без комментариев. Будьте первым.

    Войдите, чтобы отправить комментарий

    Вы сможете комментировать статьи, сохранять материалы

    или войдите по email

    Бесплатная диагностика · 30 минут · без обязательств

    Маркетинг работает, но продажи не растут?

    Отвечу на 3–5 вопросов о вашем бизнесе — и мы вместе разберём, где именно теряются клиенты и что с этим делать.

    Без продаж. Без навязчивых звонков.