3,583 papers
arXiv:2509.25498 82 29 сент. 2025 г. PRO

Галлюцинации LLM в работе с документами: модели не врут, а додумывают

КЛЮЧЕВАЯ СУТЬ
LLM врут не там где ждёшь. Проверили ChatGPT, Gemini и NotebookLM на 300 документах — 30% ответов содержали галлюцинации. Но модели не выдумывали цифры или даты. Они додумывали интерпретации: «написано для широкой аудитории», «эксперты позитивно оценивают», «это было ответом на китайскую политику». Всё уверенно, всё правдоподобно, всё без опоры на текст. Исследование позволяет понять где именно проверять ответы LLM при работе с документами — не только факты, но и «соединительную ткань». Фишка: проверяй характеристики источников, атрибуцию мнений, причинно-следственные связи. Именно там модель додумывает. NotebookLM с принудительными цитатами — 13% ошибок. ChatGPT и Gemini — 40%. Разница не в «умности», а в архитектуре: система требующая источник для каждого утверждения физически не может додумать «от себя». Нет ссылки на документ — нет текста.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с