3,583 papers
arXiv:2510.22751 70 26 окт. 2025 г. FREE

Три типа источников против галлюцинаций: структурированная проверка фактов в LLM

КЛЮЧЕВАЯ СУТЬ
LLM галлюцинирует даже когда проверяет факты по источникам. Причина: один тип источника недостаточен. Wikipedia отстаёт с новостями на месяцы, веб-поиск плывёт в исторических фактах, академические базы не знают общих вещей. Метод позволяет проверять каждый факт параллельно по трём типам источников — структурированным базам, свежим новостям и специализированным репозиториям. Система извлекает утверждения из текста LLM и отправляет их во все три типа одновременно. Вычисляет confidence score (согласованность + авторитетность + свежесть). Если источники противоречат — автоматическая коррекция. 67% снижение галлюцинаций.
Адаптировать под запрос

TL;DR

Исследователи создали систему, которая в реальном времени проверяет каждое фактуальное утверждение LLM по трём типам источников: структурированным базам данных (Wikipedia, специализированные справочники), свежим веб-источникам (новости, актуальные данные) и академическим репозиториям (PubMed, arXiv). Когда источники согласуются — модель продолжает, когда противоречат — система автоматически исправляет ошибку.

Главная находка: Один тип источника недостаточен. Wikipedia отстаёт с новостями, веб-поиск слаб в исторических фактах, академические базы не покрывают общие знания. LLM галлюцинирует меньше, когда факты проверяются параллельно по источникам разных типов с учётом их сильных сторон. Противоречия между авторитетными источниками — красный флаг для углублённой проверки.

Суть метода: Система извлекает фактуальные утверждения из ответа LLM, параллельно проверяет каждое по всем типам источников, вычисляет confidence score (насколько источники согласуются + насколько авторитетны), и если score ниже порога — автоматически корректирует текст. Результат: 67% снижение галлюцинаций, эксперты оценили исправленные ответы на 89% удовлетворительно.


🔬

Схема метода

Система работает во время генерации ответа LLM:

ШАГ 1: Извлечение фактов
LLM генерирует текст → Fine-tuned T5 извлекает проверяемые утверждения

ШАГ 2: Параллельная проверка по типам источников
Каждое утверждение → одновременно:
 - Structured: Wikidata, YAGO, domain ontologies
 - Real-time: Google/Bing API (приоритет .edu/.gov)
 - Academic: PubMed, arXiv, SEC filings

ШАГ 3: Оценка консистентности и авторитетности
Байесовская агрегация → Confidence Score
= α·(согласованность источников) + β·(авторитетность) + γ·(временная релевантность)

ШАГ 4: Коррекция (если Confidence < порог)
Adaptive Correction Pipeline → замена факта / добавление hedge / указание источника

🚀

Пример применения

Задача: Ты пишешь аналитику для клиента про российский e-commerce. Попросил LLM: "Когда Wildberries вышел на рынок Казахстана?" Модель ответила: "2019 год". Нужна точность — ошибка в датах подорвёт доверие к отчёту.

Промпт (адаптация принципа мультисорсинга):

Проверь это утверждение: "Wildberries вышел на рынок Казахстана в 2019 году"

Используй три типа источников:
1. СТРУКТУРИРОВАННЫЕ: Wikipedia, корпоративные справочники, официальный сайт компании
2. СВЕЖИЕ: новости РБК, Коммерсант, Ведомости за период 2015-2024
3. СПЕЦИАЛИЗИРОВАННЫЕ: отчёты e-commerce аналитиков, пресс-релизы Wildberries

Для каждого источника:
- Укажи название, URL и дату публикации
- Оцени авторитетность (0-100): официальные источники и крупные медиа выше
- Проверь актуальность: для событий 2015-2020 приоритет историческим источникам

Затем:
1. Сравни даты между источниками
2. Отметь любые противоречия
3. Оцени итоговую уверенность в дате (0-100%)
4. Дай окончательный ответ с обоснованием

Результат:

Модель вернёт структурированную проверку: список источников с датами, оценками авторитетности и временной релевантности. Ты увидишь консистентность (все говорят "2017" vs "2019 только в одном блоге") и итоговый confidence score. Если источники противоречат — модель явно это укажет и предложит углублённый поиск. Финальный ответ будет либо скорректирован ("Фактически Wildberries вышел в Казахстан в 2017, по данным..."), либо с оговоркой ("Источники противоречат: 2017 vs 2019, требуется дополнительная проверка").


🧠

Почему это работает

Проблема LLM: Модель генерирует текст по паттернам из обучающих данных, без доступа к актуальной базе фактов. Она не "помнит" конкретный год события — она воспроизводит вероятностное распределение слов. Если в корпусе было больше упоминаний неверной даты (например, из-за популярного, но ошибочного источника), модель повторит эту ошибку с уверенностью.

Сильная сторона: LLM отлично извлекает, сравнивает и синтезирует информацию из разных источников. Если дать ей конкретные данные и попросить проверить консистентность — она это сделает надёжно.

Как метод использует сильную сторону: Вместо того чтобы полагаться на "память" LLM, мы даём ей роль аналитика фактов: собрать свежие данные из авторитетных источников, сравнить их, оценить противоречия, вынести вердикт. Разделение источников по типам критично: structured покрывает устоявшиеся факты, real-time — новости и изменения, academic — специализированные домены. Один тип не компенсирует слабость другого.

Рычаги управления:

  • Типы источников: добавь локальные медиа для региональных фактов, убери academic для общих вопросов
  • Threshold для Confidence: снизь для менее критичных задач (быстрее, но больше пропущенных ошибок), повысь для критичных (медленнее, надёжнее)
  • Приоритизация: для исторических фактов повысь вес structured, для новостей — real-time
  • Temporal constraints: укажи временной диапазон для поиска ("только источники после 2020")

📋

Шаблон промпта

Проверь утверждение: {утверждение}

Используй три типа источников:
1. СТРУКТУРИРОВАННЫЕ: {справочники, базы данных, официальные сайты}
2. СВЕЖИЕ: {новости, актуальные публикации за период {временной_диапазон}}
3. СПЕЦИАЛИЗИРОВАННЫЕ: {домен-специфичные ресурсы для {области_утверждения}}

Для каждого источника укажи:
- Название и ссылку
- Дату публикации
- Авторитетность (0-100): приоритет {критерии_авторитетности}
- Найденная информация

Затем:
1. Сравни информацию между источниками
2. Отметь противоречия
3. Оцени консистентность (0-100%)
4. Оцени итоговую уверенность в утверждении (0-100%)
5. Дай окончательный вердикт: ПОДТВЕРЖДЕНО / ОПРОВЕРГНУТО / НЕОДНОЗНАЧНО

Если вердикт ОПРОВЕРГНУТО или НЕОДНОЗНАЧНО, предложи корректную формулировку.

Как заполнять:

  • {утверждение} — конкретный факт для проверки (дата, число, событие)
  • {временной_диапазон} — период релевантности (для новостей 2023 года укажи "2023-2024")
  • {область_утверждения} — домен (медицина → PubMed, финансы → Bloomberg/SEC, e-commerce → отраслевые аналитики)
  • {критерии_авторитетности} — что считаешь надёжным (official sources > крупные медиа > блоги)

🚀 Быстрый старт — вставь в чат:

Вот шаблон для проверки фактов по типам источников. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит какое утверждение проверять, какие источники считать авторитетными для твоей области, какой временной диапазон актуален — потому что разные домены требуют разной приоритизации источников (для медицины academic > web, для новостей наоборот). Она возьмёт структуру multi-source verification и адаптирует под конкретный факт.


⚠️

Ограничения

⚠️ Требует доступа к веб-поиску: Работает в Claude/ChatGPT с включённым web search, иначе модель ограничена знаниями на момент обучения.

⚠️ Медленнее простого ответа: Параллельная проверка по нескольким источникам увеличивает время ответа. В исследовании система работала 2.8 секунды vs 0.8 секунды для обычного LLM.

⚠️ Субъективные утверждения не проверяются: Метод работает для объективных фактов (даты, числа, события). Оценки, мнения, творческий контент — вне зоны применимости.

⚠️ Противоречивые источники требуют ручного решения: Когда авторитетные источники дают разную информацию, система флагает это, но финальное решение за человеком.

⚠️ Зависимость от качества источников: Если авторитетные источники содержат одинаковую ошибку (например, массовое копирование неверной даты), система не обнаружит проблему.


🔍

Как исследовали

Команда протестировала фреймворк на пяти бенчмарках: HaluEval (5000 примеров галлюцинаций в диалогах), TruthfulQA (817 вопросов-ловушек на распространённые заблуждения), FEVER (200K claims для проверки по Wikipedia), Scientific Claims (1400 научных утверждений) и COVID-FACT (4000+ claims о COVID-19). Выбор неслучаен: первые три покрывают общие знания и исторические факты, последние два проверяют специализированные домены и быстро меняющуюся информацию.

Сравнивали с пятью baseline: обычный LLM без проверок, self-consistency (генерация нескольких ответов + выбор консенсуса), chain-of-verification (LLM проверяет сам себя), RAG (retrieval только из Wikipedia), и FactScore (декомпозиция на атомарные факты + проверка по Wikipedia).

Ключевая находка: Все baseline используют один тип источника или одну стратегию. RAG и FactScore — только Wikipedia (отстают по свежим темам). Self-consistency — только внутренние паттерны модели (не ловит систематические ошибки из обучающих данных). Chain-of-verification — модель проверяет саму себя теми же знаниями (галлюцинация воспроизводится).

Multi-source approach выиграл именно потому что комбинирует типы источников: structured (Wikidata, YAGO) для устоявшихся фактов, real-time web search для новостей, academic databases (PubMed, arXiv) для специализированных доменов. Байесовская агрегация взвешивает источники по авторитетности (.edu/.gov выше блогов) и временной релевантности (для COVID-19 статья 2023 важнее 2019).

Что удивило: Даже простое добавление веб-поиска (RAG) дало только 25% снижение галлюцинаций vs 67% у multi-source. Разница в структурированной проверке консистентности между типами источников. Когда Wikipedia говорит одно, а свежие новости другое — это сигнал для углублённой проверки. Single-source системы этот сигнал пропускают.

Пользовательское исследование с 75 экспертами (медицина, финансы, образование, журналистика) показало 89% удовлетворённость исправленными ответами vs 64% без проверки. Медики отметили 78% снижение потенциально опасной дезинформации — критично для здоровья. Финансовые аналитики оценили точность данных о рынках на 82% выше.

Практический инсайт: Галлюцинации снижаются не от "больше данных", а от разнообразия типов источников + проверки консистентности. Один Wikipedia на 200K claims (FEVER) менее эффективен, чем комбинация структурированных БД + веб + academic репозитории.


🔗

Ресурсы

Multi-Modal Fact-Verification Framework for Reducing Hallucinations in Large Language Models

Piyushkumar Patel, Microsoft

Ключевые отсылки:

  • FEVER Dataset (Thorne et al., 2018) — стандарт для fact-checking бенчмарков
  • TruthfulQA (Lin et al., 2022) — вопросы-ловушки на заблуждения
  • Retrieval-Augmented Generation (Lewis et al., 2020) — foundational RAG paper
  • Sentence-BERT (Reimers & Gurevych, 2019) — semantic similarity для matching

📋 Дайджест исследования

Ключевая суть

LLM галлюцинирует даже когда проверяет факты по источникам. Причина: один тип источника недостаточен. Wikipedia отстаёт с новостями на месяцы, веб-поиск плывёт в исторических фактах, академические базы не знают общих вещей. Метод позволяет проверять каждый факт параллельно по трём типам источников — структурированным базам, свежим новостям и специализированным репозиториям. Система извлекает утверждения из текста LLM и отправляет их во все три типа одновременно. Вычисляет confidence score (согласованность + авторитетность + свежесть). Если источники противоречат — автоматическая коррекция. 67% снижение галлюцинаций.

Принцип работы

Проверка идёт во время генерации ответа. Каждое фактуальное утверждение летит параллельно в три типа источников: structured (Wikipedia, справочники), real-time (новости, актуальные данные), academic (PubMed, arXiv, отраслевые отчёты). Система считает согласованность: если все три говорят одно — confidence высокий, если противоречат — красный флаг для углублённой проверки. Разные типы покрывают разные слабости: структурированные сильны в устоявшихся фактах, свежие — в новостях и изменениях, академические — в специализированных доменах.

Почему работает

LLM не хранит факты — она воспроизводит вероятностные паттерны из обучающих данных. Если в корпусе была популярная, но ошибочная дата, модель повторит её с полной уверенностью. Но LLM отлично сравнивает и синтезирует информацию из разных источников когда они даны явно. Метод даёт ей роль аналитика фактов: собери данные из авторитетных источников, сравни их, найди противоречия, вынеси вердикт. Три типа источников критичны — один не компенсирует слабость другого. Эксперты оценили исправленные ответы на 89% удовлетворительно против 34% для обычных LLM-ответов.

Когда применять

Аналитика и отчёты → конкретно для проверки дат, чисел, событий, названий, особенно когда ошибка в факте подрывает доверие к материалу (клиентские презентации, исследования, журналистика). Работает для региональных фактов если добавить локальные медиа в категорию свежих источников. НЕ подходит для субъективных оценок, мнений, творческого контента — метод работает только для объективных проверяемых фактов.

Мини-рецепт

1. Дай утверждение для проверки: Конкретный факт — дата события, число, название, имя ("Wildberries вышел в Казахстан в 2019").
2. Укажи три типа источников: Структурированные (официальные справочники, корпоративные сайты), свежие (новости за релевантный период), специализированные (домен-специфичные для темы — для e-commerce это отраслевые аналитики, для медицины PubMed).
3. Задай критерии для каждого источника: Название и ссылка, дата публикации, авторитетность 0-100 (официальные источники и крупные медиа выше), найденная информация.
4. Попроси сравнение: Сравнить информацию между источниками, отметить противоречия, оценить согласованность 0-100%, итоговую уверенность в утверждении 0-100%.
5. Получи вердикт: ПОДТВЕРЖДЕНО / ОПРОВЕРГНУТО / НЕОДНОЗНАЧНО с обоснованием. Если опровергнуто или неоднозначно — попроси корректную формулировку.

Примеры

[ПЛОХО] : Когда Wildberries вышел на рынок Казахстана?
[ХОРОШО] : Проверь утверждение: "Wildberries вышел на рынок Казахстана в 2019 году". Используй три типа источников: 1) СТРУКТУРИРОВАННЫЕ: Wikipedia, официальный сайт компании, корпоративные справочники. 2) СВЕЖИЕ: новости РБК, Коммерсант, Ведомости за период 2015-2024. 3) СПЕЦИАЛИЗИРОВАННЫЕ: отчёты e-commerce аналитиков, пресс-релизы Wildberries. Для каждого источника укажи: название, URL, дата публикации, авторитетность 0-100 (официальные источники и крупные медиа выше), найденная информация. Затем: сравни даты между источниками, отметь любые противоречия, оцени согласованность 0-100%, итоговую уверенность в дате 0-100%. Дай вердикт: ПОДТВЕРЖДЕНО/ОПРОВЕРГНУТО/НЕОДНОЗНАЧНО с обоснованием.
Источник: Multi-Modal Fact-Verification Framework for Reducing Hallucinations in Large Language Models
ArXiv ID: 2510.22751 | Сгенерировано: 2026-01-12 00:28

Концепты не выделены.

📖 Простыми словами

Три типа источников против галлюцинаций: структурированная проверка фактов в LLM

arXiv: 2510.22751

Нейросети не знают фактов — они просто играют в угадайку, подставляя самое вероятное слово. Когда ты спрашиваешь LLM о датах или цифрах, она не лезет в архив, а пытается угадать ответ по памяти, которая забита мусором из интернета. Исследователи решили эту проблему, создав Multi-Modal Fact-Verification Framework. Это жесткий фильтр, который перехватывает каждое утверждение модели еще до того, как оно попадет тебе на экран, и прогоняет его через тройное сито: Википедию, свежие новости и научные статьи. Если модель начинает нести отсебятину, система бьет ее по рукам и заставляет исправить текст на основе реальных данных.

Это как если бы ты нанял на работу стажера-всезнайку, который постоянно врет с честными глазами, и приставил к нему трех суровых проверяющих с энциклопедиями в руках. Стажер открывает рот, чтобы сказать очередную чушь, но проверяющие тут же сверяются со справочниками и затыкают его: «Нет, парень, Wildberries зашел в Казахстан не в 2019-м, а в 2014-м, вот документы». В итоге ты получаешь не фантазии нейронки, а верифицированный отчет, за который не стыдно перед клиентом. Модель больше не «галлюцинирует», потому что ей просто не дают соврать.

Вся магия здесь в мультимодальной проверке. Система не верит одному источнику на слово, а ищет консенсус. Она лезет в структурированные базы данных за базовыми фактами, в веб-поиск за актуалочкой и в академические репозитории типа PubMed или arXiv за научным обоснованием. Если Википедия говорит одно, а свежие новости другое — система видит конфликт и отдает приоритет самому надежному и свежему источнику. Это превращает обычную болталку в высокоточный инструмент, который работает в реальном времени, не заставляя тебя ждать вечность.

Принцип универсален: сегодня это проверяет даты выхода маркетплейсов на рынок, а завтра будет страховать врачей от ошибок в дозировках лекарств или юристов от выдуманных законов. Тестировали на фактах, но механика контроля качества применима везде, где цена ошибки выше нуля. Это переход от эпохи «верю на слово» к эпохе тотального фактчекинга, где AI-ассистент наконец-то перестает быть генератором случайных текстов и становится надежным аналитиком.

Короче, эпоха безнаказанных галлюцинаций подходит к концу. Вместо того чтобы надеяться на «честность» модели, мы просто ставим над ней автоматический надзор. Если твоя работа зависит от точности данных, забудь про обычные чат-боты — будущее за системами, которые умеют признавать: «Я не знаю, но сейчас проверю в трех местах». Либо ты внедряешь такие фильтры, либо продолжаешь краснеть перед начальством за фейковые цифры в своих отчетах.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с