3,583 papers
arXiv:2603.03299 82 7 фев. 2026 г. FREE

Фантомные цитаты: почему LLM выдумывает источники и два фильтра надёжности

КЛЮЧЕВАЯ СУТЬ
Ноль. Без явной просьбы дать ссылки — ни одна из 10 протестированных моделей не выдумала ни одной цитаты. Галлюцинации источников — не дефект модели, это ответ на запрос: попросил источники — модель переключается с воспроизведения фактов на генерацию правдоподобных строчек. Метод позволяет отсеивать фантомные ссылки до финальной проверки — сокращая список «50 сомнительных» до «8 вероятно настоящих». Реальные источники воспроизводятся стабильно, выдуманные — случайны и не повторяются. Задаешь запрос трижды, берешь пересечение — точность вырастает с 16% до 96%.
Адаптировать под запрос

TL;DR

LLM галлюцинирует ссылки не сама по себе, а в ответ на запрос — без явной просьбы дать источники ни одна модель из 10 не сгенерировала ни одной цитаты. Это значит, что проблема находится не внутри модели, а в том, как вы её спрашиваете. Исследователи из Clemson University проверили 69 557 цитаций из 10 коммерческих LLM по трём академическим базам данных и нашли два практических фильтра, которые резко повышают точность.

Главная боль: попросил LLM дать источники — и получил правдоподобно оформленное, но несуществующее. Автор есть, журнал есть, год есть — только такой статьи никогда не было. Найти это без ручной проверки почти невозможно. Средний уровень выдумки — от 11% у лучших моделей до 57% у худших. Причина: модели «вспоминают» паттерн цитаты, а не сам источник. Когда реального якоря в обучающих данных нет — они генерируют правдоподобное, а не правдивое.

Два фильтра решают это практически. Первый: спросить одно и то же у трёх разных LLM и взять только то, что все они назвали — точность растёт с 16% до 96%. Второй: в одной модели повторить запрос три раза и взять ссылки, которые появились хотя бы дважды — точность 89%. Оба фильтра работают потому, что реальные источники стабильны, а выдуманные — случайны.


🔬

Схема метода

Два независимых фильтра. Применять можно по отдельности или вместе.

Фильтр 1 — Множественные модели (3 отдельных чата):

ШАГ 1: Задать одинаковый запрос о источниках в ChatGPT → список ссылок
ШАГ 2: Тот же запрос в Claude → список ссылок  
ШАГ 3: Тот же запрос в Gemini (или любой третьей модели) → список ссылок
ШАГ 4: Выбрать только источники, которые появились в ≥2 ответах
         → приоритет тем, что появились в 3 из 3

Фильтр 2 — Повторение в одной модели (3 запроса в одном чате или в новых чатах):

ШАГ 1: Задать запрос → список ссылок #1
ШАГ 2: Тот же запрос заново → список ссылок #2
ШАГ 3: Тот же запрос заново → список ссылок #3
ШАГ 4: Взять только ссылки, которые появились ≥2 раза из 3

Бонусный фильтр — Формулировка запроса (один промпт):

Было:    "дай свежие и влиятельные источники по теме X"
Стало:   "дай основopolojные и классические источники по теме X"

Галлюцинаций становится на 19% меньше автоматически.


🚀

Пример применения

Задача: Антон Носик пишет аналитический обзор для инвестиционного комитета — нужны ключевые научные работы по влиянию социальных сетей на политическую поляризацию. Просит ChatGPT дать список источников, вставляет в слайды, через неделю коллеги находят три несуществующих статьи.

Промпт с фильтром формулировки + повторением:

Какие основополагающие и классические научные работы 
изучали влияние социальных сетей на политическую поляризацию?

Дай список: авторы, название, журнал, год. 
Только реально существующие работы — если не уверен, не включай.

Запустить 3 раза подряд (новый чат или новый запрос), затем:

Вот три списка источников по теме [вставить тему].
Выдели только те работы, которые встречаются минимум в двух списках.

Список 1: [вставить]
Список 2: [вставить]
Список 3: [вставить]

Результат: Модель выдаст пересечение — короткий список из 5-10 источников, которые воспроизводились стабильно. Это кандидаты на реальные работы. По-прежнему нужна финальная проверка через Google Scholar или Semantic Scholar, но список сокращается с «50 сомнительных» до «8 вероятно настоящих».


🧠

Почему это работает

LLM не «помнит» статьи — она «предсказывает» правдоподобный текст. Когда вы просите источники, модель генерирует строку, которая по паттерну выглядит как цитата: фамилия, название, журнал, год. Если в её обучающих данных реальная статья встречалась многократно — она воспроизведёт её точно. Если нет — сгенерирует что-то «похожее на правду». Оба результата внешне неотличимы.

Реальные источники стабильны, выдуманные — случайны. Это ключевой инсайт исследования. Фальшивая цитата — это стохастический артефакт: она возникает один раз в специфическом контексте и маловероятно воспроизведётся снова. Настоящая статья существует как «гравитационный центр» во многих документах обучающих данных — модель будет воспроизводить её последовательно. Фильтр повторения использует именно это различие.

Формулировка «семинальные/классические» снижает галлюцинации потому, что такие работы цитируются тысячи раз и хорошо закреплены в данных модели. «Свежие и влиятельные» — это задача найти что-то, чего в данных либо ещё нет (выходит за дату среза), либо почти нет. Модель «заполняет пробел» выдуманным.

Рычаги управления: - Количество повторений → 2 из 3 — хороший баланс. Если тема очень узкая — поднимите до 3 из 3 - Количество моделей → 3 модели дают 96% точности. Две модели — уже 87%, тоже полезно - Формулировка → «семинальные / основополагающие / классические / фундаментальные» вместо «новые / свежие / последние» - Домен → чем менее популярна область (структурная инженерия, узкие медицинские темы), тем выше риск — применяйте оба фильтра


📋

Шаблон промпта

📌

Шаблон 1 — Смена формулировки

Какие основополагающие и классические научные работы 
изучали {тему}?

Приведи список: авторы, название, журнал или конференция, год.
Включай только работы, в существовании которых уверен.
Если не знаешь точного названия — не включай.

{тему} — ваша область: «влияние микробиома на иммунитет», «машинное обучение в финансах», «управление командами в условиях неопределённости»


📌

Шаблон 2 — Фильтр пересечения (после 3 повторений)

Ниже три списка источников по теме {тема}, полученных независимо.
Выдели только те работы, которые встречаются минимум в {2 или 3} списках из трёх.
Для каждой выбранной работы укажи: сколько раз встречается + полные данные.

Список 1:
{список_1}

Список 2:
{список_2}

Список 3:
{список_3}

{тема} — тема запроса

{2 или 3} — 2 для баланса, 3 для максимальной осторожности

{список_1/2/3} — ответы из трёх предыдущих запросов


🚀 Быстрый старт — вставь в чат:

Вот шаблоны для проверки источников от LLM на галлюцинации. 
Адаптируй под мою задачу: {твоя задача — например, 
"пишу обзор литературы по нейросетям в медицине"}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит тему и уточнит сколько источников нужно — чтобы правильно сформировать исходный запрос для повторений. Она возьмёт паттерн из шаблона и сгенерирует три варианта запроса, которые вы запустите по очереди.


⚠️

Ограничения

⚠️ Фильтр не гарантирует 100%: Даже при согласии трёх моделей ~4% источников остаются галлюцинацией. Финальная проверка через Google Scholar, Semantic Scholar или Киберленинку обязательна.

⚠️ Узкие и нишевые темы — зона риска: Структурная инженерия, региональные исследования, редкие медицинские области — галлюцинации достигают 50%+. Чем уже тема, тем жёстче нужна проверка.

⚠️ «Новее» не значит «лучше» для цитирований: haiku-4.5 галлюцинирует на 57% против 49% у haiku-3.5 — более новая модель оказалась хуже. Не полагайтесь на «последнюю версию» как гарантию точности.

⚠️ Модели предпочитают популярные и открытые работы: Даже реальные источники, которые LLM называет, — это в основном хайли-цитируемые open-access статьи. Малоизвестные, но важные работы модели с большой вероятностью пропустят или выдумают в их «духе».

⚠️ Смена формулировки снижает, но не убирает риск: «Семинальные источники» всё равно галлюцинируются — просто реже. Этот приём уменьшает ошибку на ~19 п.п., но не решает проблему полностью.


🔍

Как исследовали

Команда Clemson University поставила, пожалуй, самый масштабный эксперимент по цитатным галлюцинациям на сегодня. 10 коммерческих LLM от OpenAI, Anthropic, Meta, DeepSeek, Mistral и Moonshot AI получили одинаковые промпты по четырём академическим областям — и выдали в сумме 69 557 цитаций, которые автоматически проверяли по трём базам данных (CrossRef, OpenAlex, Semantic Scholar).

Умная деталь дизайна — контрольное условие без запроса на источники: те же вопросы по теме, но без слов «дайте ссылки». Все 10 моделей, все 3030 ответов — ноль цитат. Это доказывает, что галлюцинации не «встроены» в модель, а запускаются самим запросом.

Ещё одна находка, которая удивила: haiku-4.5 оказалась хуже haiku-3.5 (57% vs 49% галлюцинаций). Это разрушает интуицию «новее = лучше» — при выборе модели для работы с источниками версия не гарантирует качество. GPT-5-mini показал лучший результат (11.4%), но генерировал меньше цитаций в принципе — возможно, модель «знает, что не знает» и не выдаёт источников, когда не уверена.

Самый практичный инсайт вышел из анализа пересечений: исследователи заметили, что реальные источники воспроизводятся сходно разными моделями, а выдуманные — нет. Это превратилось в два верификационных фильтра, проверенных на всём корпусе данных.


📄

Оригинал из исследования (материалы проверки пересечений)

Cross-model convergence results:
- Cited by 1 model:  match rate 16.5%
- Cited by 2 models: match rate 87.4%
- Cited by ≥3 models: match rate 95.6% (5.8× improvement over single-model)

Within-model repetition results:
- Appears in 1 of 3 replications: match rate 28.6%
- Appears in ≥2 of 3 replications: match rate 88.9% (3.1× improvement)

Framing effect (across all 10 models, no exceptions):
- "Recent and influential" framing:    hallucination rate 74.1%
- "Seminal and foundational" framing:  hallucination rate 55.0%
- Difference: 19.1 percentage points

Контекст: Авторы проверяли каждую цитацию через автоматический pipeline с нечётким совпадением по заголовкам (Jaccard distance), авторам и году. Дополнительно вручную валидировали выборку из 225 цитаций через GPT-4.1-mini с веб-поиском — точность подтверждённых составила 100%.


💡

Адаптации и экстраполяции

📌

💡 Принцип стабильности применим шире цитаций

Тот же механизм работает для любых фактических данных: статистика, даты, имена, технические характеристики. Если LLM трижды называет одну и ту же цифру — скорее всего, она реальна. Если каждый раз другую — сигнал к проверке.

🔧 Техника: перенести фильтр повторений на факты

Я задам тебе один и тот же вопрос трижды. 
После всех трёх ответов — выдели только те факты, 
которые ты назвал во всех трёх ответах.
Это моя проверка на стабильность информации.

Вопрос: {фактический вопрос}

[После ответа]: Теперь ответь на тот же вопрос ещё раз, 
не глядя на предыдущий ответ.
[Повтори трижды, затем попроси пересечение]

📌

💡 Адаптация для исследований в бизнесе

Пишете конкурентный анализ или рыночный обзор и просите LLM назвать ключевых игроков, данные о рынке или исследования — риск тот же. Применяйте формулировку «устоявшиеся и известные игроки рынка» вместо «новые и перспективные стартапы».


⚖️

💡 Экстраполяция: фрейминг «старое vs новое» как общий принцип

Исследование доказывает: чем глубже факт «закреплён» в обучающих данных (много упоминаний, давно существует, широко доступен), тем точнее его воспроизводит модель. Это значит:

  • Просите LLM объяснять классические концепции, а не формулировать новые определения
  • Используйте LLM для известных технологий, а не для описания свежих инструментов
  • Когда нужна свежая информация — запрашивайте структуру и критерии оценки, а не сами факты

🔗

Ресурсы

Название: How LLMs Cite and Why It Matters: A Cross-Model Audit of Reference Fabrication in AI-Assisted Academic Writing and Methods to Detect Phantom Citations

Данные и код: - HuggingFace: huggingface.co/datasets/mznaser/llm-citation-hallucination-audit - GitHub: github.com/mznaser-clemson/llm-citation-hallucination-audit

Автор: M.Z. Naser, PhD, PE — School of Civil and Environmental Engineering & Earth Sciences, Clemson University; Artificial Intelligence Research Institute for Science and Engineering, Clemson University, USA. Контакт: mznaser@clemson.edu

Смежные исследования упомянутые в работе: Walters & Wilder (базовое исследование GPT-3.5/4), Linardon et al. (фактор знакомости темы), TruthfulQA, HalluLens (ACL 2025)


📋 Дайджест исследования

Ключевая суть

Ноль. Без явной просьбы дать ссылки — ни одна из 10 протестированных моделей не выдумала ни одной цитаты. Галлюцинации источников — не дефект модели, это ответ на запрос: попросил источники — модель переключается с воспроизведения фактов на генерацию правдоподобных строчек. Метод позволяет отсеивать фантомные ссылки до финальной проверки — сокращая список «50 сомнительных» до «8 вероятно настоящих». Реальные источники воспроизводятся стабильно, выдуманные — случайны и не повторяются. Задаешь запрос трижды, берешь пересечение — точность вырастает с 16% до 96%.

Принцип работы

Два фильтра с одной и той же логикой — стабильность как признак реальности. Первый: задаешь одинаковый запрос в трёх разных моделях (например, ChatGPT, Claude, Gemini) и берешь только те источники, что появились хотя бы в двух ответах из трёх. Второй: три запроса в одной модели, оставляешь ссылки встретившиеся минимум дважды. Настоящая статья — это гравитационный центр в данных модели. Она видела её тысячи раз и тянется к ней снова. Выдуманная — одноразовый артефакт, который случайно сложился из паттернов: второй раз не повторится. Плюс бесплатный трюк с формулировкой: «свежие и влиятельные» заменить на «основополагающие и классические». Минус 19 процентных пунктов галлюцинаций без каких-либо повторений — фундаментальные работы цитировались тысячи раз и крепко сидят в обучающих данных модели.

Почему работает

LLM не помнит статьи — она предугадывает правдоподобный текст. Когда просишь источники, модель генерирует строку которая выглядит как цитата: фамилия, название, журнал, год. Если реальная статья встречалась в её данных многократно — воспроизведёт точно. Нет якоря — придумает что-то «похожее на правду». Внешне неотличимо. Выдуманное нестабильно, настоящее — воспроизводится. Фильтр использует именно эту разницу — не умение модели проверять факты, а её статистическую память. По цифрам: 69 557 цитаций, 10 моделей, три академические базы данных. Лучшие модели галлюцинируют на 11%, худшие — на 57%. Средний уровень без фильтров — 30-40%. С фильтром трёх моделей — точность 96%. С повторением в одной — 89%. Прирост сопоставим с разницей между «сошлюсь и надеюсь» и «проверил».

Когда применять

Академические обзоры литературы, аналитические отчёты, статьи, презентации для инвестиционного комитета — везде где источники пойдут в публичный документ или их будут проверять коллеги. Особенно важно в нишевых областях — структурная инженерия, региональные исследования, редкие медицинские темы — там галлюцинации достигают 50% и выше. Формулировочный трюк («классические» вместо «свежих») работает как первая линия защиты без лишних шагов. Фильтр пересечения — когда нужна серьёзная точность. НЕ подходит как замена финальной проверки: даже при согласии трёх моделей ~4% источников остаются выдуманными. Google Scholar или Semantic Scholar — обязательный последний шаг по каждой ссылке.

Мини-рецепт

1. Поменяй формулировку: вместо «дай свежие и влиятельные работы по X» пиши: Какие основополагающие и классические работы изучали X? Авторы, название, журнал, год. Включай только те работы, в существовании которых уверен — если сомневаешься, не включай. Это режет ошибки примерно на 19 п.п. ещё до любых фильтров.

2. Запусти три раза: тот же запрос — три отдельных новых чата. Записывай каждый ответ отдельно.

3. Отфильтруй пересечение: вставь все три списка в новый чат: Ниже три списка источников по теме X. Выдели только те работы, которые встречаются минимум в двух списках из трёх. Для каждой укажи сколько раз встретилась. Список 1: [вставить] Список 2: [вставить] Список 3: [вставить]

4. Проверь остаток вручную: то что выжило — короткий список из 5-10 кандидатов. Каждую ссылку прогони через Google Scholar или Semantic Scholar. Именно каждую — 4% выживших всё равно могут оказаться выдуманными.

Примеры

[ПЛОХО] : Дай список последних влиятельных исследований по влиянию социальных сетей на политическую поляризацию
[ХОРОШО] : Какие основополагающие и классические научные работы изучали влияние социальных сетей на политическую поляризацию? Авторы, название, журнал, год. Включай только работы в существовании которых уверен — если сомневаешься, не включай. Запускаешь этот промпт три раза в новых чатах, потом объединяешь: Вот три списка источников по теме влияния соцсетей на политическую поляризацию. Выдели только те работы, что встречаются минимум в двух из трёх списков. Список 1: [вставить] Список 2: [вставить] Список 3: [вставить]
Источник: How LLMs Cite and Why It Matters: A Cross-Model Audit of Reference Fabrication in AI-Assisted Academic Writing and Methods to Detect Phantom Citations
ArXiv ID: 2603.03299 | Сгенерировано: 2026-03-09 00:30

Проблемы LLM

ПроблемаСутьКак обойти
Модель выдумывает источники при запросе цитатПросишь дать список литературы. Получаешь правдоподобные ссылки: автор есть, журнал есть, год есть. Но статьи не существует. Внешне отличить нельзя. Без ручной проверки не заметишь. Проблема универсальна: работает на любой теме, любой моделиПрименяй фильтр стабильности. Реальный источник воспроизводится снова и снова. Выдуманный — появляется один раз. Попроси источники три раза. Возьми только те, что повторились дважды или трижды

Методы

МетодСуть
Фильтр стабильности — отсев по повторяемостиЗапроси источники по теме три раза. Можно в одной модели (три отдельных чата), можно в трёх разных моделях. Сравни списки. Возьми только то, что появилось 2 раза из трёх. Почему работает: реальные источники — устойчивые точки в данных обучения. Модель воспроизводит их стабильно. Выдуманные — случайны. Возникают раз и не повторяются. Повторяемость = сигнал реальности. Точность: три модели дают ~96% реальных источников. Одна модель, три повтора — ~89%. Без фильтра — от 43% до 89% галлюцинаций в зависимости от модели. Синтаксис финального запроса: Выдели источники, которые встречаются минимум в 2 списках из 3. [Список 1] [Список 2] [Список 3] Когда усилить: узкая тема, нишевая область — требуй совпадение в 3 из 3
Формулировка "классические" — снижение галлюцинаций на стартеВместо "свежие и влиятельные источники" пиши "основополагающие и классические работы". Почему работает: классические статьи цитируются тысячи раз. Хорошо закреплены в данных обучения. "Свежие" — часто за датой среза или почти отсутствуют в данных. Модель заполняет пробел выдуманным. Ключевые слова: "основополагающие", "классические", "фундаментальные", "семинальные" Эффект: галлюцинаций становится меньше примерно на 20 процентных пунктов. Это снижение, не решение — фильтр стабильности всё равно нужен
📖 Простыми словами

HowLLMsCite and Why It Matters: A Cross-ModelAudit of Reference Fabrication inAI-Assisted Academic Writing and Methods to Detect Phantom Citations

arXiv: 2603.03299

Нейросети галлюцинируют ссылки не потому, что они «сломались», а потому что ты их об этом попросил. В этом и есть корень проблемы: LLM не лезет в базу данных за пруфами, она просто продолжает твой текст в стиле «академический ответ». Если в запросе есть требование дать источники, модель услужливо генерирует набор символов, который выглядит как ссылка. Для нее нет разницы между реальным названием статьи и выдуманным — главное, чтобы паттерн текста соответствовал ожиданиям.

Это как если бы ты спросил у очень начитанного, но пьяного профессора список литературы. Он помнит обрывки фамилий и названий журналов, поэтому на ходу собирает из них правдоподобный винегрет. Формально всё звучит солидно, но по факту половины этих книг никогда не существовало. Профессор не хочет тебя обмануть, он просто пытается быть полезным и поддерживает беседу в заданном стиле, ведь молчание для модели — это провал.

Исследователи из Клемсона прогнали почти 70 000 цитат через 10 разных моделей и выяснили: без прямой просьбы «дай ссылки» нейросети не выдумали ни одного источника. Работают два фильтра. Первый — проверка частотности: если статья реально существует, модель воспроизводит её название без запинки. Второй — кросс-проверка: если попросить три разные модели подтвердить одну и ту же ссылку, фантомные источники отвалятся, потому что каждая модель «врет» по-своему.

Этот принцип универсален и касается не только скучных диссертаций. Если ты просишь ChatGPT сослаться на законы, кейсы в маркетинге или техническую документацию, ты в зоне риска. SEO-тексты с фейковыми пруфами или аналитика с выдуманными цифрами — это результат того, что модель заставили играть в эксперта там, где у неё нет доступа к поиску. LLM — это генератор, а не база данных, и путать эти роли опасно для репутации.

Короче: хватит верить ссылкам из чата на слово, особенно если тема узкая. Либо используй модели с доступом в интернет вроде Perplexity, либо прогоняй результат через фильтр «существует ли это в Google Scholar». Галлюцинации — это не баг, а фича предсказания текста. Кто продолжает вставлять ссылки из нейросетей в отчеты без проверки, тот скоро будет объяснять начальству, почему его источники существуют только в параллельной реальности.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с