3,583 papers
arXiv:2507.20930 92 30 июля 2025 г. FREE

Парадокс: небольшая специализированная модель обходит GPT-4o в финансовом фактчекинге — просто потому что знает что именно искать.

КЛЮЧЕВАЯ СУТЬ
Парадокс: небольшая специализированная модель обходит GPT-4o в финансовом фактчекинге — просто потому что знает что именно искать. Метод FRED позволяет переключить LLM из режима «пишу как помню» в режим «сверяю с эталоном» — через структурированный промпт, без дообучения. Фишка: три компонента в промпте меняют всё — таксономия ошибок, эталонный документ и один пример разметки. Модель перестаёт угадывать и начинает сверять.
Адаптировать под запрос

Исследователи разработали метод (FRED) для автоматического обнаружения и исправления фактических ошибок в текстах, сгенерированных LLM, с фокусом на финансовую сферу. Они создали классификацию типичных ошибок (неправильные числа, даты, сущности и т.д.) и натренировали небольшие языковые модели находить и исправлять их, сверяясь с исходным документом. В результате эти специализированные модели стали работать точнее, чем универсальные гиганты вроде GPT-4o, в задаче финансового фактчекинга.

Ключевой результат: Целенаправленное обучение или даже просто детальное инструктирование модели на поиск конкретных типов ошибок делает её гораздо более надежным фактчекером, чем слепая вера в её общие знания.

Для обычного пользователя суть метода заключается не в дообучении модели, а в применении промпта-супервизора. Вместо того чтобы просто просить LLM написать или проанализировать текст, вы даете ей новую, более сложную роль — роль дотошного редактора, который работает по строгому регламенту.

Методика состоит из четырех шагов:

  1. Определите правила игры (Таксономия ошибок): Вы не говорите "проверь на ошибки". Вы даете модели четкий список того, что вы считаете ошибкой. Например: <ошибка_в_цене>, <неверная_характеристика>, <старая_дата_акции>. Это фокусирует внимание модели.

  2. Предоставьте "Источник правды" (Reference): Вы даете модели не только текст, который нужно проверить (Passage), но и эталонный документ (Reference), с которым нужно сверяться. Это заставляет модель работать в режиме RAG (Retrieval-Augmented Generation) и не додумывать факты.

  3. Дайте пример хорошей работы (Few-shot): Вы показываете модели короткий пример, как именно вы хотите, чтобы она находила и размечала ошибки. Например: "Вот неверный текст, вот верный, вот как я разметил ошибку тегами и ".

  4. Сформулируйте четкое задание: Вы объединяете все вышеперечисленное в один промпт и даете команду: "Проверь Passage на соответствие Reference по моим правилам и верни исправленный текст в заданном формате".

Этот подход превращает LLM из "творческого писателя" в "технического контролера", что резко снижает количество галлюцинаций и повышает фактическую точность ответа.

  • Прямая применимость: Пользователь может скопировать структуру промпта из приложения к статье (Appendix E.2) и адаптировать ее для своих задач. Вместо финансовых данных можно подставить описание товара, условия акции, биографические факты, технические характеристики. Нужно лишь подготовить два текстовых блока: "что проверяем" и "с чем сверяем".

  • Концептуальная ценность: Главный инсайт — LLM нужно принудительно переключать из режима "генерации" в режим "верификации". Пользователь начинает понимать, что для получения точного ответа нужно не просто задать вопрос, а создать для модели контролируемую среду: предоставить ей эталон, критерии оценки (таксономию ошибок) и четкий формат вывода. Это фундаментально меняет подход к работе с LLM в задачах, требующих точности.

  • Потенциал для адаптации: Метод универсален. Финансовая сфера — лишь один из примеров.

    • Маркетолог: Может проверять рекламные тексты на соответствие брифу или спецификации продукта.
    • Юрист: Может сверять выдержки из договора с основным текстом на предмет противоречий.
    • Студент: Может проверять свое эссе на соответствие первоисточникам. Механизм адаптации прост: нужно лишь определить свой собственный набор критических ошибок (свои теги) и использовать их в промпте вместо финансовых.

Представим, что SMM-менеджер написал пост для соцсетей о новой акции кофейни, и нужно проверить его на соответствие официальным условиям акции.

Ты — внимательный редактор-контролер. Твоя задача — проверить текст поста для соцсетей (`Passage`) на соответствие официальным условиям акции (`Reference`).

Найди в тексте поста любые ошибки из следующего списка и разметь их. Для исправления используй теги `исправленный текст` и `удаленный текст`. Если весь фрагмент не соответствует действительности, оберни его в тег ``. Если в тексте есть информация, которую невозможно проверить по `Reference`, оберни ее в тег ``.

**Определения ошибок:**
1.  ****: Неправильная цена на продукт.
2.  ****: Неправильная дата или срок действия акции.
3.  ****: Неправильное название или описание продукта, участвующего в акции.
4.  ****: Неверно указано условие получения скидки/бонуса.
5.  ****: Утверждение, которое полностью противоречит `Reference`.
6.  ****: Утверждение, которое нельзя проверить по `Reference`.

**Пример выполнения:**
*   **Passage:** Купи любой Латте и получи скидку 20% до конца лета!
*   **Reference:** Акция "Летний вайб": скидка 15% на все кофейные напитки объемом 0.4л при покупке с 1 июля по 31 июля.
*   **Edited:** Купи любой Латтекофейный напиток объемом 0.4л и получи скидку 20%15% до конца летас 1 июля по 31 июля!

---
**Теперь выполни задачу для следующих текстов:**

**Reference:**
"Официальные условия акции 'Утренний заряд'. С 1 по 15 августа 2024 года, с 8:00 до 11:00, при покупке любого круассана (классический, шоколадный) второй такой же круассан в подарок. Акция действует только при оплате картой 'КофеКлуб'."

**Passage:**
"Суперакция в нашей кофейне! Весь август, покупая наш фирменный миндальный круассан, вы получаете второй бесплатно! Спешите, предложение действует в течение всего дня. Наши бариста ждут вас!"

**Твой результат (Edited):**

Этот промпт эффективен, потому что он не полагается на общие знания модели, а создает для нее замкнутую и контролируемую "песочницу":

  1. Четкая роль и задача: Модель не "пишет текст", а "проверяет по регламенту". Это переключает ее в аналитический режим.
  2. Таксономия ошибок: Вместо абстрактной "проверки на ошибки" модель получает конкретный чеклист (, и т.д.). Это сужает поле поиска и повышает точность обнаружения.
  3. Наличие "Эталона" (Reference): Модель вынуждена основывать свои выводы не на своей памяти, а на предоставленном тексте. Это ключевой механизм борьбы с галлюцинациями.
  4. Обучение на примере (Few-shot): Пример показывает точный формат вывода и логику работы, что значительно улучшает следование инструкциям.
  5. Структурированная разметка (, ): Требование использовать теги заставляет модель не просто находить ошибку, но и анализировать, что именно не так и как это исправить, делая процесс более осмысленным.

Задача: Редактор просит ассистента проверить краткую биографическую справку для статьи о Марии Кюри на соответствие фактам из энциклопедии.

Ты — дотошный фактчекер. Твоя задача — вычитать биографическую справку (`Passage`) и проверить ее на полное соответствие тексту из энциклопедии (`Reference`).

Найди и разметь все ошибки согласно определениям ниже. Используй теги `верный факт` и `неверный факт`. Если утверждение полностью ложно, используй тег ``. Если информация отсутствует в `Reference`, используй ``.

**Определения ошибок:**
1.  ****: Ошибка в имени, фамилии или названии.
2.  ****: Неверная дата события.
3.  ****: Неточность в описании научного открытия или награды.
4.  ****: Ошибка в географическом названии (город, страна).
5.  ****: Утверждение, прямо противоречащее источнику.
6.  ****: Факт, который нельзя подтвердить или опровергнуть с помощью `Reference`.

---
**Теперь выполни задачу для следующих текстов:**

**Reference:**
"Мария Склодовская-Кюри (родилась 7 ноября 1867 года в Варшаве, Царство Польское, Российская империя) — польский и французский учёный-экспериментатор. Она была удостоена Нобелевской премии по физике в 1903 году совместно со своим мужем Пьером Кюри и Анри Беккерелем. В 1911 году она получила Нобелевскую премию по химии за открытие элементов радия и полония. Мария Кюри стала первым человеком, удостоенным двух Нобелевских премий в двух разных научных областях."

**Passage:**
"Великая Мария Кюри родилась в Париже в 1867 году. В 1903 году она в одиночку получила Нобелевскую премию по химии за открытие плутония. Позже, в 1911 году, ей вручили премию по физике. Она была очень скромным человеком и редко выступала на публике."

**Твой результат (Edited):**

Механизм успеха этого промпта аналогичен предыдущему и основан на принципах ограничения и направления внимания LLM:

  1. Смена парадигмы: Вместо того чтобы просить модель "написать о Марии Кюри" (где она может галлюцинировать), мы просим ее "сравнить два текста по правилам". Это задача на сопоставление, а не на генерацию из памяти.
  2. Фокусировка на деталях: Таксономия ошибок (, ) заставляет модель обращать внимание на конкретные типы фактов — даты, имена, названия, — которые часто являются источником ошибок.
  3. Принудительное заземление (Grounding): Предоставление Reference как единственного источника правды не дает модели "вспоминать" другие, возможно, неверные факты о Марии Кюри из своего общего набора данных. Она обязана работать только с тем, что ей дали.
  4. Выявление непроверяемого: Тег особенно важен. Он учит модель не только находить прямые противоречия, но и распознавать информацию, которая может быть правдой, но не подтверждена источником. Это приучает пользователя к критическому мышлению и пониманию границ предоставленного контекста.
📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Высокая. Хотя основной метод исследования — fine-tuning, в приложении (Appendix E.2) приводится подробнейший промпт, который использовался для оценки базовых моделей (GPT-4o). Этот промпт является готовым, сложным и эффективным шаблоном для задачи fact-checking'а и самокоррекции, который может быть адаптирован пользователем.
  • B. Улучшение качества диалоговых ответов: Очень высокое. Метод напрямую нацелен на обнаружение и исправление фактических ошибок (галлюцинаций), что критически важно для повышения точности и надежности ответов LLM.
  • C. Прямая практическая применимость: Высокая (с оговоркой). Сам fine-tuning недоступен обычному пользователю, но промпт-шаблон из приложения можно использовать "как есть" в любом продвинутом чат-боте (ChatGPT, Claude) без какого-либо кода.
  • D. Концептуальная ценность: Очень высокая. Исследование дает пользователю мощную концептуальную рамку:
    1. Таксономия ошибок: Предлагается четкая классификация ошибок (числовые, временные, сущности, отношения, противоречия). Это помогает пользователю понять, какие именно ошибки искать и как просить модель их исправить.
    2. Принцип "Проверяй, а не доверяй": Демонстрирует, что даже самые мощные LLM нуждаются во внешнем контроле и явных инструкциях для проверки фактов.
    3. Сила специализации: Показывает, что даже небольшая, но специально обученная (или специально проинструктированная) модель может превзойти гигантскую универсальную модель в узкой задаче.
  • E. Новая полезная практика (кластеризация): Работа попадает сразу в несколько ключевых кластеров:
    • Кластер 1 (Техники формулирования): Промпт в приложении использует few-shot learning (пример с Acme Corp) и четкие пошаговые инструкции.
    • Кластер 3 (Оптимизация структуры): Используются кастомные XML-подобные теги (, , ) для структурирования задачи.
    • Кластер 5 (Извлечение и структурирование): Требует на выходе JSON, что является классикой для структурированного извлечения.
    • Кластер 7 (Надежность и стабильность): Вся суть работы — в повышении надежности и снижении галлюцинаций.
  • Чек-лист практичности (+15 баллов): Да, работа дает готовые конструкции для промптов, показывает, как структурировать сложные запросы на проверку фактов, и предлагает способы улучшить точность ответов.
📌

Цифровая оценка полезности

Аргументы за высокую оценку (92): Исследование предоставляет один из самых подробных и практически применимых шаблонов промпта для задачи самокоррекции и проверки фактов. Пользователь получает не просто идею, а готовый инструмент: "Возьми этот шаблон, замени мои примеры на свои, и получишь гораздо более надежный результат". Концептуальная ценность в виде таксономии ошибок помогает пользователям лучше формулировать свои требования к точности и выявлять слабые места LLM. Это прямое руководство к действию, которое немедленно улучшит качество промптов для всех, кто работает с фактической информацией.

Контраргументы (почему оценка могла бы быть ниже): Основной фокус статьи — это создание и fine-tuning специализированной модели (FRED), что абсолютно недоступно рядовому пользователю. Промпт, который представляет наибольшую ценность, является лишь вспомогательным инструментом для оценки базовых моделей в исследовании и "спрятан" в приложении. Можно утверждать, что главная научная новизна работы не имеет прямого применения, а мы оцениваем побочный продукт. Это могло бы снизить оценку до ~70-75, так как пользователь должен сам "откопать" полезную часть и адаптировать ее.


📋 Дайджест исследования

Ключевая суть

Парадокс: небольшая специализированная модель обходит GPT-4o в финансовом фактчекинге — просто потому что знает что именно искать. Метод FRED позволяет переключить LLM из режима «пишу как помню» в режим «сверяю с эталоном» — через структурированный промпт, без дообучения. Фишка: три компонента в промпте меняют всё — таксономия ошибок, эталонный документ и один пример разметки. Модель перестаёт угадывать и начинает сверять.

Принцип работы

Сказать модели «проверь на ошибки» — как сказать охраннику «следи за порядком» без инструкции что считать нарушением. FRED строит регламент: вот список ошибок, вот с чем сверять, вот как размечать результат. Процесс прямой: определяешь таксономию ошибок (свой чеклист с тегами) → даёшь эталонный документ (источник правды) → показываешь пример разметки → получаешь конкретные теги вместо расплывчатого «кажется, что-то не так».

Почему работает

LLM в режиме генерации работает как студент без шпаргалки. Уверенно пишет то, что «помнит» — даже если помнит неверно. Эталонный документ закрывает этот путь: модель опирается только на то, что ей дали, а не лезет в собственную память. Таксономия ошибок сужает задачу — не «ищи что угодно», а «ищи конкретное». Плюс тег «непроверяемо» работает отдельно: заставляет модель честно признавать когда источник не даёт ответа, а не додумывать за него.

Когда применять

Финансовая аналитика, юридические тексты, рекламные материалы, учебный контент — везде где есть эталонный документ и нужна точность. Особенно хорошо работает когда есть официальный источник (условия акции, договор, энциклопедия, техническая документация) и сгенерированный текст нужно сверить с ним. Не подходит если эталонного документа нет — без Reference метод не работает, это принципиально.

Мини-рецепт

1. Составь чеклист ошибок: не «проверь на ошибки», а список с именами — <ошибка_цены>, <ошибка_даты>, <ошибка_условий>. Чем конкретнее — тем точнее модель ищет.
2. Подготовь два блока текста: «что проверяем» (Passage) и «с чем сверяем» (Reference). Reference — твой официальный документ, источник правды.
3. Придумай теги разметки: например <исправление>верный текст, <удаление>неверный текст, <непроверяемо>. Теги заставляют модель объяснять что именно не так — и как исправить.
4. Добавь один пример работы: короткий показательный случай с правильной разметкой. Без этого модель часто игнорирует формат.
5. Сформулируй задание: «Проверь Passage по Reference согласно правилам, верни размеченный текст». Точка.

Примеры

[ПЛОХО] : Проверь этот рекламный текст про акцию на ошибки
[ХОРОШО] : Ты — редактор-контролёр. Проверь Passage на соответствие Reference по следующим правилам: 1. <ошибка_цены> — неправильная стоимость 2. <ошибка_даты> — неверный срок акции 3. <ошибка_условия> — неверное условие получения скидки 4. <непроверяемо> — нельзя подтвердить по Reference Пример: Passage: «Скидка 20% до конца лета» / Reference: «Скидка 15% с 1 по 31 июля» / Результат: скидка <удаление>20%<исправление>15% <удаление>до конца лета<исправление>с 1 по 31 июля Reference: [вставь официальные условия] Passage: [вставь текст для проверки] Верни размеченный текст.
Источник: FRED: Financial Retrieval-Enhanced Detection and Editing of Hallucinations in Language Models
ArXiv ID: 2507.20930 | Сгенерировано: 2026-03-02 17:39

Проблемы LLM

ПроблемаСутьКак обойти
Модель не различает "знаю из памяти" и "нашёл в документе"Даёшь модели текст для проверки и источник правды. Просишь найти ошибки. Модель мешает два потока: что стоит в источнике и что она "помнит" из обучения. В итоге исправляет по памяти, а не по документу. Особенно опасно с датами, именами, числамиДай модели роль верификатора, а не эксперта. Запрети опираться на общие знания. Пусть работает только с тем, что ты дал. Добавь отдельный тег для непроверяемых утверждений — тех, которые нельзя подтвердить или опровергнуть из источника

Методы

МетодСуть
Таксономия ошибок — чеклист вместо "проверь на ошибки"Вместо "найди ошибки" даёшь модели именованный список типов ошибок. Например: <ошибка_цены>, <ошибка_даты>, <ошибка_условия>. Для каждого типа — тег разметки. Плюс отдельный тег <непроверяемо> для утверждений, которых нет в источнике. Почему работает: Абстрактное "проверь" — слишком широкое. Модель не знает куда смотреть. Конкретные типы сужают поиск до нужных деталей: дат, чисел, названий. Тег "непроверяемо" принудительно разделяет два потока: "есть в источнике" и "вероятно правда". Структура промпта: роль верификатора список типов ошибок с тегами пример правильной разметки (few-shot) блок Reference блок Passage команда вернуть исправленный текст. Когда применять: любая задача где есть эталон (бриф, договор, спецификация, источник) и текст для проверки. Когда не работает: нет эталонного документа, задача творческая без критерия правильности
📖 Простыми словами

FRED: Финансовая генерация с дополненным поиском, обнаружение и редактирование галлюцинаций в языковых моделях

arXiv: 2507.20930

Суть проблемы в том, что когда нейронка пишет про деньги или условия акций, она начинает галлюцинировать — уверенно нести чушь, путая цифры и даты. Система FRED решает это через жесткий контроль: она не дает модели выдумывать из головы, а заставляет ее работать как дотошного бухгалтера. Сначала алгоритм вытаскивает из базы реальные факты, потом сравнивает их с текстом и, если находит нестыковку, просто вырезает ложь и вставляет правду. Это не просто проверка текста, это автоматическое редактирование, где каждый символ подтвержден документом.

Это как если бы ты нанял на работу стажера-фантазера, который постоянно путает цены, и приставил к нему злого аудитора с папкой документов. Стажер пишет пост про скидку в 50%, а аудитор тут же бьет его по рукам линейкой, показывает на официальный приказ, где написано «скидка 30%», и заставляет переписать предложение прямо в процессе. В итоге на выходе получается текст, который выглядит живым, но при этом юридически стерилен. Формально всё проверено, и придраться не к чему.

В основе лежат три конкретных этапа: извлечение фактов (Retrieval), детекция галлюцинаций и финальная правка. Система не просто говорит «тут ошибка», она использует метод атомарной проверки, разбивая текст на мельчайшие утверждения. Если в посте кофейни написано, что «акция действует до воскресенья», FRED лезет в базу, видит там «до субботы» и мгновенно меняет слово. Это работает гораздо точнее, чем обычный ChatGPT, потому что модель заперта в информационной песочнице и не может использовать свои фантазии о мире.

Хотя систему гоняли на финансовых отчетах, где цена ошибки — миллионы, принцип универсален. Это идеальное решение для SMM, юристов, техподдержки или медицины — везде, где «примерно правильно» означает полный провал. Любой контент, который должен опираться на базу знаний (будь то условия программы лояльности или дозировка лекарства), теперь можно прогнать через такой фильтр. SEO-копирайтинг уходит в прошлое, на смену приходит генерация, намертво привязанная к фактам.

Короче: хватит надеяться, что нейронка «сама всё проверит» — она по природе своей сказочник. Нужно внедрять Retrieval-Enhanced подходы типа FRED, которые превращают творческий хаос в верифицированный контент. Либо ты строишь систему контроля, либо завтра твой SMM-менеджер пообещает клиентам бесплатный кофе пожизненно, потому что нейронка так решила. 6 этапов проверки, ноль галлюцинаций — это единственный способ использовать AI в серьезном бизнесе.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с