3,583 papers
arXiv:2509.12611 85 16 сент. 2025 г. FREE

AD-FCoT (Analogy-Driven Financial Chain-of-Thought): аналогии из прошлого для Chain-of-Thought

КЛЮЧЕВАЯ СУТЬ
Базовый Chain-of-Thought красиво рассуждает, но часто врёт в узкоспециальных областях — не хватает знания домена. В финансах, медицине, бизнес-анализе модель может выдать логичное, но беспочвенное объяснение. AD-FCoT решает это через исторические аналогии с явной причинно-следственной цепочкой: даёшь 2 реальных кейса (один провал, один успех) в формате «событие → пошаговое рассуждение эксперта → итог». Модель видит шаблон экспертного мышления и копирует его на новую задачу.
Адаптировать под запрос

TL;DR

AD-FCoT — техника промптинга, которая встраивает исторические аналогии в цепочку рассуждений модели. Перед анализом новой ситуации вы даёте LLM 2-3 примера из прошлого: событие → пошаговое рассуждение → итог. Модель учится на этих кейсах и применяет тот же каузальный паттерн к новой задаче.

LLM отлично рассуждает пошагово (Chain-of-Thought), но часто не хватает domain-specific контекста — особенно в финансах, медицине, праве. Без якоря в реальных прецедентах модель может выдать красивое, но беспочвенное объяснение. Vanilla CoT говорит "подумаем логически", но не знает что конкретно важно для этого домена. Few-shot даёт примеры, но без явной логики между событием и результатом.

AD-FCoT решает это через явную причинно-следственную цепочку в аналогиях: не просто "вот пример негативной новости", а "вот новость → вот как её разобрали эксперты → вот к чему это привело". Модель видит шаблон экспертного мышления и копирует его.


🔬

Схема метода

ПРОМПТ (один запрос):
1. Инструкция: "Ты аналитик. Рассуждай пошагово, как эксперт"
2. Аналогия 1 (негативный кейс): [событие] → [CoT рассуждение] → [итог]
3. Аналогия 2 (позитивный кейс): [событие] → [CoT рассуждение] → [итог]
4. Твоя задача: [новое событие] → ?

МОДЕЛЬ ВЫДАЁТ:
[CoT рассуждение по аналогии] → [вывод]

🚀

Пример применения

Задача: Оценить бизнес-решение — запускать ли новый формат доставки еды в регионах.

Промпт:

Ты бизнес-аналитик. Рассуждай пошагово, как это делают опытные предприниматели — ищи аналогии из прошлого и делай выводы.

КЕЙС 1 (негативный):
Событие: Додо Пицца в 2020 запустила Doner 42 — сеть донер-кебабов.
Рассуждение:
1. Новый формат, другая кухня — нужна новая операционка
2. Бренд "Додо" заточен под пиццу, клиенты не поняли зачем донер
3. Конкуренция высокая, unit-экономика не сошлась
Итог: Закрыли через год. Отвлеклись от core-бизнеса.

КЕЙС 2 (позитивный):
Событие: Яндекс.Такси добавило Лавку (доставку продуктов) в 2019.
Рассуждение:
1. Используют ту же инфраструктуру — курьеры, маршрутизация
2. Синергия с такси — те же пользователи в приложении
3. Спрос на доставку еды растёт, пандемия усилила тренд
Итог: Лавка стала единорогом, GMV миллиарды рублей.

ТВОЯ ЗАДАЧА:
Наша компания "СушиМастер" (доставка суши в 15 городах) хочет запустить доставку бургеров под тем же брендом. Стоит ли?
Рассуждай пошагово, найди аналогии, дай вывод.

Результат:

Модель выдаст пошаговое рассуждение с отсылками к кейсам:

  • Сравнит с Doner 42 (риск размыть бренд)
  • Сравнит с Лавкой (можно ли использовать ту же инфру)
  • Оценит синергию (те же клиенты? та же кухня?)
  • Даст аргументированный вывод с учётом исторических паттернов

🧠

Почему это работает

LLM отлично находит паттерны, но плохо знает domain-specific причинно-следственные связи. В финансах: "отзыв продукта" → снижение доверия → падение акций. В медицине: "этот симптом + этот анализ" → скорее всего диагноз X. Модель может угадать логику, но часто ошибается в деталях.

Few-shot даёт примеры, но без явной логики: модель видит "новость A → негатив", "новость B → позитив", но не понимает почему. Chain-of-Thought заставляет рассуждать, но без якоря в реальных кейсах модель может красиво наврать.

AD-FCoT комбинирует сильные стороны:

  1. Аналогии дают каузальный шаблон из реального мира ("вот как это работает")
  2. Chain-of-Thought заставляет применить этот шаблон пошагово к новой задаче
  3. Два примера (позитивный + негативный) показывают контраст — модель видит разницу

Результат: модель копирует экспертное мышление, не изобретает логику с нуля.

Рычаги управления:

  • Количество аналогий: 2 достаточно для большинства задач, 3-4 если домен сложный
  • Детализация рассуждений: можешь упростить ("→ итог") или усложнить ("→ шаг 1 → шаг 2 → итог")
  • Контраст примеров: позитив + негатив острее, чем два позитивных
  • Релевантность аналогий: чем ближе к задаче, тем точнее вывод (не бери из другого века)

📋

Шаблон промпта

Ты {роль}. Рассуждай пошагово, как это делают эксперты — ищи аналогии из прошлого и делай выводы.

КЕЙС 1 (негативный):
Событие: {описание события}
Рассуждение:
1. {первый шаг анализа}
2. {второй шаг анализа}
3. {третий шаг анализа}
Итог: {что произошло}

КЕЙС 2 (позитивный):
Событие: {описание события}
Рассуждение:
1. {первый шаг анализа}
2. {второй шаг анализа}
3. {третий шаг анализа}
Итог: {что произошло}

ТВОЯ ЗАДАЧА:
{описание новой ситуации}
Рассуждай пошагово, найди аналогии, дай вывод.

Что подставлять:

  • {роль} — эксперт в нужной области (аналитик, врач, юрист)
  • {описание события} — конкретный исторический кейс с известным итогом
  • {шаги анализа} — причинно-следственная цепочка (почему так получилось)
  • {что произошло} — финальный результат (успех/провал, цифры если есть)
  • {описание новой ситуации} — задача, которую нужно оценить

Критично: Аналогии должны быть релевантны новой задаче и контрастны друг другу (один успех, один провал). Если оба примера одинаковые по исходу — модель не увидит разницу.


⚠️

Ограничения

⚠️ Качество аналогий = качество вывода: Если примеры не релевантны или устарели, модель подтянет неправильный паттерн. Мусор на входе — мусор на выходе.

⚠️ Нужны чёткие прецеденты: Для креативных или субъективных задач (дизайн, копирайт) метод работает хуже — там нет однозначной связи "событие → итог".

⚠️ Небольшой gain в исследовании: В финансовом sentiment analysis точность выросла на 0.22% (с 54.70% до 54.92%) — статистически значимо, но не прорыв. Главная ценность — интерпретируемость рассуждений.

⚠️ Длина промпта: Две детальные аналогии съедают 200-300 токенов. Для простых задач может быть избыточно.


🔍

Как исследовали

Исследователи взяли тысячи финансовых новостей из датасета FNSPID (2012-2023) и проверили AD-FCoT против пяти baseline-методов: Zero-Shot, Few-Shot, обычный CoT, Domain-Knowledge CoT и self-consistency. Критичное решение: тестовую выборку взяли только из 2023 года — после training cutoff модели LLaMA 3. Это устраняло look-ahead bias (модель не могла "помнить" эти новости из обучения).

Каждую новость подавали в LLM, модель выдавала sentiment (позитив/негатив/нейтрал), потом сравнивали с реальным движением цены акции в тот же день. Не просто "правильно ли определили тон статьи", а "можно ли по этому сигналу торговать".

Результат удивил: AD-FCoT показал лучшую точность (54.92%) и самый высокий recall (53.62%). Казалось бы, разница в 0.22 процентных пункта — мелочь. Но в трейдинге, где edge микроскопический, это ощутимо. Плюс модель выдавала детальные объяснения ("эта новость похожа на отзыв продукта в 2018, тогда акции упали, значит..."), что критично для regulated domains.

Почему другие методы проиграли: Vanilla CoT красиво рассуждал, но без якоря в реальных кейсах часто промахивался. Few-Shot давал примеры, но без явной логики — модель не понимала почему это позитив или негатив. Domain-Knowledge CoT (DK-CoT) добавлял факты ("P/E ratio = X"), но это статика, не каузальность.

Инсайт: Аналогии работают как few-shot для причинно-следственных связей. Модель видит не просто "пример негативной новости", а "вот как event X привёл к outcome Y через механизм Z". Это обучает шаблону экспертного мышления, который переносится на новую задачу.


💡

Адаптации и экстраполяции

💡 Адаптация для медицинской диагностики:

Метод работает для дифференциальной диагностики, где врач вспоминает похожие клинические случаи.

Ты врач-терапевт. Рассуждай пошагово, как опытный диагност — вспоминай похожие случаи.

КЕЙС 1:
Симптомы: Высокая температура + боль в горле + белый налёт на миндалинах
Рассуждение:
1. Налёт + боль → бактериальная инфекция
2. Высокая Т → острое течение
3. Стрептококк часто даёт такую картину
Диагноз: Ангина (стрептококковая). Антибиотики помогли за 3 дня.

КЕЙС 2:
Симптомы: Высокая температура + боль в горле + сыпь на теле
Рассуждение:
1. Сыпь + температура → вирусная инфекция
2. Боль в горле вторична
3. Скарлатина даёт похожую картину
Диагноз: Скарлатина. Антибиотики + симптоматика.

ТВОЙ СЛУЧАЙ:
Пациент: температура 38.5, боль в горле, {дополнительные симптомы}
Что это скорее всего? Рассуждай по аналогии.

💡 Адаптация для юридического анализа (прецедентное право):

Юристы всегда работают через аналогии — ищут похожие дела и смотрят как их решили.

Ты юрист. Рассуждай через прецеденты — находи похожие дела и делай выводы.

ПРЕЦЕДЕНТ 1:
Дело: ООО "Альфа" vs ИП "Бета" — спор о неисполнении договора поставки
Факты:
1. Договор подписан, товар не поставлен в срок
2. Поставщик ссылается на форс-мажор (наводнение)
3. Покупатель требует возмещения упущенной выгоды
Решение суда: Форс-мажор признан, но поставщик обязан вернуть предоплату. Упущенная выгода не возмещается (непредсказуемость).

ПРЕЦЕДЕНТ 2:
Дело: ООО "Гамма" vs ООО "Дельта" — спор о качестве товара
Факты:
1. Товар поставлен, но с дефектами
2. Покупатель требует замены + возмещения убытков
3. Поставщик отказывается — ссылается на приёмку товара
Решение суда: Приёмка не освобождает от гарантии. Замена товара + убытки (документально подтверждённые).

ТВОЁ ДЕЛО:
{описание ситуации клиента}
Какие прецеденты применимы? Что скорее всего решит суд?

🔧 Техника: добавить третью аналогию (edge case) → точнее для пограничных ситуаций

Если задача неоднозначная, два примера могут не покрыть все сценарии. Добавь третий кейс — пограничный.

КЕЙС 1 (явно негативный): ...
КЕЙС 2 (явно позитивный): ...
КЕЙС 3 (пограничный): 
Событие: {что-то неоднозначное}
Рассуждение:
1. С одной стороны — {позитивный фактор}
2. С другой стороны — {негативный фактор}
3. В итоге — {зависит от контекста}
Итог: {результат был X, потому что перевесил фактор Y}

Это учит модель различать нюансы, не делить всё на чёрное и белое.


🔗

Ресурсы

Analogy-Driven Financial Chain-of-Thought (AD-FCoT): A Prompting Approach for Financial Sentiment Analysis

Исследование опубликовано: 2024

Авторы: Anmol Singhal (New York University), Navya Singhal (University of Texas at Austin)

Датасет: FNSPID (Financial News Sentiment Prediction Dataset) — тысячи финансовых новостей 2012-2023

Модель: LLaMA 3 (8B параметров, без fine-tuning)

Связанные техники:

  • Chain-of-Thought prompting (Wei et al., 2022)
  • Domain-Knowledge CoT (Chen et al., 2025)
  • Self-consistency (Wang et al., 2023)
  • Retrieval-Augmented Generation (Lewis et al., 2020)

📋 Дайджест исследования

Ключевая суть

Базовый Chain-of-Thought красиво рассуждает, но часто врёт в узкоспециальных областях — не хватает знания домена. В финансах, медицине, бизнес-анализе модель может выдать логичное, но беспочвенное объяснение. AD-FCoT решает это через исторические аналогии с явной причинно-следственной цепочкой: даёшь 2 реальных кейса (один провал, один успех) в формате «событие → пошаговое рассуждение эксперта → итог». Модель видит шаблон экспертного мышления и копирует его на новую задачу.

Принцип работы

Не просто "думай пошагово" (обычный CoT) и не просто "вот примеры" (few-shot). Даёшь контрастные аналогии с разбором: негативный кейс (запустили продукт → вот почему провалилось → закрыли) + позитивный кейс (запустили другой → вот почему сработало → единорог). Контраст показывает модели ЧТО именно важно в этом домене — она видит разницу между успехом и провалом через явную логику, а не угадывает.

Почему работает

LLM отлично находит паттерны, но плохо знает причинно-следственные связи в конкретных областях. В финансах: "отзыв продукта" → снижение доверия → падение акций. В медицине: "этот симптом + этот анализ" → скорее всего диагноз X. Few-shot даёт примеры без объяснения ПОЧЕМУ. CoT заставляет рассуждать, но без якоря в реальных кейсах. AD-FCoT даёт каузальный шаблон из реального мира — модель копирует экспертное мышление, не изобретает логику с нуля. Честно: в исследовании точность выросла всего на 0.22% (с 54.70% до 54.92%). Главная ценность — интерпретируемость: видно КАК модель пришла к выводу через аналогии.

Когда применять

Узкоспециальные области где есть чёткие прецеденты → бизнес-анализ (оценка решений), финансы (анализ новостей), медицина (диагностика), юриспруденция. Особенно когда нужна аргументация решения, а не просто ответ. НЕ подходит для креативных задач (дизайн, копирайт) — там нет однозначной связи "событие → итог".

Мини-рецепт

1. Выбери роль эксперта: Ты бизнес-аналитик (или врач, юрист)
2. Дай негативный кейс: событие → рассуждение (3 шага) → провал
3. Дай позитивный кейс: событие → рассуждение (3 шага) → успех
4. Задай новую ситуацию: Рассуждай пошагово, найди аналогии, дай вывод

Критично: аналогии должны быть релевантны новой задаче (не бери кейсы из другого века) и контрастны друг другу (успех vs провал).

Примеры

[ПЛОХО] : Оцени эту бизнес-идею. Думай пошагово — модель рассуждает красиво, но может наврать без знания рынка
[ХОРОШО] : Ты бизнес-аналитик. КЕЙС 1 (провал): Додо запустила донер-кебабы Doner 42 → 1) новая операционка 2) бренд не подходит 3) unit-экономика не сошлась → закрыли через год. КЕЙС 2 (успех): Яндекс.Такси добавило Лавку → 1) та же инфраструктура 2) синергия с такси 3) тренд на доставку → стало единорогом. ТВОЯ ЗАДАЧА: СушиМастер хочет запустить бургеры под тем же брендом. Стоит ли? Рассуждай пошагово — модель сравнит с кейсами и даст аргументированный вывод
Источник: Analogy-Driven Financial Chain-of-Thought (AD-FCoT): A Prompting Approach for Financial Sentiment Analysis
ArXiv ID: 2509.12611 | Сгенерировано: 2026-01-12 01:19

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с