TL;DR
AD-FCoT — техника промптинга, которая встраивает исторические аналогии в цепочку рассуждений модели. Перед анализом новой ситуации вы даёте LLM 2-3 примера из прошлого: событие → пошаговое рассуждение → итог. Модель учится на этих кейсах и применяет тот же каузальный паттерн к новой задаче.
LLM отлично рассуждает пошагово (Chain-of-Thought), но часто не хватает domain-specific контекста — особенно в финансах, медицине, праве. Без якоря в реальных прецедентах модель может выдать красивое, но беспочвенное объяснение. Vanilla CoT говорит "подумаем логически", но не знает что конкретно важно для этого домена. Few-shot даёт примеры, но без явной логики между событием и результатом.
AD-FCoT решает это через явную причинно-следственную цепочку в аналогиях: не просто "вот пример негативной новости", а "вот новость → вот как её разобрали эксперты → вот к чему это привело". Модель видит шаблон экспертного мышления и копирует его.
Схема метода
ПРОМПТ (один запрос):
1. Инструкция: "Ты аналитик. Рассуждай пошагово, как эксперт"
2. Аналогия 1 (негативный кейс): [событие] → [CoT рассуждение] → [итог]
3. Аналогия 2 (позитивный кейс): [событие] → [CoT рассуждение] → [итог]
4. Твоя задача: [новое событие] → ?
МОДЕЛЬ ВЫДАЁТ:
[CoT рассуждение по аналогии] → [вывод]
Пример применения
Задача: Оценить бизнес-решение — запускать ли новый формат доставки еды в регионах.
Промпт:
Ты бизнес-аналитик. Рассуждай пошагово, как это делают опытные предприниматели — ищи аналогии из прошлого и делай выводы.
КЕЙС 1 (негативный):
Событие: Додо Пицца в 2020 запустила Doner 42 — сеть донер-кебабов.
Рассуждение:
1. Новый формат, другая кухня — нужна новая операционка
2. Бренд "Додо" заточен под пиццу, клиенты не поняли зачем донер
3. Конкуренция высокая, unit-экономика не сошлась
Итог: Закрыли через год. Отвлеклись от core-бизнеса.
КЕЙС 2 (позитивный):
Событие: Яндекс.Такси добавило Лавку (доставку продуктов) в 2019.
Рассуждение:
1. Используют ту же инфраструктуру — курьеры, маршрутизация
2. Синергия с такси — те же пользователи в приложении
3. Спрос на доставку еды растёт, пандемия усилила тренд
Итог: Лавка стала единорогом, GMV миллиарды рублей.
ТВОЯ ЗАДАЧА:
Наша компания "СушиМастер" (доставка суши в 15 городах) хочет запустить доставку бургеров под тем же брендом. Стоит ли?
Рассуждай пошагово, найди аналогии, дай вывод.
Результат:
Модель выдаст пошаговое рассуждение с отсылками к кейсам:
- Сравнит с Doner 42 (риск размыть бренд)
- Сравнит с Лавкой (можно ли использовать ту же инфру)
- Оценит синергию (те же клиенты? та же кухня?)
- Даст аргументированный вывод с учётом исторических паттернов
Почему это работает
LLM отлично находит паттерны, но плохо знает domain-specific причинно-следственные связи. В финансах: "отзыв продукта" → снижение доверия → падение акций. В медицине: "этот симптом + этот анализ" → скорее всего диагноз X. Модель может угадать логику, но часто ошибается в деталях.
Few-shot даёт примеры, но без явной логики: модель видит "новость A → негатив", "новость B → позитив", но не понимает почему. Chain-of-Thought заставляет рассуждать, но без якоря в реальных кейсах модель может красиво наврать.
AD-FCoT комбинирует сильные стороны:
- Аналогии дают каузальный шаблон из реального мира ("вот как это работает")
- Chain-of-Thought заставляет применить этот шаблон пошагово к новой задаче
- Два примера (позитивный + негативный) показывают контраст — модель видит разницу
Результат: модель копирует экспертное мышление, не изобретает логику с нуля.
Рычаги управления:
- Количество аналогий: 2 достаточно для большинства задач, 3-4 если домен сложный
- Детализация рассуждений: можешь упростить ("→ итог") или усложнить ("→ шаг 1 → шаг 2 → итог")
- Контраст примеров: позитив + негатив острее, чем два позитивных
- Релевантность аналогий: чем ближе к задаче, тем точнее вывод (не бери из другого века)
Шаблон промпта
Ты {роль}. Рассуждай пошагово, как это делают эксперты — ищи аналогии из прошлого и делай выводы.
КЕЙС 1 (негативный):
Событие: {описание события}
Рассуждение:
1. {первый шаг анализа}
2. {второй шаг анализа}
3. {третий шаг анализа}
Итог: {что произошло}
КЕЙС 2 (позитивный):
Событие: {описание события}
Рассуждение:
1. {первый шаг анализа}
2. {второй шаг анализа}
3. {третий шаг анализа}
Итог: {что произошло}
ТВОЯ ЗАДАЧА:
{описание новой ситуации}
Рассуждай пошагово, найди аналогии, дай вывод.
Что подставлять:
{роль}— эксперт в нужной области (аналитик, врач, юрист){описание события}— конкретный исторический кейс с известным итогом{шаги анализа}— причинно-следственная цепочка (почему так получилось){что произошло}— финальный результат (успех/провал, цифры если есть){описание новой ситуации}— задача, которую нужно оценить
Критично: Аналогии должны быть релевантны новой задаче и контрастны друг другу (один успех, один провал). Если оба примера одинаковые по исходу — модель не увидит разницу.
Ограничения
⚠️ Качество аналогий = качество вывода: Если примеры не релевантны или устарели, модель подтянет неправильный паттерн. Мусор на входе — мусор на выходе.
⚠️ Нужны чёткие прецеденты: Для креативных или субъективных задач (дизайн, копирайт) метод работает хуже — там нет однозначной связи "событие → итог".
⚠️ Небольшой gain в исследовании: В финансовом sentiment analysis точность выросла на 0.22% (с 54.70% до 54.92%) — статистически значимо, но не прорыв. Главная ценность — интерпретируемость рассуждений.
⚠️ Длина промпта: Две детальные аналогии съедают 200-300 токенов. Для простых задач может быть избыточно.
Как исследовали
Исследователи взяли тысячи финансовых новостей из датасета FNSPID (2012-2023) и проверили AD-FCoT против пяти baseline-методов: Zero-Shot, Few-Shot, обычный CoT, Domain-Knowledge CoT и self-consistency. Критичное решение: тестовую выборку взяли только из 2023 года — после training cutoff модели LLaMA 3. Это устраняло look-ahead bias (модель не могла "помнить" эти новости из обучения).
Каждую новость подавали в LLM, модель выдавала sentiment (позитив/негатив/нейтрал), потом сравнивали с реальным движением цены акции в тот же день. Не просто "правильно ли определили тон статьи", а "можно ли по этому сигналу торговать".
Результат удивил: AD-FCoT показал лучшую точность (54.92%) и самый высокий recall (53.62%). Казалось бы, разница в 0.22 процентных пункта — мелочь. Но в трейдинге, где edge микроскопический, это ощутимо. Плюс модель выдавала детальные объяснения ("эта новость похожа на отзыв продукта в 2018, тогда акции упали, значит..."), что критично для regulated domains.
Почему другие методы проиграли: Vanilla CoT красиво рассуждал, но без якоря в реальных кейсах часто промахивался. Few-Shot давал примеры, но без явной логики — модель не понимала почему это позитив или негатив. Domain-Knowledge CoT (DK-CoT) добавлял факты ("P/E ratio = X"), но это статика, не каузальность.
Инсайт: Аналогии работают как few-shot для причинно-следственных связей. Модель видит не просто "пример негативной новости", а "вот как event X привёл к outcome Y через механизм Z". Это обучает шаблону экспертного мышления, который переносится на новую задачу.
Адаптации и экстраполяции
💡 Адаптация для медицинской диагностики:
Метод работает для дифференциальной диагностики, где врач вспоминает похожие клинические случаи.
Ты врач-терапевт. Рассуждай пошагово, как опытный диагност — вспоминай похожие случаи.
КЕЙС 1:
Симптомы: Высокая температура + боль в горле + белый налёт на миндалинах
Рассуждение:
1. Налёт + боль → бактериальная инфекция
2. Высокая Т → острое течение
3. Стрептококк часто даёт такую картину
Диагноз: Ангина (стрептококковая). Антибиотики помогли за 3 дня.
КЕЙС 2:
Симптомы: Высокая температура + боль в горле + сыпь на теле
Рассуждение:
1. Сыпь + температура → вирусная инфекция
2. Боль в горле вторична
3. Скарлатина даёт похожую картину
Диагноз: Скарлатина. Антибиотики + симптоматика.
ТВОЙ СЛУЧАЙ:
Пациент: температура 38.5, боль в горле, {дополнительные симптомы}
Что это скорее всего? Рассуждай по аналогии.
💡 Адаптация для юридического анализа (прецедентное право):
Юристы всегда работают через аналогии — ищут похожие дела и смотрят как их решили.
Ты юрист. Рассуждай через прецеденты — находи похожие дела и делай выводы.
ПРЕЦЕДЕНТ 1:
Дело: ООО "Альфа" vs ИП "Бета" — спор о неисполнении договора поставки
Факты:
1. Договор подписан, товар не поставлен в срок
2. Поставщик ссылается на форс-мажор (наводнение)
3. Покупатель требует возмещения упущенной выгоды
Решение суда: Форс-мажор признан, но поставщик обязан вернуть предоплату. Упущенная выгода не возмещается (непредсказуемость).
ПРЕЦЕДЕНТ 2:
Дело: ООО "Гамма" vs ООО "Дельта" — спор о качестве товара
Факты:
1. Товар поставлен, но с дефектами
2. Покупатель требует замены + возмещения убытков
3. Поставщик отказывается — ссылается на приёмку товара
Решение суда: Приёмка не освобождает от гарантии. Замена товара + убытки (документально подтверждённые).
ТВОЁ ДЕЛО:
{описание ситуации клиента}
Какие прецеденты применимы? Что скорее всего решит суд?
🔧 Техника: добавить третью аналогию (edge case) → точнее для пограничных ситуаций
Если задача неоднозначная, два примера могут не покрыть все сценарии. Добавь третий кейс — пограничный.
КЕЙС 1 (явно негативный): ...
КЕЙС 2 (явно позитивный): ...
КЕЙС 3 (пограничный):
Событие: {что-то неоднозначное}
Рассуждение:
1. С одной стороны — {позитивный фактор}
2. С другой стороны — {негативный фактор}
3. В итоге — {зависит от контекста}
Итог: {результат был X, потому что перевесил фактор Y}
Это учит модель различать нюансы, не делить всё на чёрное и белое.
Ресурсы
Analogy-Driven Financial Chain-of-Thought (AD-FCoT): A Prompting Approach for Financial Sentiment Analysis
Исследование опубликовано: 2024
Авторы: Anmol Singhal (New York University), Navya Singhal (University of Texas at Austin)
Датасет: FNSPID (Financial News Sentiment Prediction Dataset) — тысячи финансовых новостей 2012-2023
Модель: LLaMA 3 (8B параметров, без fine-tuning)
Связанные техники:
- Chain-of-Thought prompting (Wei et al., 2022)
- Domain-Knowledge CoT (Chen et al., 2025)
- Self-consistency (Wang et al., 2023)
- Retrieval-Augmented Generation (Lewis et al., 2020)
