TL;DR
Composite Reasoning — метод промптинга, который просит LLM динамически комбинировать разные стили рассуждения вместо следования одному доминирующему паттерну. Вместо стандартного "думай шаг за шагом" (Chain-of-Thought), модель получает инструкцию использовать весь когнитивный арсенал: абдукцию (генерация гипотез), дедукцию (применение правил), индукцию (обобщение паттернов), каузальное мышление (причины-следствия), декомпозицию (разбивку на части).
Проблема: Chain-of-Thought выдаёт преимущественно дедуктивное рассуждение — линейную цепочку логических выводов. Для сложных задач, требующих разных когнитивных подходов, этого недостаточно. Модель идёт по одной колее, упуская альтернативные пути решения. В результате — менее точные ответы на задачах, где нужно и гипотезу выдвинуть, и правило применить, и паттерн увидеть.
Суть метода: Явная инструкция в промпте переключаться между стилями мышления в зависимости от этапа решения. Для каждого шага модель выбирает подходящую стратегию: если нужно объяснить симптом — абдукция, если применить медицинское правило — дедукция, если найти общий паттерн в данных — индукция. Метод работает zero-shot в обычном чате, но даёт максимум после fine-tuning с reinforcement learning (GRPO), который автоматически усиливает стили, эффективные для конкретного домена.
Схема метода
ПРОМПТ: Проинструктируй модель использовать разные когнитивные стратегии:
- Абдукция (hypothetical reasoning): выдвигай гипотезы для объяснения
- Дедукция (rule application): применяй установленные правила и факты
- Индукция (pattern generalization): находи общие паттерны из примеров
- Каузальность (cause-effect): анализируй причинно-следственные связи
- Декомпозиция (breakdown): разбивай сложное на части
ВЫВОД: Рассуждение с явными переключениями между стилями, где каждый шаг
использует оптимальную для него стратегию
Метод работает в одном запросе — модель сама решает когда какой стиль применить.
Пример применения
Задача: Менеджер сети фитнес-клубов в Москве решает — стоит ли открывать зал на Рублёвке? Район дорогой, конкуренция высокая, но там живут платёжеспособные клиенты. Нужно взвесить все «за» и «против».
Промпт:
Проанализируй решение об открытии премиум-фитнес-клуба на Рублёвке.
Используй разные стили рассуждения:
- Абдукция: какие гипотезы объясняют спрос/его отсутствие?
- Дедукция: какие правила работы премиум-сегмента применимы?
- Индукция: какие паттерны видны в успешных/провальных открытиях?
- Каузальность: какие факторы влияют на посещаемость?
- Декомпозиция: разбей проблему на ключевые компоненты
Данные: конкурентов 7, средний чек у них 15-25к/мес, плотность населения
высокая, парковки мало, наш бренд известен в среднем сегменте.
Помечай каждый стиль рассуждения явно.
Результат:
Модель выдаст многослойный анализ с явными переключениями между стилями:
- Абдукция: "Гипотеза 1 — высокий спрос обеспечат жители района. Гипотеза 2 — клиенты будут ездить издалека ради бренда..."
- Дедукция: "По правилам премиум-сегмента: сервис должен быть не ниже конкурентов, иначе отток..."
- Индукция: "Паттерн успешных открытий: наличие SPA-зоны, детский клуб, уникальное оборудование..."
- Каузальность: "Проблема парковки → клиенты на авто не приедут → зависимость от пеших жителей..."
- Декомпозиция: "Разобьём на: 1) целевая аудитория, 2) конкурентные преимущества, 3) операционные риски..."
В финале — взвешенный вывод на основе всех стилей, не только линейной дедукции.
Почему это работает
Chain-of-Thought застревает в одной колее — модель идёт дедуктивным путём (факт → вывод → вывод), упуская другие подходы. Для диагностики медицинских симптомов нужна абдукция (какие болезни объясняют этот набор симптомов?), а CoT продолжает линейно применять правила. Для поиска бизнес-инсайтов нужна индукция (какой паттерн в успешных кейсах?), а CoT выдаёт формальную последовательность шагов.
LLM хорошо следует структурированным инструкциям и может симулировать разные типы рассуждений, если явно попросить. Когда в промпте перечислены стили мышления (абдукция, дедукция, индукция...), модель активирует соответствующие паттерны из своих обучающих данных — она видела примеры всех этих подходов.
Composite Reasoning использует это: даёт модели когнитивный чек-лист. Вместо автоматического дефолта на дедукцию, модель проверяет: "А что если применить абдукцию? А индукцию?". Каждый стиль цепляет разные аспекты задачи — и решение становится объёмнее, покрывает больше углов.
Рычаги управления промптом:
- Список стилей → убери ненужные (например, для простых задач хватит дедукции + декомпозиции)
- Требование пометок → убери "помечай стиль", чтобы модель работала естественнее (но тогда не увидишь механику)
- Домен-специфика → для медицины усиль абдукцию, для науки — каузальность, для креатива — индукцию + аналогию
Шаблон промпта
Проанализируй {задача}, используя разные стили рассуждения:
- Абдукция (Abductive): Какие гипотезы или объяснения подходят?
- Дедукция (Deductive): Какие правила, факты или принципы применить?
- Индукция (Inductive): Какие паттерны или закономерности видны?
- Каузальность (Causal): Какие причинно-следственные связи важны?
- Декомпозиция (Decompositional): Как разбить проблему на части?
Данные: {контекст}
Помечай каждый стиль рассуждения явно перед использованием.
Плейсхолдеры:
{задача}— вопрос или проблема, которую решаешь{контекст}— релевантные данные, факты, ограничения
Опционально:
- Убери "помечай стиль" → модель будет переключаться неявно, текст естественнее
- Добавь конкретные стили для домена → для диагностики усиль абдукцию, для аналитики — индукцию
- Укажи формат вывода → "Финальное решение — одно предложение"
🚀 Быстрый старт — вставь в чат:
Вот шаблон Composite Reasoning — многостильного мышления для LLM.
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит какая задача, какие данные доступны, нужны ли все стили или только часть. Она возьмёт паттерн из шаблона и подстроит под твой кейс — готовый промпт с нужными стилями для твоей проблемы.
Ограничения
⚠️ Избыточность на простых задачах: Для вопросов типа "столица Франции" или базовых вычислений переключение между стилями — оверкилл. Генерирует больше токенов (316 против 254 у CoT на научных задачах), съедает лимит без пользы. Composite Reasoning оправдан для многогранных проблем, где нужны и гипотезы, и дедукция, и паттерны одновременно.
⚠️ Зависимость от базового reasoning модели: Если модель слабая в базовом рассуждении, никакой промпт не вытянет. CR работает потому что активирует паттерны, которые уже есть в модели из обучения. Слабая модель → слабые паттерны → слабый результат даже с CR. Тестировалось на Qwen-2.5-7B и DeepSeek-R1-7B — относительно сильных моделях.
⚠️ Нет гарантии правильного стиля на каждом шаге: Модель может неправильно выбрать стиль для конкретного этапа решения. Например, применить индукцию там где нужна дедукция. Промпт даёт инструмент, но не страхует от ошибок применения. В исследовании после GRPO-обучения модель училась выбирать стили точнее (reward за правильный ответ косвенно обучал правильному выбору), но в zero-shot гарантий нет.
Как исследовали
Исследователи взяли три сложных датасета: научные вопросы (ARC-Complex), медицинскую диагностику (MedMCQA) и экспертные медицинские кейсы (MedXpertQA). Сравнивали три подхода: стандартный Chain-of-Thought, Standard Reasoning из DeepSeek-R1 (очень длинные, отполированные рассуждения), и свой Composite Reasoning.
Ключевая хитрость: обучали на мизерных данных — максимум 1,500 примеров на датасет! Fine-tuning через LoRA (лёгкая дообучка без переобучения всей модели) + GRPO (reinforcement learning с наградой за правильный ответ). Проверяли: сработает ли принцип множественных стилей при минимуме данных?
Результат шокировал: Composite Reasoning обогнал и CoT, и Standard Reasoning на всех задачах. На ARC-Complex — 94.99% точности против 93.85% у CoT. На MedMCQA — 56.30% против 55.74% у CoT. Но главное — без fine-tuning (чистый промпт zero-shot) CR уже давал +9.4% на научных вопросах и +1.85% на медицинских!
Почему так вышло? GRPO автоматически подстроил стили под домен! Анализ показал: для медицины модель после обучения резко усилила абдукцию (гипотезы) и дедукцию (правила) — именно так работают врачи при диагностике. Для науки — каузальность (причины-следствия), индукцию (паттерны) и дедукцию. Модель сама поняла что работает в каждом домене, просто получая награду за правильные ответы.
Сюрприз: Standard Reasoning от DeepSeek-R1 проиграл, несмотря на супер-длинные рассуждения (515 токенов против 316 у CR). Длина ≠ качество! CR нашёл баланс: достаточно рассуждений, но без воды. А на сложном MedXpertQA (где даже эксперты затыкаются) CR показал рост на 8.1% после обучения — в 2 раза круче CoT (6.63%) и в 2.3 раза круче SR (3.57%). Чем сложнее задача, тем больше ценность множественных стилей!
Бонус: На MedMCQA модель с CR достигла 56.30% точности, обучившись всего на 1,500 примерах. Это почти как специализированная медицинская модель HuatuoGPT-o1 (60.4%), которая жрала 40,000 примеров, и UltraMedical (58.3%) на 410,000 примерах! Composite Reasoning экономит данные в разы, потому что учится общему принципу "переключай стили", а не зубрит конкретные факты.
Адаптации и экстраполяции
💡 Адаптация для креативных задач (копирайтинг, сторителлинг, концепты)
Для креатива усиль аналогию (сравнения с другими доменами) и индукцию (паттерны успешных идей). Убери жёсткую дедукцию — она убивает свежесть.
Придумай концепт рекламной кампании для {продукт}, используя:
- Аналогия (Analogical): С какими другими доменами можно сравнить?
- Индукция (Inductive): Какие паттерны работают в успешных кампаниях?
- Абдукция (Abductive): Какие неочевидные инсайты объясняют поведение аудитории?
- Каузальность (Causal): Что заставит клиента действовать?
Целевая аудитория: {описание}
Бюджет: {цифра}
Помечай стили мышления, показывай откуда взялась каждая идея.
Эффект: Модель не будет топтаться в шаблонах "сделай яркий баннер + скидка". Аналогия притащит идеи из других индустрий (как Nike продаёт не кроссовки, а стиль жизни — применимо для твоего продукта?). Индукция найдёт паттерны работающих кампаний. Абдукция выдаст гипотезы почему аудитория не покупает (боятся переплатить? не доверяют бренду?).
💡 Адаптация для технической диагностики (баги, проблемы в системах)
Для отладки абдукция — король (какие причины объясняют симптом?). Добавь декомпозицию (разбей систему на части) и каузальность (что могло вызвать баг?).
Проанализируй баг: {описание симптома} в {система/код}.
Используй:
- Абдукция (Abductive): Какие гипотезы объясняют симптом?
- Каузальность (Causal): Какие изменения могли вызвать проблему?
- Декомпозиция (Decompositional): Разбей систему на компоненты, где искать?
- Дедукция (Deductive): Какие правила работы системы нарушены?
Логи: {вставь логи если есть}
Последние изменения: {что меняли}
Выдай топ-3 гипотезы с вероятностью каждой.
Эффект: Вместо "попробуй перезагрузить" модель выдаст набор гипотез с обоснованиями. Абдукция сгенерит варианты (может быть кэш протух? конфликт версий? race condition?). Каузальность свяжет с последними изменениями. Декомпозиция покажет где копать в первую очередь.
🔧 Техника: Переключение на одностильное мышление для скорости
Если задача однозначно требует один стиль — не заставляй модель перебирать все. Дедуктивная логика для математики, абдукция для диагностики, индукция для поиска паттернов.
# Только дедукция для математических доказательств:
Докажи {теорема}, используя строго дедуктивное рассуждение:
применяй установленные аксиомы и теоремы, выводи каждое утверждение из предыдущих.
# Только абдукция для медицинской диагностики:
Пациент с симптомами: {список}. Выдвини топ-3 диагностических гипотезы
(абдуктивное рассуждение), объясни каждую.
# Только индукция для анализа данных:
Таблица продаж: {данные}. Найди повторяющиеся паттерны (индуктивное рассуждение),
обобщи закономерности.
Эффект: Экономия токенов — модель не прогоняет 5 стилей, а фокусируется на одном релевантном. Меньше воды, быстрее ответ, но теряется полнота анализа с разных сторон. Используй для простых задач с очевидным подходом.
💡 Экстраполяция: Composite Reasoning + Self-Consistency
Комбинация с Self-Consistency (генерация нескольких решений → выбор наиболее частого ответа): каждый путь решения использует свой доминирующий стиль, финал — консенсус.
Реши {задача}, сгенерировав 3 независимых решения с разными доминирующими стилями:
Решение 1 — с упором на абдукцию (гипотезы)
Решение 2 — с упором на дедукцию (правила)
Решение 3 — с упором на индукцию (паттерны)
Для каждого решения:
1. Явно укажи доминирующий стиль
2. Используй остальные стили как вспомогательные
3. Выдай финальный ответ
После 3 решений — сравни, найди консенсус или объясни расхождения.
Эффект: Три ортогональных взгляда на задачу. Если все три пути дают один ответ — высокая уверенность. Если расходятся — видны слабые места каждого подхода. Абдуктивный путь может выдать креативную гипотезу, которую упустила дедукция. Индуктивный путь найдёт паттерн, которого не видно через правила.
Ресурсы
Thinking in Many Modes: How Composite Reasoning Elevates Large Language Model Performance with Limited Data (NeurIPS 2025 Workshop: Efficient Reasoning)
Авторы: Zishan Ahmad, Saisubramaniam Gopalakrishnan (PhiLabs, Quantiphi Inc)
Ключевые отсылки из исследования:
- Chain-of-Thought (CoT) — Wei et al. (2022)
- LoRA: Low-Rank Adaptation — Hu et al. (2022)
- GRPO: Group Relative Policy Optimization — Shao et al. (2024)
- DeepSeek-R1 — Guo et al. (2025)
- Medical Problem Solving — Elstein et al. (1978) — про гипотетико-дедуктивный процесс врачей
