3,583 papers
arXiv:2509.22224 84 26 сент. 2025 г. FREE

Composite Reasoning (CR): многостильное мышление вместо одного шаблона рассуждений

КЛЮЧЕВАЯ СУТЬ
LLM по умолчанию идёт дедуктивным путём (факт→вывод→вывод), даже когда задача требует генерации гипотез или поиска паттернов. Метод Composite Reasoning позволяет использовать весь когнитивный арсенал модели – абдукцию (выдвижение гипотез), индукцию (поиск паттернов), каузальность (причины-следствия), декомпозицию (разбивку на части). Фишка: дай модели когнитивный чек-лист – явная инструкция использовать 5 разных стилей мышления в одном рассуждении. Модель перестаёт застревать в дедуктивной колее и проверяет задачу с разных углов – для диагностики применяет абдукцию, для правил дедукцию, для инсайтов индукцию.
Адаптировать под запрос

TL;DR

Composite Reasoning — метод промптинга, который просит LLM динамически комбинировать разные стили рассуждения вместо следования одному доминирующему паттерну. Вместо стандартного "думай шаг за шагом" (Chain-of-Thought), модель получает инструкцию использовать весь когнитивный арсенал: абдукцию (генерация гипотез), дедукцию (применение правил), индукцию (обобщение паттернов), каузальное мышление (причины-следствия), декомпозицию (разбивку на части).

Проблема: Chain-of-Thought выдаёт преимущественно дедуктивное рассуждение — линейную цепочку логических выводов. Для сложных задач, требующих разных когнитивных подходов, этого недостаточно. Модель идёт по одной колее, упуская альтернативные пути решения. В результате — менее точные ответы на задачах, где нужно и гипотезу выдвинуть, и правило применить, и паттерн увидеть.

Суть метода: Явная инструкция в промпте переключаться между стилями мышления в зависимости от этапа решения. Для каждого шага модель выбирает подходящую стратегию: если нужно объяснить симптом — абдукция, если применить медицинское правило — дедукция, если найти общий паттерн в данных — индукция. Метод работает zero-shot в обычном чате, но даёт максимум после fine-tuning с reinforcement learning (GRPO), который автоматически усиливает стили, эффективные для конкретного домена.

🔬

Схема метода

ПРОМПТ: Проинструктируй модель использовать разные когнитивные стратегии:
 - Абдукция (hypothetical reasoning): выдвигай гипотезы для объяснения
 - Дедукция (rule application): применяй установленные правила и факты
 - Индукция (pattern generalization): находи общие паттерны из примеров
 - Каузальность (cause-effect): анализируй причинно-следственные связи
 - Декомпозиция (breakdown): разбивай сложное на части

ВЫВОД: Рассуждение с явными переключениями между стилями, где каждый шаг 
 использует оптимальную для него стратегию

Метод работает в одном запросе — модель сама решает когда какой стиль применить.

🚀

Пример применения

Задача: Менеджер сети фитнес-клубов в Москве решает — стоит ли открывать зал на Рублёвке? Район дорогой, конкуренция высокая, но там живут платёжеспособные клиенты. Нужно взвесить все «за» и «против».

Промпт:

Проанализируй решение об открытии премиум-фитнес-клуба на Рублёвке. 
Используй разные стили рассуждения:

- Абдукция: какие гипотезы объясняют спрос/его отсутствие?
- Дедукция: какие правила работы премиум-сегмента применимы?
- Индукция: какие паттерны видны в успешных/провальных открытиях?
- Каузальность: какие факторы влияют на посещаемость?
- Декомпозиция: разбей проблему на ключевые компоненты

Данные: конкурентов 7, средний чек у них 15-25к/мес, плотность населения 
высокая, парковки мало, наш бренд известен в среднем сегменте.

Помечай каждый стиль рассуждения явно.

Результат:

Модель выдаст многослойный анализ с явными переключениями между стилями:

  • Абдукция: "Гипотеза 1 — высокий спрос обеспечат жители района. Гипотеза 2 — клиенты будут ездить издалека ради бренда..."
  • Дедукция: "По правилам премиум-сегмента: сервис должен быть не ниже конкурентов, иначе отток..."
  • Индукция: "Паттерн успешных открытий: наличие SPA-зоны, детский клуб, уникальное оборудование..."
  • Каузальность: "Проблема парковки → клиенты на авто не приедут → зависимость от пеших жителей..."
  • Декомпозиция: "Разобьём на: 1) целевая аудитория, 2) конкурентные преимущества, 3) операционные риски..."

В финале — взвешенный вывод на основе всех стилей, не только линейной дедукции.

🧠

Почему это работает

Chain-of-Thought застревает в одной колее — модель идёт дедуктивным путём (факт → вывод → вывод), упуская другие подходы. Для диагностики медицинских симптомов нужна абдукция (какие болезни объясняют этот набор симптомов?), а CoT продолжает линейно применять правила. Для поиска бизнес-инсайтов нужна индукция (какой паттерн в успешных кейсах?), а CoT выдаёт формальную последовательность шагов.

LLM хорошо следует структурированным инструкциям и может симулировать разные типы рассуждений, если явно попросить. Когда в промпте перечислены стили мышления (абдукция, дедукция, индукция...), модель активирует соответствующие паттерны из своих обучающих данных — она видела примеры всех этих подходов.

Composite Reasoning использует это: даёт модели когнитивный чек-лист. Вместо автоматического дефолта на дедукцию, модель проверяет: "А что если применить абдукцию? А индукцию?". Каждый стиль цепляет разные аспекты задачи — и решение становится объёмнее, покрывает больше углов.

Рычаги управления промптом:

  • Список стилей → убери ненужные (например, для простых задач хватит дедукции + декомпозиции)
  • Требование пометок → убери "помечай стиль", чтобы модель работала естественнее (но тогда не увидишь механику)
  • Домен-специфика → для медицины усиль абдукцию, для науки — каузальность, для креатива — индукцию + аналогию
📋

Шаблон промпта

Проанализируй {задача}, используя разные стили рассуждения:

- Абдукция (Abductive): Какие гипотезы или объяснения подходят?
- Дедукция (Deductive): Какие правила, факты или принципы применить?
- Индукция (Inductive): Какие паттерны или закономерности видны?
- Каузальность (Causal): Какие причинно-следственные связи важны?
- Декомпозиция (Decompositional): Как разбить проблему на части?

Данные: {контекст}

Помечай каждый стиль рассуждения явно перед использованием.

Плейсхолдеры:

  • {задача} — вопрос или проблема, которую решаешь
  • {контекст} — релевантные данные, факты, ограничения

Опционально:

  • Убери "помечай стиль" → модель будет переключаться неявно, текст естественнее
  • Добавь конкретные стили для домена → для диагностики усиль абдукцию, для аналитики — индукцию
  • Укажи формат вывода → "Финальное решение — одно предложение"

🚀 Быстрый старт — вставь в чат:

Вот шаблон Composite Reasoning — многостильного мышления для LLM. 
Адаптируй под мою задачу: [твоя задача]. 

Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит какая задача, какие данные доступны, нужны ли все стили или только часть. Она возьмёт паттерн из шаблона и подстроит под твой кейс — готовый промпт с нужными стилями для твоей проблемы.

⚠️

Ограничения

⚠️ Избыточность на простых задачах: Для вопросов типа "столица Франции" или базовых вычислений переключение между стилями — оверкилл. Генерирует больше токенов (316 против 254 у CoT на научных задачах), съедает лимит без пользы. Composite Reasoning оправдан для многогранных проблем, где нужны и гипотезы, и дедукция, и паттерны одновременно.

⚠️ Зависимость от базового reasoning модели: Если модель слабая в базовом рассуждении, никакой промпт не вытянет. CR работает потому что активирует паттерны, которые уже есть в модели из обучения. Слабая модель → слабые паттерны → слабый результат даже с CR. Тестировалось на Qwen-2.5-7B и DeepSeek-R1-7B — относительно сильных моделях.

⚠️ Нет гарантии правильного стиля на каждом шаге: Модель может неправильно выбрать стиль для конкретного этапа решения. Например, применить индукцию там где нужна дедукция. Промпт даёт инструмент, но не страхует от ошибок применения. В исследовании после GRPO-обучения модель училась выбирать стили точнее (reward за правильный ответ косвенно обучал правильному выбору), но в zero-shot гарантий нет.

🔍

Как исследовали

Исследователи взяли три сложных датасета: научные вопросы (ARC-Complex), медицинскую диагностику (MedMCQA) и экспертные медицинские кейсы (MedXpertQA). Сравнивали три подхода: стандартный Chain-of-Thought, Standard Reasoning из DeepSeek-R1 (очень длинные, отполированные рассуждения), и свой Composite Reasoning.

Ключевая хитрость: обучали на мизерных данных — максимум 1,500 примеров на датасет! Fine-tuning через LoRA (лёгкая дообучка без переобучения всей модели) + GRPO (reinforcement learning с наградой за правильный ответ). Проверяли: сработает ли принцип множественных стилей при минимуме данных?

Результат шокировал: Composite Reasoning обогнал и CoT, и Standard Reasoning на всех задачах. На ARC-Complex — 94.99% точности против 93.85% у CoT. На MedMCQA — 56.30% против 55.74% у CoT. Но главное — без fine-tuning (чистый промпт zero-shot) CR уже давал +9.4% на научных вопросах и +1.85% на медицинских!

Почему так вышло? GRPO автоматически подстроил стили под домен! Анализ показал: для медицины модель после обучения резко усилила абдукцию (гипотезы) и дедукцию (правила) — именно так работают врачи при диагностике. Для науки — каузальность (причины-следствия), индукцию (паттерны) и дедукцию. Модель сама поняла что работает в каждом домене, просто получая награду за правильные ответы.

Сюрприз: Standard Reasoning от DeepSeek-R1 проиграл, несмотря на супер-длинные рассуждения (515 токенов против 316 у CR). Длина ≠ качество! CR нашёл баланс: достаточно рассуждений, но без воды. А на сложном MedXpertQA (где даже эксперты затыкаются) CR показал рост на 8.1% после обучения — в 2 раза круче CoT (6.63%) и в 2.3 раза круче SR (3.57%). Чем сложнее задача, тем больше ценность множественных стилей!

Бонус: На MedMCQA модель с CR достигла 56.30% точности, обучившись всего на 1,500 примерах. Это почти как специализированная медицинская модель HuatuoGPT-o1 (60.4%), которая жрала 40,000 примеров, и UltraMedical (58.3%) на 410,000 примерах! Composite Reasoning экономит данные в разы, потому что учится общему принципу "переключай стили", а не зубрит конкретные факты.

💡

Адаптации и экстраполяции

💡 Адаптация для креативных задач (копирайтинг, сторителлинг, концепты)

Для креатива усиль аналогию (сравнения с другими доменами) и индукцию (паттерны успешных идей). Убери жёсткую дедукцию — она убивает свежесть.

Придумай концепт рекламной кампании для {продукт}, используя:

- Аналогия (Analogical): С какими другими доменами можно сравнить?
- Индукция (Inductive): Какие паттерны работают в успешных кампаниях?
- Абдукция (Abductive): Какие неочевидные инсайты объясняют поведение аудитории?
- Каузальность (Causal): Что заставит клиента действовать?

Целевая аудитория: {описание}
Бюджет: {цифра}

Помечай стили мышления, показывай откуда взялась каждая идея.

Эффект: Модель не будет топтаться в шаблонах "сделай яркий баннер + скидка". Аналогия притащит идеи из других индустрий (как Nike продаёт не кроссовки, а стиль жизни — применимо для твоего продукта?). Индукция найдёт паттерны работающих кампаний. Абдукция выдаст гипотезы почему аудитория не покупает (боятся переплатить? не доверяют бренду?).


💡 Адаптация для технической диагностики (баги, проблемы в системах)

Для отладки абдукция — король (какие причины объясняют симптом?). Добавь декомпозицию (разбей систему на части) и каузальность (что могло вызвать баг?).

Проанализируй баг: {описание симптома} в {система/код}.

Используй:
- Абдукция (Abductive): Какие гипотезы объясняют симптом?
- Каузальность (Causal): Какие изменения могли вызвать проблему?
- Декомпозиция (Decompositional): Разбей систему на компоненты, где искать?
- Дедукция (Deductive): Какие правила работы системы нарушены?

Логи: {вставь логи если есть}
Последние изменения: {что меняли}

Выдай топ-3 гипотезы с вероятностью каждой.

Эффект: Вместо "попробуй перезагрузить" модель выдаст набор гипотез с обоснованиями. Абдукция сгенерит варианты (может быть кэш протух? конфликт версий? race condition?). Каузальность свяжет с последними изменениями. Декомпозиция покажет где копать в первую очередь.


🔧 Техника: Переключение на одностильное мышление для скорости

Если задача однозначно требует один стиль — не заставляй модель перебирать все. Дедуктивная логика для математики, абдукция для диагностики, индукция для поиска паттернов.

# Только дедукция для математических доказательств:
Докажи {теорема}, используя строго дедуктивное рассуждение:
применяй установленные аксиомы и теоремы, выводи каждое утверждение из предыдущих.

# Только абдукция для медицинской диагностики:
Пациент с симптомами: {список}. Выдвини топ-3 диагностических гипотезы 
(абдуктивное рассуждение), объясни каждую.

# Только индукция для анализа данных:
Таблица продаж: {данные}. Найди повторяющиеся паттерны (индуктивное рассуждение), 
обобщи закономерности.

Эффект: Экономия токенов — модель не прогоняет 5 стилей, а фокусируется на одном релевантном. Меньше воды, быстрее ответ, но теряется полнота анализа с разных сторон. Используй для простых задач с очевидным подходом.


💡 Экстраполяция: Composite Reasoning + Self-Consistency

Комбинация с Self-Consistency (генерация нескольких решений → выбор наиболее частого ответа): каждый путь решения использует свой доминирующий стиль, финал — консенсус.

Реши {задача}, сгенерировав 3 независимых решения с разными доминирующими стилями:

Решение 1 — с упором на абдукцию (гипотезы)
Решение 2 — с упором на дедукцию (правила)
Решение 3 — с упором на индукцию (паттерны)

Для каждого решения:
1. Явно укажи доминирующий стиль
2. Используй остальные стили как вспомогательные
3. Выдай финальный ответ

После 3 решений — сравни, найди консенсус или объясни расхождения.

Эффект: Три ортогональных взгляда на задачу. Если все три пути дают один ответ — высокая уверенность. Если расходятся — видны слабые места каждого подхода. Абдуктивный путь может выдать креативную гипотезу, которую упустила дедукция. Индуктивный путь найдёт паттерн, которого не видно через правила.

🔗

Ресурсы

Thinking in Many Modes: How Composite Reasoning Elevates Large Language Model Performance with Limited Data (NeurIPS 2025 Workshop: Efficient Reasoning)

Авторы: Zishan Ahmad, Saisubramaniam Gopalakrishnan (PhiLabs, Quantiphi Inc)

Ключевые отсылки из исследования:

  • Chain-of-Thought (CoT) — Wei et al. (2022)
  • LoRA: Low-Rank Adaptation — Hu et al. (2022)
  • GRPO: Group Relative Policy Optimization — Shao et al. (2024)
  • DeepSeek-R1 — Guo et al. (2025)
  • Medical Problem Solving — Elstein et al. (1978) — про гипотетико-дедуктивный процесс врачей

📋 Дайджест исследования

Ключевая суть

LLM по умолчанию идёт дедуктивным путём (факт→вывод→вывод), даже когда задача требует генерации гипотез или поиска паттернов. Метод Composite Reasoning позволяет использовать весь когнитивный арсенал модели – абдукцию (выдвижение гипотез), индукцию (поиск паттернов), каузальность (причины-следствия), декомпозицию (разбивку на части). Фишка: дай модели когнитивный чек-лист – явная инструкция использовать 5 разных стилей мышления в одном рассуждении. Модель перестаёт застревать в дедуктивной колее и проверяет задачу с разных углов – для диагностики применяет абдукцию, для правил дедукцию, для инсайтов индукцию.

Принцип работы

Вместо автопилота на дедукцию → когнитивный чек-лист для каждого этапа решения. Chain-of-Thought выдаёт линейную цепочку (шаг 1→шаг 2→шаг 3), где 90% рассуждения – применение правил и фактов. Composite Reasoning даёт модели список стилей мышления и просит выбирать подходящий для каждого шага: если нужно объяснить симптом – абдукция (гипотезы), если применить медицинское правило – дедукция, если найти общий паттерн в данных – индукция. Модель сама решает когда какой стиль применить внутри одного рассуждения.

Почему работает

LLM видела примеры всех этих подходов в обучающих данных – научные статьи с гипотезами (абдукция), доказательства теорем (дедукция), анализ трендов (индукция). Но без явной инструкции модель по умолчанию скатывается в дедукцию – это самый частый паттерн в её тренировочном корпусе. Когда в промпте перечислены стили мышления, модель активирует соответствующие паттерны – проверяет задачу через призму каждого стиля. Абдукция цепляет объяснения, индукция – закономерности, каузальность – причины. Решение покрывает больше углов, чем одна линейная цепочка. В исследовании на научных задачах CR генерировал 316 токенов против 254 у стандартного CoT – больше объём, но глубже анализ.

Когда применять

Сложные многогранные задачи → стратегические бизнес-решения (где нужны и гипотезы о спросе, и дедукция правил сегмента, и паттерны успешных кейсов), медицинская диагностика (абдукция для объяснения симптомов + дедукция для применения протоколов), исследовательская аналитика (индукция для трендов + каузальность для причин). Особенно когда стандартный CoT даёт поверхностный линейный ответ. НЕ подходит для простых фактических вопросов типа 'столица Франции' или базовых вычислений – переключение между стилями будет избыточным, съест токены без пользы.

Мини-рецепт

1. Перечисли стили в промпте: Абдукция (гипотезы), Дедукция (правила), Индукция (паттерны), Каузальность (причины-следствия), Декомпозиция (разбивка на части).
2. Дай инструкцию переключаться: Используй разные стили рассуждения в зависимости от этапа решения. Помечай каждый стиль явно.
3. Опционально усиль нужные стили: Для медицины – акцент на абдукцию, для науки – каузальность, для креатива – индукцию. Убери стили которые не нужны для твоей задачи.
4. Убери пометки для естественности: Если не нужно видеть механику, удали требование помечать стили – модель будет переключаться неявно, текст станет плавнее.

Примеры

[ПЛОХО] : Проанализируй стоит ли открывать фитнес-клуб на Рублёвке. Конкурентов 7, средний чек 15-25к/мес. (Модель пойдёт дедуктивным путём – применит общие правила премиум-сегмента, упустит гипотезы о спросе и паттерны успешных открытий)
[ХОРОШО] : Проанализируй стоит ли открывать фитнес-клуб на Рублёвке. Используй разные стили: Абдукция – какие гипотезы объясняют спрос? Дедукция – какие правила премиум-сегмента применимы? Индукция – какие паттерны в успешных открытиях? Каузальность – какие факторы влияют на посещаемость? Декомпозиция – разбей на компоненты. Данные: конкурентов 7, средний чек 15-25к, парковки мало, бренд известен в среднем сегменте. Помечай каждый стиль. (Модель выдаст многослойный анализ: абдукция – гипотезы о клиентах, дедукция – правила сервиса, индукция – паттерн про SPA-зоны, каузальность – парковка→отток авто-клиентов, декомпозиция – целевая аудитория/преимущества/риски)
Источник: Thinking in Many Modes: How Composite Reasoning Elevates Large Language Model Performance with Limited Data
ArXiv ID: 2509.22224 | Сгенерировано: 2026-01-12 01:23

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с