3,583 papers
arXiv:2604.22266 75 24 апр. 2026 г. FREE

LLM Decide Early: модели решают до того, как начинают объяснять

КЛЮЧЕВАЯ СУТЬ
Длинное рассуждение модели — не признак того, что она думала. В 68% запросов ответ не меняется ни разу с первого до последнего шага — модель «знает» с самого начала и строит убедительную историю вокруг уже принятого решения. Техника предварительной фиксации позволяет это поймать: вынуждает модель показать ответ до анализа, а потом сравнить с ответом после. Фишка: если шаг 1 и шаг 3 совпали — рассуждение не работало, оно обосновывало. Это не значит что ответ неверный — но это значит что рассуждение его не проверяло.
Адаптировать под запрос

TL;DR

Когда модель думает вслух — она часто уже знает ответ. Исследование показало: в 68% запросов ответ не меняется ни разу за всё время рассуждений. Модель сразу «знает» правильный ответ и просто объясняет его постфактум. Длинная «цепочка мыслей» — не всегда реальное мышление. Часто это нарратив-оправдание уже принятого решения.

Главная неудобная находка: ~50% токенов рассуждения генерируется уже после того, как модель «решила». Если вы думаете, что чем длиннее думает модель — тем надёжнее ответ, это не всегда так. Длинное объяснение ≠ качественный ответ. Модель может долго и убедительно обосновывать уже принятое решение — и ни один токен этого обоснования не влияет на финальный вывод.

Исследователи разработали технику forced answer completion — принудительно «останавливали» модель на каждом шаге рассуждения и спрашивали: «какой твой ответ сейчас?». Так они получили траекторию ответов — карту того, как менялся ответ шаг за шагом. Оказалось: почти всегда ответ стабилизируется задолго до конца рассуждений.


🔬

Схема метода

Это исследование-находка, а не техника со шагами. Но из него вырастает практический приём — «Предварительная фиксация» (Pre-commit prompting):

ШАБЛОН В ЧАТЕ:

ШАГ 1: Мгновенный ответ → одно предложение без рассуждений
ШАГ 2: Полное рассуждение → развёрнутый анализ
ШАГ 3: Финальный ответ → с учётом рассуждений. 
        Если изменился — объясни почему.

Оба шага в одном сообщении.

Если ответ на шаге 1 и шаге 3 совпадают — рассуждение было декоративным. Если изменился — рассуждение реально повлияло на вывод.


🚀

Пример применения

Задача: Вы думаете открыть кофейню в Москве. Хотите понять, стоит ли рассматривать Казань как альтернативу. Спрашиваете у Claude.

Промпт:

Я хочу открыть кофейню specialty-формата с бюджетом 3 млн рублей. 
Рассматриваю Москву и Казань.

Сделай в три шага:

Шаг 1 — Мгновенный ответ: 
Один город одним предложением. Без обоснований.

Шаг 2 — Анализ: 
Аренда, конкуренция, аудитория, точка окупаемости. 
По каждому пункту коротко.

Шаг 3 — Финальный ответ: 
Если совпадает с шагом 1 — напиши «решение не изменилось». 
Если изменился — объясни что именно переломило.

Результат: Вы увидите мгновенный ответ (интуиция модели), затем полный анализ, затем финал. Если шаг 1 и шаг 3 совпадут — вы будете знать: рассуждение просто оформило уже готовый вывод. Если шаг 3 изменился — значит, в анализе была реальная новая информация, которая повлияла на решение. Это помогает отделить реальное рассуждение от убедительного нарратива.


🧠

Почему это работает

У LLM нет «мышления» в человеческом смысле — она генерирует токены по вероятности. Когда задача «похожа» на что-то в обучающих данных, модель часто активирует паттерн ответа сразу — ещё до первого слова рассуждения. Рассуждение в этом случае генерируется как логичный нарратив вокруг уже выбранного ответа, а не как путь к нему.

LLM очень хорошо умеет строить связный, убедительный текст. Именно поэтому постфактумное объяснение выглядит как настоящий процесс думания. Вы читаете рассуждение и думаете: «да, модель реально взвесила все за и против». На деле — она уже «знала» ответ и сгенерировала убедительное обоснование.

Техника «предварительной фиксации» работает как лакмусовая бумажка: если первый и финальный ответ совпадают после полного анализа — вы получаете сигнал, что анализ декоративный. Это не значит, что ответ неверный — но это значит, что доверять ему нужно с поправкой на то, что рассуждение не работало как «проверка».

Рычаги управления: - Сократи шаг 2 → дешевле по токенам, быстрее, достаточно для простых задач - Добавь "насколько уверен в шаге 1 по шкале 1-10" → получишь калибровку уверенности модели до рассуждения - Добавь конкурирующую гипотезу → "а теперь предположи, что ты ошибся в шаге 1 — что это меняет?" → форсируешь настоящую проверку


📋

Шаблон промпта

{Вопрос или задача}

Ответь в три шага:

**Шаг 1 — Мгновенный ответ:**
Один чёткий ответ одним предложением. Никаких объяснений. 
Что первое приходит в голову?

**Шаг 2 — Полный анализ:**
Разбери задачу по существу: {что именно анализировать — 
критерии, факторы, риски}.

**Шаг 3 — Финальный ответ:**
Итог с учётом шага 2. 
Если совпадает с шагом 1 — напиши «решение не изменилось, рассуждение подтвердило».
Если изменился — объясни конкретно что именно переломило.

Плейсхолдеры: - {Вопрос или задача} — ваш вопрос целиком - {что именно анализировать} — критерии под вашу задачу: "риски, стоимость, сроки" / "плюсы и минусы, альтернативы" / "аргументы за и против"


🚀 Быстрый старт — вставь в чат:

Вот шаблон Pre-commit prompting. 
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM уточнит что именно анализировать на шаге 2 — потому что критерии анализа зависят от типа задачи (решение, оценка текста, сравнение вариантов). Она возьмёт структуру из шаблона и подставит нужные параметры.


⚠️

Ограничения

⚠️ Для задач с единственным «известным» ответом: техника наименее ценна. Если спрашиваешь «чему равно 2+2» — совпадение шагов 1 и 3 ничего не говорит, там нет «решения через рассуждение». Используй для сложных, неоднозначных, многофакторных вопросов.

⚠️ Не гарантия качества ответа: если шаг 1 и шаг 3 совпали — это не значит, что ответ неверный. Это значит, что рассуждение не проверяло, а обосновывало. Ответ может быть верным. Просто относись к нему с бо́льшим скептицизмом.

⚠️ Модели с «расширенным мышлением» (o3, Gemini Thinking): исследование проводилось на Qwen3. Для моделей с отдельным блоком результаты могут отличаться — там архитектурно больше реального многошагового перебора. Но базовый принцип постфактумного объяснения применим шире.

⚠️ Техника forced answer completion в оригинале — требует API. В чате вы получаете только «симуляцию» через промптинг, а не точный замер траектории ответов. Это ослабляет диагностическую точность, но сохраняет практическую ценность.


🔍

Как исследовали

Команда взяла модели Qwen3 (4B, 8B, 30B) и хитро вклинивалась в процесс рассуждения: после каждого предложения в цепочке мыслей они принудительно закрывали блок и спрашивали — «какой твой ответ прямо сейчас?». Это работало как «стоп-кадр» — они видели не только финальный ответ, но всю траекторию изменений. Тестировали на четырёх типах задач: множественный выбор (MCQ), числовые ответы (математика), поисковые запросы и выбор инструментов в агентных системах.

Самая неожиданная находка: для задач с выбором инструментов модель почти никогда не меняла своё решение — с первого шага рассуждения ответ стабилен в \~98% случаев. Весь последующий текст рассуждения — чистое оформление уже готового выбора. Для математических задач — другая картина: там переключений больше (~7 переключений на задачу), что говорит о более реальном поиске пути.

Интрига в деталях: исследователи обнаружили «транзиентные флипы» — короткие колебания ответа, которые быстро возвращаются обратно. Модель на секунду «сомневается» (C→B→C), но это не настоящее сомнение, а шум токен-уровня. После фильтрации этого шума картина становится ещё резче: ответ стабилизируется ещё раньше, и доля «декоративных» токенов после решения вырастает до 50-70%.

Ключевой вывод для практики: длина рассуждения — плохой прокси качества. Больше токенов = более уверенный ответ — это иллюзия, которую исследование разрушает данными.


💡

Адаптации и экстраполяции

📌

💡 Адаптация: Обнаружение «слабых мест» в аргументации

Если хочешь проверить, насколько аргументация модели реальна, а не декоративна — используй «атаку на первый ответ»:

{Вопрос}

Шаг 1: Дай мгновенный ответ одним предложением. 
Без объяснений.

Шаг 2: Теперь предположи, что ты ошибся. 
Какой самый сильный аргумент ПРОТИВ твоего ответа из шага 1?

Шаг 3: С учётом этого аргумента — 
меняется ли твой ответ или остаётся прежним? Почему?

Если на шаге 3 модель легко находит причину «всё равно остаться при своём» — это признак того, что рассуждение работает как защитник уже принятого решения, а не как реальная проверка.


📌

🔧 Техника: «Слепое голосование» для важных решений

Если решение критически важно — спроси несколько раз в разных сессиях (разных чатах), только шаг 1 без рассуждений. Сравни ответы.

Отвечай ТОЛЬКО одним словом или одной фразой. 
Никаких объяснений. Никакого анализа.

{Вопрос}

Запусти это 3-5 раз в разных чатах. Если ответы расходятся — задача неоднозначная, стоит разобраться детально. Если совпадают — высокая вероятность, что это «уверенная» зона модели, где рассуждение только подтвердит.


🔗

Ресурсы

Статья: «Large Language Models Decide Early and Explain Later»

Авторы: Ayan Datta, Zhixue Zhao, Bhuvanesh Verma, Radhika Mamidi, Mounika Marreddy, Alexander Mehler

Организации: IIIT Hyderabad, University of Sheffield, Goethe University Frankfurt am Main

Статус: Препринт, апрель 2026 (подготовлен для ICML 2026)

Смежные работы из исследования: Chain-of-Thought prompting (Wei et al., 2022), критика достоверности CoT (Wan et al., 2024), эффективность рассуждений (Zhou et al., 2023)


📋 Дайджест исследования

Ключевая суть

Длинное рассуждение модели — не признак того, что она думала. В 68% запросов ответ не меняется ни разу с первого до последнего шага — модель «знает» с самого начала и строит убедительную историю вокруг уже принятого решения. Техника предварительной фиксации позволяет это поймать: вынуждает модель показать ответ до анализа, а потом сравнить с ответом после. Фишка: если шаг 1 и шаг 3 совпали — рассуждение не работало, оно обосновывало. Это не значит что ответ неверный — но это значит что рассуждение его не проверяло.

Принцип работы

Модель генерирует токены по вероятности. Когда задача похожа на что-то из обучающих данных, ответ «активируется» почти мгновенно — до первого слова рассуждения. Примерно половина всех токенов цепочки рассуждений появляется уже после того как решение принято. Рассуждение — это не путь к ответу, а история вокруг уже зафиксированного вывода. Предварительная фиксация ломает эту иллюзию: вынуждает модель показать «ответ из интуиции» до того, как она начала его обосновывать — и делает заднее обоснование видимым.

Почему работает

Модель отлично строит связный, убедительный текст. Именно поэтому постфактумное объяснение выглядит как настоящий процесс думания — читаешь и думаешь: 'вот, взвесила все за и против'. На деле она взвесила один раз, в самом начале, и дальше генерировала нарратив. Ключевой инсайт: изменение ответа после рассуждения — единственный надёжный маркер того, что анализ был настоящим, а не декоративным. Если шаг 3 отличается от шага 1 — в рассуждении была реальная новая информация, которая переломила вывод. Если совпал — рассуждение его подтвердило, но не проверяло.

Когда применять

Неоднозначные, многофакторные решения: выбор между вариантами, оценка рисков, стратегические вопросы — всё, где нет единственно правильного ответа. Особенно ценно когда нужно не просто получить ответ, а понять насколько ему доверять. НЕ подходит для: математических задач и фактических вопросов с известным ответом — там совпадение шагов 1 и 3 ничего не диагностирует. Также стоит помнить: совпадение шагов не означает что ответ неверный — просто рассуждение его не проверяло, только оформляло.

Мини-рецепт

1. Задай вопрос в три шага: мгновенный ответ (один-два предложения, без обоснований) → полный анализ по твоим критериям → финальный ответ с обязательным маркером — совпал с шагом 1 или изменился.
2. Читай разрыв, а не рассуждение: если шаг 1 и шаг 3 совпали — рассуждение было оформлением. Если нет — ищи конкретный момент в шаге 2, который переломил вывод. Это и есть настоящая новая информация.
3. Усиль диагностику при необходимости: добавь в шаг 1 уверенность по шкале 1–10, а в конец шага 2 — конкурирующую гипотезу: 'теперь предположи что ты ошибся в шаге 1 — что именно меняется?' Это форсирует настоящую проверку, а не обоснование.

Примеры

[ПЛОХО] : Москва или Казань лучше для открытия кофейни с бюджетом 3 млн рублей?
[ХОРОШО] : Рассматриваю открытие кофейни в Москве или Казани, бюджет 3 млн рублей. Шаг 1 — Мгновенный ответ: один город, одно предложение, никаких объяснений. Шаг 2 — Анализ: аренда, уровень конкуренции, аудитория, примерная точка окупаемости для каждого города. Шаг 3 — Финальный ответ: если совпадает с шагом 1 — напиши 'решение не изменилось, рассуждение подтвердило'. Если изменился — объясни конкретно что именно переломило. Что это даёт: видишь интуицию модели до анализа — и узнаёшь, был ли анализ настоящим или просто хорошо звучащим послесловием.
Источник: Large Language Models Decide Early and Explain Later
ArXiv ID: 2604.22266 | Сгенерировано: 2026-04-27 05:26

Проблемы LLM

ПроблемаСутьКак обойти
Нельзя отличить реальное рассуждение от декоративногоМодель генерирует убедительный текст "как она думала". Но часто ответ уже выбран на первых токенах. Дальнейшее рассуждение оформляет готовый вывод — не проверяет его. Снаружи оба случая выглядят одинаково. Ты читаешь объяснение и думаешь: "модель взвесила все". На деле — обосновала уже принятоеЗафиксируй ответ до рассуждения. Попроси: сначала один ответ без объяснений, потом анализ, потом финал. Если шаг 1 и финал совпали — рассуждение было оформлением. Если финал изменился — рассуждение реально повлияло

Методы

МетодСуть
Предварительная фиксация — проверка на реальность рассужденияСтруктурируй запрос в три шага. Шаг 1: "Дай один ответ одним предложением. Никаких объяснений." Шаг 2: полный анализ с нужными тебе критериями. Шаг 3: финальный ответ — если совпадает с шагом 1, напиши "решение не изменилось"; если изменился — объясни что именно переломило. Почему работает: ты разрываешь слияние ответа и его обоснования. Видишь оба отдельно. Совпадение — сигнал что анализ был декоративным. Расхождение — сигнал что анализ нашёл что-то реальное. Работает: сложные, многофакторные, неоднозначные задачи. Не работает: простые вопросы с одним очевидным ответом — там нечего проверять
📖 Простыми словами

LargeLanguageModelsDecide Early and Explain Later

arXiv: 2604.22266

LLM не думают так, как мы привыкли считать — они сначала «выплевывают» решение внутри себя, а потом просто подгоняют под него красивую историю. Исследование показало, что в 68% случаев ответ модели не меняется ни на йоту за все время ее долгих рассуждений. Это значит, что нейронка уже в первом токене «знает», что ответит в конце, а вся эта цепочка мыслей (CoT) — лишь декорация, чтобы ты поверил в ее логику.

Это как если бы ты спросил упертого друга, стоит ли покупать старую BMW, а он, уже решив, что это круто, начал бы на ходу придумывать аргументы про «немецкое качество» и «инвестицию в классику». Формально он рассуждает, но на деле он просто оправдывает свой импульсивный выбор. Модель работает так же: она активирует статистический паттерн из обучающих данных мгновенно, а потом строит вокруг него логичный забор из слов.

Главный прикол здесь в том, что длинные рассуждения — это часто нарратив-оправдание, а не реальный поиск истины. Если задача хоть немного похожа на то, что модель видела раньше, она не «решает» ее в процессе, а просто воспроизводит готовый ответ. Исследователи называют это ранним принятием решения: модель фиксирует результат еще до того, как напечатает первое слово своего «умного» объяснения.

Этот принцип универсален и касается не только математики или кода, но и любых советов — от выбора города для бизнеса до анализа текстов. Тестировали это на сложных логических задачах, но механика работает везде, где есть вероятностная генерация. По сути, мы имеем дело с иллюзией размышления: чем больше модель пишет «давайте подумаем пошагово», тем больше шансов, что она просто заговаривает тебе зубы, уже имея готовый (и не всегда верный) вердикт в кармане.

Короче, не ведись на длинные простыни текста от нейронки — это не гарантия глубокого анализа. Если хочешь проверить модель на вшивость, используй предварительную фиксацию: заставляй ее сначала выдать короткий ответ, а потом уже аргументировать. Иначе ты рискуешь получить мастерски написанную сказку, которая просто звучит логично, но скрывает под собой обычную статистическую галлюцинацию или лень.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с