TL;DR
Когда модель думает вслух — она часто уже знает ответ. Исследование показало: в 68% запросов ответ не меняется ни разу за всё время рассуждений. Модель сразу «знает» правильный ответ и просто объясняет его постфактум. Длинная «цепочка мыслей» — не всегда реальное мышление. Часто это нарратив-оправдание уже принятого решения.
Главная неудобная находка: ~50% токенов рассуждения генерируется уже после того, как модель «решила». Если вы думаете, что чем длиннее думает модель — тем надёжнее ответ, это не всегда так. Длинное объяснение ≠ качественный ответ. Модель может долго и убедительно обосновывать уже принятое решение — и ни один токен этого обоснования не влияет на финальный вывод.
Исследователи разработали технику forced answer completion — принудительно «останавливали» модель на каждом шаге рассуждения и спрашивали: «какой твой ответ сейчас?». Так они получили траекторию ответов — карту того, как менялся ответ шаг за шагом. Оказалось: почти всегда ответ стабилизируется задолго до конца рассуждений.
Схема метода
Это исследование-находка, а не техника со шагами. Но из него вырастает практический приём — «Предварительная фиксация» (Pre-commit prompting):
ШАБЛОН В ЧАТЕ:
ШАГ 1: Мгновенный ответ → одно предложение без рассуждений
ШАГ 2: Полное рассуждение → развёрнутый анализ
ШАГ 3: Финальный ответ → с учётом рассуждений.
Если изменился — объясни почему.
Оба шага в одном сообщении.
Если ответ на шаге 1 и шаге 3 совпадают — рассуждение было декоративным. Если изменился — рассуждение реально повлияло на вывод.
Пример применения
Задача: Вы думаете открыть кофейню в Москве. Хотите понять, стоит ли рассматривать Казань как альтернативу. Спрашиваете у Claude.
Промпт:
Я хочу открыть кофейню specialty-формата с бюджетом 3 млн рублей.
Рассматриваю Москву и Казань.
Сделай в три шага:
Шаг 1 — Мгновенный ответ:
Один город одним предложением. Без обоснований.
Шаг 2 — Анализ:
Аренда, конкуренция, аудитория, точка окупаемости.
По каждому пункту коротко.
Шаг 3 — Финальный ответ:
Если совпадает с шагом 1 — напиши «решение не изменилось».
Если изменился — объясни что именно переломило.
Результат: Вы увидите мгновенный ответ (интуиция модели), затем полный анализ, затем финал. Если шаг 1 и шаг 3 совпадут — вы будете знать: рассуждение просто оформило уже готовый вывод. Если шаг 3 изменился — значит, в анализе была реальная новая информация, которая повлияла на решение. Это помогает отделить реальное рассуждение от убедительного нарратива.
Почему это работает
У LLM нет «мышления» в человеческом смысле — она генерирует токены по вероятности. Когда задача «похожа» на что-то в обучающих данных, модель часто активирует паттерн ответа сразу — ещё до первого слова рассуждения. Рассуждение в этом случае генерируется как логичный нарратив вокруг уже выбранного ответа, а не как путь к нему.
LLM очень хорошо умеет строить связный, убедительный текст. Именно поэтому постфактумное объяснение выглядит как настоящий процесс думания. Вы читаете рассуждение и думаете: «да, модель реально взвесила все за и против». На деле — она уже «знала» ответ и сгенерировала убедительное обоснование.
Техника «предварительной фиксации» работает как лакмусовая бумажка: если первый и финальный ответ совпадают после полного анализа — вы получаете сигнал, что анализ декоративный. Это не значит, что ответ неверный — но это значит, что доверять ему нужно с поправкой на то, что рассуждение не работало как «проверка».
Рычаги управления: - Сократи шаг 2 → дешевле по токенам, быстрее, достаточно для простых задач - Добавь "насколько уверен в шаге 1 по шкале 1-10" → получишь калибровку уверенности модели до рассуждения - Добавь конкурирующую гипотезу → "а теперь предположи, что ты ошибся в шаге 1 — что это меняет?" → форсируешь настоящую проверку
Шаблон промпта
{Вопрос или задача}
Ответь в три шага:
**Шаг 1 — Мгновенный ответ:**
Один чёткий ответ одним предложением. Никаких объяснений.
Что первое приходит в голову?
**Шаг 2 — Полный анализ:**
Разбери задачу по существу: {что именно анализировать —
критерии, факторы, риски}.
**Шаг 3 — Финальный ответ:**
Итог с учётом шага 2.
Если совпадает с шагом 1 — напиши «решение не изменилось, рассуждение подтвердило».
Если изменился — объясни конкретно что именно переломило.
Плейсхолдеры:
- {Вопрос или задача} — ваш вопрос целиком
- {что именно анализировать} — критерии под вашу задачу: "риски, стоимость, сроки" / "плюсы и минусы, альтернативы" / "аргументы за и против"
🚀 Быстрый старт — вставь в чат:
Вот шаблон Pre-commit prompting.
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM уточнит что именно анализировать на шаге 2 — потому что критерии анализа зависят от типа задачи (решение, оценка текста, сравнение вариантов). Она возьмёт структуру из шаблона и подставит нужные параметры.
Ограничения
⚠️ Для задач с единственным «известным» ответом: техника наименее ценна. Если спрашиваешь «чему равно 2+2» — совпадение шагов 1 и 3 ничего не говорит, там нет «решения через рассуждение». Используй для сложных, неоднозначных, многофакторных вопросов.
⚠️ Не гарантия качества ответа: если шаг 1 и шаг 3 совпали — это не значит, что ответ неверный. Это значит, что рассуждение не проверяло, а обосновывало. Ответ может быть верным. Просто относись к нему с бо́льшим скептицизмом.
⚠️ Модели с «расширенным мышлением» (o3, Gemini Thinking): исследование проводилось на Qwen3. Для моделей с отдельным блоком
результаты могут отличаться — там архитектурно больше реального многошагового перебора. Но базовый принцип постфактумного объяснения применим шире.
⚠️ Техника forced answer completion в оригинале — требует API. В чате вы получаете только «симуляцию» через промптинг, а не точный замер траектории ответов. Это ослабляет диагностическую точность, но сохраняет практическую ценность.
Как исследовали
Команда взяла модели Qwen3 (4B, 8B, 30B) и хитро вклинивалась в процесс рассуждения: после каждого предложения в цепочке мыслей они принудительно закрывали блок и спрашивали — «какой твой ответ прямо сейчас?». Это работало как «стоп-кадр» — они видели не только финальный ответ, но всю траекторию изменений. Тестировали на четырёх типах задач: множественный выбор (MCQ), числовые ответы (математика), поисковые запросы и выбор инструментов в агентных системах.
Самая неожиданная находка: для задач с выбором инструментов модель почти никогда не меняла своё решение — с первого шага рассуждения ответ стабилен в \~98% случаев. Весь последующий текст рассуждения — чистое оформление уже готового выбора. Для математических задач — другая картина: там переключений больше (~7 переключений на задачу), что говорит о более реальном поиске пути.
Интрига в деталях: исследователи обнаружили «транзиентные флипы» — короткие колебания ответа, которые быстро возвращаются обратно. Модель на секунду «сомневается» (C→B→C), но это не настоящее сомнение, а шум токен-уровня. После фильтрации этого шума картина становится ещё резче: ответ стабилизируется ещё раньше, и доля «декоративных» токенов после решения вырастает до 50-70%.
Ключевой вывод для практики: длина рассуждения — плохой прокси качества. Больше токенов = более уверенный ответ — это иллюзия, которую исследование разрушает данными.
Адаптации и экстраполяции
💡 Адаптация: Обнаружение «слабых мест» в аргументации
Если хочешь проверить, насколько аргументация модели реальна, а не декоративна — используй «атаку на первый ответ»:
{Вопрос}
Шаг 1: Дай мгновенный ответ одним предложением.
Без объяснений.
Шаг 2: Теперь предположи, что ты ошибся.
Какой самый сильный аргумент ПРОТИВ твоего ответа из шага 1?
Шаг 3: С учётом этого аргумента —
меняется ли твой ответ или остаётся прежним? Почему?
Если на шаге 3 модель легко находит причину «всё равно остаться при своём» — это признак того, что рассуждение работает как защитник уже принятого решения, а не как реальная проверка.
🔧 Техника: «Слепое голосование» для важных решений
Если решение критически важно — спроси несколько раз в разных сессиях (разных чатах), только шаг 1 без рассуждений. Сравни ответы.
Отвечай ТОЛЬКО одним словом или одной фразой.
Никаких объяснений. Никакого анализа.
{Вопрос}
Запусти это 3-5 раз в разных чатах. Если ответы расходятся — задача неоднозначная, стоит разобраться детально. Если совпадают — высокая вероятность, что это «уверенная» зона модели, где рассуждение только подтвердит.
Ресурсы
Статья: «Large Language Models Decide Early and Explain Later»
Авторы: Ayan Datta, Zhixue Zhao, Bhuvanesh Verma, Radhika Mamidi, Mounika Marreddy, Alexander Mehler
Организации: IIIT Hyderabad, University of Sheffield, Goethe University Frankfurt am Main
Статус: Препринт, апрель 2026 (подготовлен для ICML 2026)
Смежные работы из исследования: Chain-of-Thought prompting (Wei et al., 2022), критика достоверности CoT (Wan et al., 2024), эффективность рассуждений (Zhou et al., 2023)
