3,583 papers
arXiv:2605.06165 91 7 мая 2026 г. FREE

Post-Reasoning: ответ сначала, обоснование потом — бесплатный способ улучшить качество LLM

КЛЮЧЕВАЯ СУТЬ
Одна фраза в конце любого промпта — и модель перестаёт «плыть» к ответу. Метод Post-Reasoning позволяет получать конкретный вывод сразу, без типичного вступления «это зависит от контекста, но с одной стороны...». Фишка: добавь «Сначала дай итоговый ответ, затем обоснуй» — и модель, зная что потом придётся объяснять, формулирует первый же токен точнее. Работает в 88% из 117 протестированных комбинаций моделей и задач — бесплатно, без дообучения, одной строкой.
Адаптировать под запрос

TL;DR

Post-Reasoning — техника, которая меняет порядок вывода: модель сначала даёт ответ, потом его обосновывает. Добавляется одной фразой в конец любого промпта: "Сначала дай итоговый ответ, затем обоснуй его."

Обычно LLM отвечает по принципу "сначала думаю, потом говорю" — это Chain-of-Thought, где рассуждения предшествуют ответу. Но исследование показало, что само ожидание будущего обоснования меняет то, как модель генерирует ответ. Она как будто "знает", что потом придётся объяснять — и это делает первый же токен точнее.

Работает почти во всех случаях: в 88% из 117 протестированных комбинаций моделей и задач качество выросло. Особенно сильный эффект — на задачах с многошаговым рассуждением: математика олимпийского уровня, анализ, логика. На простых задачах — эффект есть, но скромный.


🔬

Схема метода

Один промпт, один запрос:

ТВОЙ ВОПРОС/ЗАДАЧА
+ "Сначала дай итоговый ответ, затем обоснуй его."

→ Ответ: [финальный вывод]
→ Обоснование: [рассуждение после ответа]

Рассуждение идёт после ответа — поэтому ты получаешь результат сразу, без ожидания "думалки". Обоснование читаешь при желании.


🚀

Пример применения

Задача: Ты готовишься к встрече с инвестором. Нужно быстро понять — идти ли на встречу с Артёмом Азевичем из Фонда Рунет-Инвестиции, если он специализируется на e-commerce, а у тебя b2b SaaS для HR-команд.

Промпт:

Я основатель b2b SaaS-продукта для HR-автоматизации 
(онбординг, адаптация сотрудников). Средний чек — 400 000 ₽/год, 
клиенты — компании от 200 человек. Мне предлагают встречу с 
инвестором, который специализируется на e-commerce стартапах 
и маркетплейсах. Стоит ли соглашаться?

Сначала дай итоговый ответ: да или нет. Затем обоснуй.

Результат: Модель выдаст чёткое "Да" или "Нет" первой строкой — без вводных "с одной стороны... с другой стороны...". Потом развернёт аргументы: почему это решение обосновано, какие риски и возможности учтены. Ты сразу видишь вывод, а рассуждение уже держит его.


🧠

Почему это работает

Слабость LLM в стандартном режиме: модель генерирует текст токен за токеном и как бы "плывёт" к ответу — без чёткого обязательства перед финальным выводом. Когда нет явной инструкции "скажи вывод", она может виться вокруг темы и прийти к слабому или размытому заключению.

Сильная сторона LLM: модель хорошо следует структурным инструкциям. Когда в промпте есть явный порядок ("сначала X, потом Y"), она его соблюдает. Инструкция как отвечать влияет на содержание ответа — даже до того, как начала генерировать рассуждение.

Механика метода: фраза "сначала ответ, потом обоснование" создаёт скрытое обязательство. Модель генерирует финальный вывод, уже "зная", что за ним последует объяснение. Это меняет распределение вероятностей для первого же токена ответа — делает его точнее. Как у хорошего спикера: если он знает, что его попросят объяснить логику, он формулирует тезис чище.

Рычаги управления: - Добавь "в одном предложении" после инструкции ответа → принудит к краткости, уберёт расплывчатость - Убери требование обоснования → вернёшься к стандартному режиму, но инсайт уже применён - Добавь "обоснуй пошагово" вместо просто "обоснуй" → получишь структурированное объяснение как бонус - Задай формат ответа ("да/нет", "рекомендую/не рекомендую") → делает обязательство ещё жёстче


📋

Шаблон промпта

{Вопрос или задача}

Сначала дай итоговый ответ: {формат ответа — одно предложение / 
да или нет / рекомендация}. Затем обоснуй его.

Что подставлять: - {Вопрос или задача} — любой запрос, где нужен чёткий вывод - {формат ответа} — задай желаемый формат финального ответа: "одно предложение", "да или нет", "оценка 1-10"

Варианты фраз под разные задачи:

→ Для анализа:
"Сначала сформулируй итоговый вывод одним предложением. 
Затем объясни логику."

→ Для решения:
"Сначала дай рекомендацию: что делать. 
Потом — почему именно это."

→ Для оценки текста:
"Сначала выреши: текст работает или нет. 
Затем разбери конкретные причины."

🚀 Быстрый старт — вставь в чат:

Вот шаблон Post-Reasoning. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

{Вопрос или задача}

Сначала дай итоговый ответ: {формат ответа — одно предложение / 
да или нет / рекомендация}. Затем обоснуй его.

LLM спросит какой формат ответа тебе нужен и что конкретно анализировать — потому что без этого она не сможет задать правильную структуру "ответ → обоснование" под твой контекст. Она возьмёт паттерн из шаблона и адаптирует под задачу.


⚠️

Ограничения

⚠️ Простые задачи: На вопросах, где LLM и так отвечает хорошо (простая арифметика, фактология с очевидным ответом), эффект минимален — улучшение почти нулевое или отсутствует.

⚠️ Непоследовательность: У части моделей и задач результат ухудшался (12% случаев). Особенно заметно на некоторых задачах AMC 12 для отдельных моделей. Техника не универсальна — но в большинстве случаев работает.

⚠️ Сложные задачи требуют большего: На олимпийской математике промпт-метод даёт хороший прирост, но дообучение модели на этом принципе даёт ещё сильнее. Промпт-версия — это потолок без финального обучения, а не финальное решение.

⚠️ Знаниевые задачи — меньший эффект: Если задача требует не рассуждения, а просто фактического знания — прирост меньше, чем на задачах с многошаговой логикой.


🔍

Как исследовали

Исследователи из Nanyang Technological University взяли 13 моделей — от маленьких 4B до большого 70B, включая открытые (Llama, Gemma, Mistral, Qwen) и коммерческие (GPT-5.4-Mini, Claude Haiku, Gemini Flash) — и просто добавили одну инструкцию к каждому запросу: "ответь сначала, потом обоснуй". Сравнивали с прямым ответом без какого-либо промпт-инжиниринга.

Интересно, что самый большой прирост оказался именно у маленьких моделей — там, где базовое качество ниже. Маленькая модель с post-reasoning часто обгоняет саму себя без неё на 30–140%. Логика понятна: слабой модели подсказка о структуре вывода помогает больше — у неё меньше "запаса прочности" для самостоятельного выстраивания ответа.

Настоящий сюрприз — самодистилляция оказалась лучше дистилляции от экспертной модели. Когда модель обучали на своих же объяснениях (а не на объяснениях GPT-4), она показывала лучшие результаты. Причина — объяснения совпадают с её "внутренним языком", нет конфликта стилей. Это важный принцип: объяснения в чужом стиле могут мешать, а не помогать.


📄

Оригинал из исследования

Prompt-based Post-Reasoning instruction (из Appendix A.6):

"What is 10 + 2? State the final answer immediately 
and justify your answer."

General instruction augmentation (δp):
"State the final result first, then justify."

Контекст: Авторы использовали эту формулу как базовый prompt-шаблон для всех тестов. Именно это минимальное добавление дало прирост в 88%+ случаев.


💡

Адаптации и экстраполяции

📌

💡 Адаптация для работы с текстом

Тот же принцип полезен при редактуре и оценке контента — когда нужна не "мягкая критика", а чёткий вердикт.

Вот мой пост для Telegram-канала:

{текст поста}

Сначала дай вердикт: этот пост стоит публиковать как есть — 
да или нет. Одним словом. 
Затем объясни конкретные причины.

Модель не размоет ответ рассуждениями — ты увидишь чёткую позицию, а потом разбор.


📌

🔧 Техника: добавь условие к формату ответа → жёстче обязательство

Вместо просто "сначала ответ" добавь конкретный формат:

❌ Слабо:
"Дай ответ, затем объясни."

✅ Сильнее:
"Сначала — одно предложение с итоговым выводом, начинающееся 
с 'Рекомендую' или 'Не рекомендую'. Затем — обоснование."

Чем конкретнее формат первого ответа, тем меньше модели "разбегаются" и тем точнее финальный вывод.


📌

🔧 Техника: Post-Reasoning + Chain-of-Thought для сложных задач

Авторы исследовали метод как альтернативу CoT, но принципы можно совместить. Для особенно сложных задач — сначала думай, потом снова структурируй вывод:

{Сложный вопрос}

Шаг 1: Разбери задачу по шагам.
Шаг 2: На основе разбора — сформулируй итоговый ответ 
одним предложением.
Шаг 3: Обоснуй, почему именно этот вывод следует из шагов выше.

Это уже не чистый Post-Reasoning, но та же идея: явный вывод перед обоснованием убирает размытость.


🔗

Ресурсы

Работа: Post Reasoning: Improving the Performance of Non-Thinking Models at No Cost (2025)

Авторы: Richmond Sin Jing Xuan, Rishabh Bhardwaj, Soujanya Poria — Nanyang Technological University, Сингапур

Контакт: e250239@e.ntu.edu.sg, soujanya.poria@ntu.edu.sg, rishabh.bhardwaj@ntu.edu.sg



📋 Дайджест исследования

Ключевая суть

Одна фраза в конце любого промпта — и модель перестаёт «плыть» к ответу. Метод Post-Reasoning позволяет получать конкретный вывод сразу, без типичного вступления «это зависит от контекста, но с одной стороны...». Фишка: добавь «Сначала дай итоговый ответ, затем обоснуй» — и модель, зная что потом придётся объяснять, формулирует первый же токен точнее. Работает в 88% из 117 протестированных комбинаций моделей и задач — бесплатно, без дообучения, одной строкой.

Принцип работы

В стандартном режиме модель генерирует текст последовательно — она буквально плывёт к ответу, не взяв на себя никакого обязательства. Обычный подход с пошаговыми рассуждениями (Chain-of-Thought) заставляет думать вслух перед ответом. Post-Reasoning переворачивает порядок: ответ первым, объяснение вторым. Само требование «дай вывод до объяснения» создаёт обязательство — это сдвигает вероятности первых токенов в сторону конкретных, точных формулировок. Как у хорошего докладчика: если знаешь что попросят объяснить логику — тезис формулируешь чище с самого начала.

Почему работает

Модель не знает заранее что напишет следующим токеном — она выбирает его из вероятностного распределения. Без явной инструкции на вывод она может вилять вокруг темы и прийти к размытому заключению. Инструкция «скажи ответ первым» меняет это распределение ещё до первого слова ответа. Парадокс: обоснование идёт после, но влияет на то что написано до него. На задачах с многошаговой логикой — математика, анализ, сравнение вариантов — эффект самый сильный. На простых фактологических вопросах — почти нулевой.

Когда применять

Анализ и решения → особенно когда нужен чёткий вывод, а не «рассуждение вокруг темы». Лучше всего работает на многошаговых задачах: сравнение вариантов, оценка рисков, логические задачи, разбор ситуации. НЕ подходит для простых вопросов с очевидным ответом — там эффект есть, но едва заметный.

Мини-рецепт

1. Сформулируй задачу: любой вопрос, где тебе нужен вывод, а не поток мыслей вслух.
2. Добавь одну строку в конец: Сначала дай итоговый ответ [формат]. Затем обоснуй его.
3. Укажи конкретный формат ответа — это ключевой момент. «Да или нет», «рекомендую / не рекомендую», «оценка от 1 до 10» — чем жёстче рамка, тем точнее первый ответ. Без формата модель может снова уйти в расплывчатость.
4. Хочешь структурированное объяснение? Добавь: Обоснуй пошагово. — получишь разбор аргументов в нагрузку.

Примеры

[ПЛОХО] : Стоит ли мне переходить в другую компанию на 20% выше зарплату? Модель начнёт: «Это зависит от множества факторов. С одной стороны, рост дохода важен...» — и ты утонешь в «сбалансированном» анализе без вывода.
[ХОРОШО] : Я работаю в стабильной компании три года. Роста нет, коллектив хороший. Получил оффер в стартап: продукт нравится, зарплата выше на 20%, но высокий риск. Сначала дай чёткую рекомендацию: переходить или остаться. Затем объясни почему. Первая строка ответа — конкретно «Переходить» или «Остаться». Потом аргументы. Ты сразу видишь вывод, а рассуждение его держит — не рассыпается.
Источник: Post Reasoning: Improving the Performance of Non-Thinking Models at No Cost
ArXiv ID: 2605.06165 | Сгенерировано: 2026-05-08 05:32

Проблемы LLM

ПроблемаСутьКак обойти
Модель "плывёт" к выводу без обязательстваГенерация идёт токен за токеном. Модель не берёт на себя обязательство перед финальным ответом заранее. Результат: вывод размытый, обтекаемый, с "одной стороны — с другой стороны". Особенно заметно на аналитических и многошаговых задачахДобавь в конец запроса: "Сначала дай итоговый ответ. Затем обоснуй его." Это создаёт обязательство до того, как начнётся объяснение

Методы

МетодСуть
Ответ перед обоснованием — чёткий вывод без правокВ конец любого запроса добавь: Сначала дай итоговый ответ: {формат}. Затем обоснуй его. Где {формат} — "да или нет", "одно предложение", "оценка 1—10". Почему работает: модель генерирует вывод, уже зная что за ним последует объяснение. Это меняет вероятности первого же токена ответа — он становится точнее. Когда применять: анализ, выбор из вариантов, оценка текста, многошаговые задачи. Когда не работает: простые фактологические вопросы с очевидным ответом — эффект близок к нулю
📖 Простыми словами

Post Reasoning: Improving the Performance of Non-ThinkingModelsat No Cost

arXiv: 2605.06165

Суть тут в том, как именно нейронки «думают». Обычная LLM — это просто очень продвинутый Т9, который предсказывает следующее слово. Когда ты просишь её что-то решить, она начинает рассуждать вслух и часто сама себя запутывает в процессе, подгоняя ответ под те глупости, которые успела написать в начале. Метод Post-Reasoning переворачивает всё с ног на голову: мы заставляем модель сначала выдать финальный вердикт, а уже потом объяснять, почему она так решила. Это заставляет её сразу целиться в результат, а не «плыть по течению» собственных слов.

Это как если бы ты спросил у опытного хирурга, нужна ли операция. Плохой врач начнет долго рассуждать о погоде и анализах, постепенно убеждая себя в любом случайном исходе. Метод Post-Reasoning — это когда врач сначала четко говорит: «Режем», а потом по пунктам раскладывает почему. Когда ответ уже озвучен, модели гораздо сложнее вилять и выдавать бессвязную кашу, потому что ей нужно обосновать конкретную позицию, а не просто генерировать текст ради текста.

Работает это элементарно: ты просто добавляешь в конец любого промпта фразу: «Сначала дай итоговый ответ, затем обоснуй его». Исследователи доказали, что такая простая перестановка заставляет модель работать точнее без всяких дообучений и сложных настроек. Например, если ты спросишь, стоит ли идти на встречу с инвестором, который не в твоем профиле, модель не будет мямлить про «с одной стороны, с другой стороны». Она сразу выдаст «Нет, это потеря времени», и только потом объяснит, что ваши фокусы не совпадают.

Хотя метод тестировали на логических задачах, принцип универсален. Это работает везде: от анализа юридических договоров до выбора стратегии маркетинга. Вместо того чтобы позволять нейронке галлюцинировать в процессе долгих рассуждений, ты ставишь её перед фактом. SEO-тексты, код, бизнес-аналитика — везде, где тебе нужен четкий результат, а не философское эссе, эта техника дает буст к качеству ответов буквально за ноль рублей.

Короче, хватит позволять нейронкам «думать вслух» перед тем, как они дадут ответ. Это бесплатно, это быстро и это исправляет главную проблему не-думающих моделей — их склонность к пустой болтовне. Просто требуй вердикт сразу. Если модель лажает в логике, ты увидишь это мгновенно, а если она права — получишь максимально сфокусированное обоснование без лишней воды.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с