TL;DR
Post-Reasoning — техника, которая меняет порядок вывода: модель сначала даёт ответ, потом его обосновывает. Добавляется одной фразой в конец любого промпта: "Сначала дай итоговый ответ, затем обоснуй его."
Обычно LLM отвечает по принципу "сначала думаю, потом говорю" — это Chain-of-Thought, где рассуждения предшествуют ответу. Но исследование показало, что само ожидание будущего обоснования меняет то, как модель генерирует ответ. Она как будто "знает", что потом придётся объяснять — и это делает первый же токен точнее.
Работает почти во всех случаях: в 88% из 117 протестированных комбинаций моделей и задач качество выросло. Особенно сильный эффект — на задачах с многошаговым рассуждением: математика олимпийского уровня, анализ, логика. На простых задачах — эффект есть, но скромный.
Схема метода
Один промпт, один запрос:
ТВОЙ ВОПРОС/ЗАДАЧА
+ "Сначала дай итоговый ответ, затем обоснуй его."
→ Ответ: [финальный вывод]
→ Обоснование: [рассуждение после ответа]
Рассуждение идёт после ответа — поэтому ты получаешь результат сразу, без ожидания "думалки". Обоснование читаешь при желании.
Пример применения
Задача: Ты готовишься к встрече с инвестором. Нужно быстро понять — идти ли на встречу с Артёмом Азевичем из Фонда Рунет-Инвестиции, если он специализируется на e-commerce, а у тебя b2b SaaS для HR-команд.
Промпт:
Я основатель b2b SaaS-продукта для HR-автоматизации
(онбординг, адаптация сотрудников). Средний чек — 400 000 ₽/год,
клиенты — компании от 200 человек. Мне предлагают встречу с
инвестором, который специализируется на e-commerce стартапах
и маркетплейсах. Стоит ли соглашаться?
Сначала дай итоговый ответ: да или нет. Затем обоснуй.
Результат: Модель выдаст чёткое "Да" или "Нет" первой строкой — без вводных "с одной стороны... с другой стороны...". Потом развернёт аргументы: почему это решение обосновано, какие риски и возможности учтены. Ты сразу видишь вывод, а рассуждение уже держит его.
Почему это работает
Слабость LLM в стандартном режиме: модель генерирует текст токен за токеном и как бы "плывёт" к ответу — без чёткого обязательства перед финальным выводом. Когда нет явной инструкции "скажи вывод", она может виться вокруг темы и прийти к слабому или размытому заключению.
Сильная сторона LLM: модель хорошо следует структурным инструкциям. Когда в промпте есть явный порядок ("сначала X, потом Y"), она его соблюдает. Инструкция как отвечать влияет на содержание ответа — даже до того, как начала генерировать рассуждение.
Механика метода: фраза "сначала ответ, потом обоснование" создаёт скрытое обязательство. Модель генерирует финальный вывод, уже "зная", что за ним последует объяснение. Это меняет распределение вероятностей для первого же токена ответа — делает его точнее. Как у хорошего спикера: если он знает, что его попросят объяснить логику, он формулирует тезис чище.
Рычаги управления: - Добавь "в одном предложении" после инструкции ответа → принудит к краткости, уберёт расплывчатость - Убери требование обоснования → вернёшься к стандартному режиму, но инсайт уже применён - Добавь "обоснуй пошагово" вместо просто "обоснуй" → получишь структурированное объяснение как бонус - Задай формат ответа ("да/нет", "рекомендую/не рекомендую") → делает обязательство ещё жёстче
Шаблон промпта
{Вопрос или задача}
Сначала дай итоговый ответ: {формат ответа — одно предложение /
да или нет / рекомендация}. Затем обоснуй его.
Что подставлять:
- {Вопрос или задача} — любой запрос, где нужен чёткий вывод
- {формат ответа} — задай желаемый формат финального ответа: "одно предложение", "да или нет", "оценка 1-10"
Варианты фраз под разные задачи:
→ Для анализа:
"Сначала сформулируй итоговый вывод одним предложением.
Затем объясни логику."
→ Для решения:
"Сначала дай рекомендацию: что делать.
Потом — почему именно это."
→ Для оценки текста:
"Сначала выреши: текст работает или нет.
Затем разбери конкретные причины."
🚀 Быстрый старт — вставь в чат:
Вот шаблон Post-Reasoning. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
{Вопрос или задача}
Сначала дай итоговый ответ: {формат ответа — одно предложение /
да или нет / рекомендация}. Затем обоснуй его.
LLM спросит какой формат ответа тебе нужен и что конкретно анализировать — потому что без этого она не сможет задать правильную структуру "ответ → обоснование" под твой контекст. Она возьмёт паттерн из шаблона и адаптирует под задачу.
Ограничения
⚠️ Простые задачи: На вопросах, где LLM и так отвечает хорошо (простая арифметика, фактология с очевидным ответом), эффект минимален — улучшение почти нулевое или отсутствует.
⚠️ Непоследовательность: У части моделей и задач результат ухудшался (12% случаев). Особенно заметно на некоторых задачах AMC 12 для отдельных моделей. Техника не универсальна — но в большинстве случаев работает.
⚠️ Сложные задачи требуют большего: На олимпийской математике промпт-метод даёт хороший прирост, но дообучение модели на этом принципе даёт ещё сильнее. Промпт-версия — это потолок без финального обучения, а не финальное решение.
⚠️ Знаниевые задачи — меньший эффект: Если задача требует не рассуждения, а просто фактического знания — прирост меньше, чем на задачах с многошаговой логикой.
Как исследовали
Исследователи из Nanyang Technological University взяли 13 моделей — от маленьких 4B до большого 70B, включая открытые (Llama, Gemma, Mistral, Qwen) и коммерческие (GPT-5.4-Mini, Claude Haiku, Gemini Flash) — и просто добавили одну инструкцию к каждому запросу: "ответь сначала, потом обоснуй". Сравнивали с прямым ответом без какого-либо промпт-инжиниринга.
Интересно, что самый большой прирост оказался именно у маленьких моделей — там, где базовое качество ниже. Маленькая модель с post-reasoning часто обгоняет саму себя без неё на 30–140%. Логика понятна: слабой модели подсказка о структуре вывода помогает больше — у неё меньше "запаса прочности" для самостоятельного выстраивания ответа.
Настоящий сюрприз — самодистилляция оказалась лучше дистилляции от экспертной модели. Когда модель обучали на своих же объяснениях (а не на объяснениях GPT-4), она показывала лучшие результаты. Причина — объяснения совпадают с её "внутренним языком", нет конфликта стилей. Это важный принцип: объяснения в чужом стиле могут мешать, а не помогать.
Оригинал из исследования
Prompt-based Post-Reasoning instruction (из Appendix A.6):
"What is 10 + 2? State the final answer immediately
and justify your answer."
General instruction augmentation (δp):
"State the final result first, then justify."
Контекст: Авторы использовали эту формулу как базовый prompt-шаблон для всех тестов. Именно это минимальное добавление дало прирост в 88%+ случаев.
Адаптации и экстраполяции
💡 Адаптация для работы с текстом
Тот же принцип полезен при редактуре и оценке контента — когда нужна не "мягкая критика", а чёткий вердикт.
Вот мой пост для Telegram-канала:
{текст поста}
Сначала дай вердикт: этот пост стоит публиковать как есть —
да или нет. Одним словом.
Затем объясни конкретные причины.
Модель не размоет ответ рассуждениями — ты увидишь чёткую позицию, а потом разбор.
🔧 Техника: добавь условие к формату ответа → жёстче обязательство
Вместо просто "сначала ответ" добавь конкретный формат:
❌ Слабо:
"Дай ответ, затем объясни."
✅ Сильнее:
"Сначала — одно предложение с итоговым выводом, начинающееся
с 'Рекомендую' или 'Не рекомендую'. Затем — обоснование."
Чем конкретнее формат первого ответа, тем меньше модели "разбегаются" и тем точнее финальный вывод.
🔧 Техника: Post-Reasoning + Chain-of-Thought для сложных задач
Авторы исследовали метод как альтернативу CoT, но принципы можно совместить. Для особенно сложных задач — сначала думай, потом снова структурируй вывод:
{Сложный вопрос}
Шаг 1: Разбери задачу по шагам.
Шаг 2: На основе разбора — сформулируй итоговый ответ
одним предложением.
Шаг 3: Обоснуй, почему именно этот вывод следует из шагов выше.
Это уже не чистый Post-Reasoning, но та же идея: явный вывод перед обоснованием убирает размытость.
Ресурсы
Работа: Post Reasoning: Improving the Performance of Non-Thinking Models at No Cost (2025)
Авторы: Richmond Sin Jing Xuan, Rishabh Bhardwaj, Soujanya Poria — Nanyang Technological University, Сингапур
Контакт: e250239@e.ntu.edu.sg, soujanya.poria@ntu.edu.sg, rishabh.bhardwaj@ntu.edu.sg
