3,583 papers
arXiv:2602.15863 84 26 янв. 2026 г. FREE

Integrated Prompting: сначала реши похожую задачу — потом свою

КЛЮЧЕВАЯ СУТЬ
Один и тот же пример — два разных результата. Вставишь его готовым — модель почти проигнорирует. Попросишь сгенерировать прямо в этом же промпте — точность растёт. Integrated Prompting позволяет глубже разбирать сложные задачи без готовых примеров и дообучения. Фишка: всё в одном запросе — модель сначала придумывает похожую задачу и решает её, потом берётся за вашу. Недавно созданное рассуждение лежит «рядом» в контексте. Модель опирается на него в 2–3 раза активнее, чем на чужой текст. Разогрев из собственного решения работает, скопированный пример — почти нет.
Адаптировать под запрос

TL;DR

Integrated Prompting — техника, где модель в одном промпте сначала сама придумывает задачу, похожую на вашу, решает её, а потом берётся за вашу. Не два отдельных запроса, не вставка готового примера — именно создание и решение примера в одном непрерывном потоке.

Раньше думали: модель работает лучше, когда видит пример перед задачей — как few-shot. Логично. Но исследование разбило эту логику: если взять тот же самый пример и вставить его отдельным контекстом (без процесса его создания), результат почти не отличается от нуля. Дело не в примере. Дело в том, что модель его сгенерировала сама, здесь и сейчас.

Причина в том, как модель распределяет внимание. При Integrated-подходе она активно обращается к своему только-что-созданному примеру, когда решает основную задачу. При Decoupled — игнорирует его и фокусируется на вопросе напрямую, как при zero-shot. Процесс создания примера — это разогрев перед основным решением.


🔬

Схема метода

Всё в ОДНОМ промпте:

ШАГ 1: Модель придумывает похожую задачу и решает её
        → видим рассуждения «в тему»

ШАГ 2: Модель сразу решает вашу задачу
        → использует разогретое мышление из шага 1

Оба шага — один запрос. Не копируйте пример в отдельный промпт. Это уже другой метод — и он не работает.


🚀

Пример применения

Задача: Инвестор Александр Румянцев слышит питч: «Мы хотим запустить сервис подписки на юридические шаблоны для ИП и малого бизнеса в России, 490 ₽/месяц». Нужно быстро оценить: есть ли у этой бизнес-модели структурные слабости, которые не бросаются в глаза.

Промпт:

Сначала разбери похожий кейс: сервис подписки на шаблоны HR-документов 
для малого бизнеса, 390 ₽/месяц. Какие структурные слабости есть у 
подобной бизнес-модели? Разбери пошагово: unit-экономика, отток, 
конкуренция, барьеры.

Теперь используй тот же подход и разбери мой кейс: сервис подписки 
на юридические шаблоны для ИП и малого бизнеса, 490 ₽/месяц. 
Что здесь может пойти не так?

Результат: Модель пройдёт два раунда анализа подряд. В первом — выстроит логику рассуждений про схожую бизнес-модель: отток, CAC, барьеры входа. Во втором — применит ту же структуру к вашему кейсу, но уже «разогретая», с готовыми категориями анализа. Ответ по вашей задаче будет структурированнее и глубже, чем если спросить напрямую.


🧠

Почему это работает

LLM не думает линейно — она генерирует токен за токеном, и каждый следующий токен зависит от всего предыдущего контекста. Когда в промпте есть только вопрос, модель идёт к ответу «по короткому пути».

Когда модель сначала решает похожую задачу, она делает что-то важное: строит паттерн рассуждений в контексте прямо сейчас. Этот только-что-созданный паттерн лежит «рядом» в памяти и модель активно к нему обращается. Анализ внимания (attention) показал: в Integrated-режиме модель смотрит на свой пример в 2–3 раза чаще, чем в Decoupled-режиме.

Почему готовый пример (Decoupled) не даёт того же эффекта? Потому что готовый пример — это чужой текст в контексте. Его можно проигнорировать. А пример, который ты только что создал и решил — это твоё недавнее рассуждение. На него модель опирается автоматически.

Рычаги управления: - Добавить "намерение" — явно объяснить, зачем создаётся пример: "Придумай похожую задачу, чтобы лучше разобраться в структуре моей" — это дополнительно увеличивает точность - Усложнить пример — если ваша задача объёмная, попросите сгенерировать более сложный аналог, не упрощённый - Указать домен — чем точнее похожая задача по теме, тем ближе разогрев к вашей задаче


📋

Шаблон промпта

Сначала придумай задачу, похожую на мою, по теме «{тема}», и реши её 
пошагово. Покажи ход рассуждений.

Теперь используй тот же подход и реши мою задачу:
{твоя задача}

Плейсхолдеры: - {тема} — область знаний или тип задачи: "анализ рисков", "написание аргумента", "разбор условий договора" - {твоя задача} — конкретный вопрос или ситуация полностью


🚀 Быстрый старт — вставь в чат:

Вот шаблон Integrated Prompting. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит о теме и о конкретной задаче — потому что ей нужно понять, какую похожую задачу сгенерировать как разогрев. Она возьмёт паттерн из шаблона и адаптирует под контекст.


⚠️

Ограничения

⚠️ Для размытых задач работает хуже: Если задача субъективная — "напиши красиво", "придумай что-нибудь интересное" — разогрев тоже будет размытым. Метод раскрывается там, где есть структура: анализ, аргумент, расчёт, план.

⚠️ Chain-of-Thought частично перекрывает эффект: Когда вы уже просите модель "думать по шагам" (CoT), разрыв между Integrated и обычным промптом сужается. Метод всё равно даёт прибавку, но меньшую.

⚠️ Исходная задача должна быть нетривиальной: На простых вопросах эффект минимален. Чем сложнее задача — тем заметнее разница.

⚠️ Больше токенов: Прибавляется целый блок генерации похожей задачи. Для коротких сессий это норма, для очень длинных контекстов — учитывайте.


🔍

Как исследовали

Идея была простой: разобрать, что именно помогает — пример как текст или процесс его создания. Команда из KAIST сравнила три варианта промптинга на математических задачах (MATH и GSM8K): без примеров, с примером созданным тут же (Integrated) и с тем же примером, но вставленным отдельно (Decoupled). Если Integrated = Decoupled, значит помогает пример. Если Integrated > Decoupled ≈ Zero-shot, значит помогает процесс.

Результат оказался однозначным: пять разных моделей, два датасета — везде одно и то же. GPT-4O с Integrated набрал 54.6% на GSM8K против 50.5% у Decoupled и 49.9% у Zero-shot. То есть Decoupled практически не отличается от нуля, хотя использует точно тот же пример.

Исследователи пошли дальше и подменили самогенерируемый пример случайными символами ("dummy"). Даже с мусорным содержимым Integrated чуть обгонял Zero-shot — то есть часть эффекта даёт просто акт генерации текста перед задачей. Но содержательный пример даёт заметно больше. Ещё попробовали явно повторить пример прямо в промпте перед задачей (Repeat): лучше Decoupled, но хуже Integrated. Локация примера важна, но процесс создания важнее.

Больше всего удивила работа по вниманию (attention analysis) на открытой модели LLaMA. Оказалось, что при Integrated модель активно смотрит на свой пример в нижних слоях (0–12, где идёт лексическая и синтаксическая обработка) и в верхних (23–31, где принимаются решения). В средних слоях разница исчезает. Именно верхние слои ответственны за итоговые рассуждения — и там Integrated загружает пример как опорную точку.


📄

Оригинал из исследования

Полные промпты вынесены авторами в Appendix B оригинальной статьи (не включён в публикацию). Из описания в тексте структура Integrated выглядит так:

[User]: Generate a related math problem about {topic} and solve it step by step.
Then solve the following test question: {test question}

[Assistant]: [generates related problem] → [solves it] → [solves test question]

Контекст: Авторы тестировали на соревновательных математических задачах (MATH) и арифметических задачах уровня начальной школы (GSM8K). Ключевое: Integrated = один запрос, оба шага в одном ответе модели.


💡

Адаптации и экстраполяции

📌

💡 Адаптация: добавить "намерение" генерации

Из таблицы 5 исследования: если явно сказать зачем создаётся похожий пример, точность скачет сильно. Без намерения Integrated даёт 35.19%, с намерением — 45.50% (+10 п.п. на том же датасете).

Придумай задачу, похожую на мою, по теме «{тема}» — чтобы разобраться 
в структуре похожей проблемы и выработать метод решения. Реши её 
пошагово и покажи ход рассуждений.

Теперь, опираясь на этот метод, реши мою задачу:
{твоя задача}

📌

🔧 Техника: несколько похожих задач → глубже разогрев

Из таблицы multi-shot: с 2 примерами в Integrated точность растёт (35.19% → 38.93%). С 4 — тоже выше нуля (38.24%). У Decoupled — наоборот, добавление примеров не помогает.

Придумай две задачи, похожие на мою, по теме «{тема}». 
Реши каждую пошагово.

Теперь реши мою задачу:
{твоя задача}

Когда использовать: задача особенно сложная или нестандартная, и одного разогрева может не хватить.


📌

🔧 Техника: Integrated + Chain-of-Thought

Авторы проверяли CoT отдельно — в связке с Integrated прибавка сохраняется, хотя и меньше. Можно комбинировать:

Придумай задачу, похожую на мою, по теме «{тема}». 
Реши её шаг за шагом, объясняя каждое решение.

Теперь реши мою задачу тем же методом, шаг за шагом:
{твоя задача}

🔗

Ресурсы

Статья: Not the Example, but the Process: How Self-Generated Examples Enhance LLM Reasoning (2025)

Авторы: Daehoon Gwak, Minseo Jung, Junwoo Park, Minho Park, ChaeHun Park, Junha Hyung, Jaegul Choo

Организации: KAIST AI, Applied Artificial Intelligence — Sungkyunkwan University

Контакт: daehoon.gwak@kaist.ac.kr, jchoo@kaist.ac.kr


📋 Дайджест исследования

Ключевая суть

Один и тот же пример — два разных результата. Вставишь его готовым — модель почти проигнорирует. Попросишь сгенерировать прямо в этом же промпте — точность растёт. Integrated Prompting позволяет глубже разбирать сложные задачи без готовых примеров и дообучения. Фишка: всё в одном запросе — модель сначала придумывает похожую задачу и решает её, потом берётся за вашу. Недавно созданное рассуждение лежит «рядом» в контексте. Модель опирается на него в 2–3 раза активнее, чем на чужой текст. Разогрев из собственного решения работает, скопированный пример — почти нет.

Принцип работы

Не вставляй готовый пример — попроси модель создать его прямо здесь. Это как разница между чтением чужих конспектов и написанием своих. Написал конспект сам — структура легла в голове. Прочитал чужой — забыл через абзац. Модель работает так же: только что созданное рассуждение активно участвует в следующих шагах, а внешний пример — просто фон, который можно пропустить. Суть метода: генерация похожей задачи — это не вступление, это разогрев мышления. Потом модель берётся за вашу задачу уже «в теме».

Почему работает

LLM генерирует токены один за другим. Каждый следующий «смотрит» на предыдущий контекст — но не равномерно. Анализ механизма внимания показал: в Integrated-режиме модель обращается к своему примеру в 2–3 раза чаще, чем когда пример вставлен отдельно. Только что решённая похожая задача — это свежий паттерн рассуждений. Готовый текст в контексте — просто обои на фоне. Именно поэтому перенести тот же пример в отдельный промпт и ждать того же эффекта — не работает. Ценность не в содержании примера, а в процессе его создания прямо сейчас.

Когда применять

Аналитические задачи → разбор бизнес-моделей, оценка рисков, юридический анализ — особенно когда нужна структура рассуждений, а не поверхностный список. Хорошо работает для написания аргументов, плановых расчётов, разбора условий договора, оценки стратегических решений. Эффект усиливается: чем сложнее задача, тем заметнее разница. НЕ подходит для: размытых творческих задач («напиши интересно» — разогрев тоже будет размытым), простых вопросов с очевидным ответом — там метод не даёт ничего сверх обычного промпта.

Мини-рецепт

1. Определи тему разогрева: подумай, какой тип рассуждений нужен для вашей задачи — анализ рисков, разбор структуры, построение аргумента. Это станет темой похожей задачи.
2. Сформулируй похожую задачу: она должна быть из той же области, но не совпадать с вашей. Чем точнее совпадение по типу мышления — тем лучше разогрев.
3. Сложи всё в один промпт: сначала — блок с похожей задачей и просьбой решить её пошагово, потом — ваша задача. Два блока, один запрос.
4. Не делай два отдельных чата: именно непрерывный поток генерации создаёт эффект. Разбить на два запроса — значит вернуться к Decoupled-подходу, который не работает.

Шаблон:
Сначала придумай задачу, похожую на мою, по теме «{тема}», и реши её пошагово. Покажи ход рассуждений. Теперь используй тот же подход и реши мою задачу: {твоя задача}

Примеры

[ПЛОХО] : Разбери риски бизнес-модели: подписка на юридические шаблоны для ИП, 490 ₽/месяц
[ХОРОШО] : Сначала разбери похожий кейс: подписка на шаблоны кадровых документов для малого бизнеса, 390 ₽/месяц. Пройдись по структуре: экономика на одного клиента, отток, конкуренция, барьеры входа — пошагово. Теперь используй ту же структуру для моего кейса: подписка на юридические шаблоны для ИП, 490 ₽/месяц. Что здесь может пойти не так? Результат второго промпта: модель уже выстроила категории анализа на похожей задаче — и применяет их к вашей с готовой структурой. Ответ будет глубже, чем при прямом вопросе.
Источник: Not the Example, but the Process: How Self-Generated Examples Enhance LLM Reasoning
ArXiv ID: 2602.15863 | Сгенерировано: 2026-03-09 00:27

Проблемы LLM

ПроблемаСутьКак обойти
Готовый пример в контексте модель почти игнорируетВставляешь пример перед задачей. Думаешь — это поможет: вот образец, вот структура. Но модель не обращается к нему. Она смотрит на вопрос напрямую — как при запросе без примеров вообще. Пример есть, толку нет. Работает для любых задач где вставляешь примеры: анализ, написание, расчётыНе вставляй готовый пример — попроси модель создать похожую задачу и решить её прямо в этом же промпте. Потом задай свою задачу. Пример, который модель только что создала сама, она использует активно

Методы

МетодСуть
Разогрев через похожую задачу — глубже ответПопроси модель в одном промпте: сначала придумать задачу похожую на твою и решить её, потом решить твою. Шаблон: Сначала придумай задачу похожую на мою по теме «{тема}» и реши пошагово. Теперь используй тот же подход и реши: {твоя задача}. Почему работает: Модель строит структуру рассуждений прямо в контексте. Свежее рассуждение лежит рядом — модель опирается на него автоматически. Готовый пример — чужой текст, его легко пропустить. Свой свежий пример — нет. Когда применять: задача сложная, есть структура для анализа, нужен глубокий разбор. Когда не работает: субъективные задачи без структуры («напиши красиво»), простые вопросы, уже используешь развёрнутую цепочку рассуждений — прибавка будет меньше
📖 Простыми словами

Not the Example, but the Process: How Self-Generated Examples EnhanceLLMReasoning

arXiv: 2602.15863

Суть в том, что нейронки лажают не от тупости, а от лени: они пытаются выдать ответ по кратчайшему пути, пропуская важные логические звенья. Метод Integrated Prompting заставляет модель сначала «размяться» на похожей задаче, которую она придумывает сама себе прямо в процессе ответа. Это не просто вставка готового примера, а непрерывный поток генерации, где модель сначала моделирует проблему, решает её и только потом переходит к твоему вопросу, используя свежесозданную логику как рельсы.

Это как если бы ты попросил опытного инженера починить сложный станок, а он, прежде чем лезть внутрь, вслух проговорил: «Так, это похоже на случай с насосом в прошлом году, там мы сначала проверили давление, потом клапан, и в итоге нашли засор». Проговаривая аналогичный сценарий, он настраивает свои мозги на нужную волну. Без этой «самопроверки» он может просто ткнуть пальцем в небо, а с ней — его шансы на точный диагноз вырастают в разы.

В техническом плане здесь работает магия контекста: LLM генерирует токены один за другим, и каждый новый шаг опирается на всё, что было написано выше. Когда модель сама описывает процесс решения аналогичной задачи, она создает для себя логический шаблон. Если ты спросишь инвестора про слабые места подписки за 490 рублей, он может ответить банальщиной, но если заставить его сначала разобрать кейс конкурента, он неизбежно вытащит на свет структурные косяки вроде стоимости привлечения клиента или низкой маржи, которые иначе бы просто «забыл» упомянуть.

Этот принцип универсален и работает далеко за пределами математики или кодинга. Тестировали на логических задачах, но Integrated Prompting идеально ложится на бизнес-стратегии, юридические разборы и даже креатив. Неважно, анализируешь ты стартап или пишешь сложный контракт — заставляя модель прогнать «тестовый заезд» внутри одного промпта, ты получаешь глубину анализа, недоступную при обычном вопросе в лоб.

Короче, хватит кормить модель готовыми примерами или ждать от неё мгновенных озарений. Используй самогенерацию примеров, чтобы модель сама выстраивала путь к правильному ответу через аналогию. Это превращает нейронку из гадалки, стреляющей наугад, в системного аналитика, который сначала строит модель процесса, а потом выдает результат. Кто не освоит этот метод, так и будет получать от AI поверхностную фигню вместо глубокой экспертизы.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с