TL;DR
Integrated Prompting — техника, где модель в одном промпте сначала сама придумывает задачу, похожую на вашу, решает её, а потом берётся за вашу. Не два отдельных запроса, не вставка готового примера — именно создание и решение примера в одном непрерывном потоке.
Раньше думали: модель работает лучше, когда видит пример перед задачей — как few-shot. Логично. Но исследование разбило эту логику: если взять тот же самый пример и вставить его отдельным контекстом (без процесса его создания), результат почти не отличается от нуля. Дело не в примере. Дело в том, что модель его сгенерировала сама, здесь и сейчас.
Причина в том, как модель распределяет внимание. При Integrated-подходе она активно обращается к своему только-что-созданному примеру, когда решает основную задачу. При Decoupled — игнорирует его и фокусируется на вопросе напрямую, как при zero-shot. Процесс создания примера — это разогрев перед основным решением.
Схема метода
Всё в ОДНОМ промпте:
ШАГ 1: Модель придумывает похожую задачу и решает её
→ видим рассуждения «в тему»
ШАГ 2: Модель сразу решает вашу задачу
→ использует разогретое мышление из шага 1
Оба шага — один запрос. Не копируйте пример в отдельный промпт. Это уже другой метод — и он не работает.
Пример применения
Задача: Инвестор Александр Румянцев слышит питч: «Мы хотим запустить сервис подписки на юридические шаблоны для ИП и малого бизнеса в России, 490 ₽/месяц». Нужно быстро оценить: есть ли у этой бизнес-модели структурные слабости, которые не бросаются в глаза.
Промпт:
Сначала разбери похожий кейс: сервис подписки на шаблоны HR-документов
для малого бизнеса, 390 ₽/месяц. Какие структурные слабости есть у
подобной бизнес-модели? Разбери пошагово: unit-экономика, отток,
конкуренция, барьеры.
Теперь используй тот же подход и разбери мой кейс: сервис подписки
на юридические шаблоны для ИП и малого бизнеса, 490 ₽/месяц.
Что здесь может пойти не так?
Результат: Модель пройдёт два раунда анализа подряд. В первом — выстроит логику рассуждений про схожую бизнес-модель: отток, CAC, барьеры входа. Во втором — применит ту же структуру к вашему кейсу, но уже «разогретая», с готовыми категориями анализа. Ответ по вашей задаче будет структурированнее и глубже, чем если спросить напрямую.
Почему это работает
LLM не думает линейно — она генерирует токен за токеном, и каждый следующий токен зависит от всего предыдущего контекста. Когда в промпте есть только вопрос, модель идёт к ответу «по короткому пути».
Когда модель сначала решает похожую задачу, она делает что-то важное: строит паттерн рассуждений в контексте прямо сейчас. Этот только-что-созданный паттерн лежит «рядом» в памяти и модель активно к нему обращается. Анализ внимания (attention) показал: в Integrated-режиме модель смотрит на свой пример в 2–3 раза чаще, чем в Decoupled-режиме.
Почему готовый пример (Decoupled) не даёт того же эффекта? Потому что готовый пример — это чужой текст в контексте. Его можно проигнорировать. А пример, который ты только что создал и решил — это твоё недавнее рассуждение. На него модель опирается автоматически.
Рычаги управления: - Добавить "намерение" — явно объяснить, зачем создаётся пример: "Придумай похожую задачу, чтобы лучше разобраться в структуре моей" — это дополнительно увеличивает точность - Усложнить пример — если ваша задача объёмная, попросите сгенерировать более сложный аналог, не упрощённый - Указать домен — чем точнее похожая задача по теме, тем ближе разогрев к вашей задаче
Шаблон промпта
Сначала придумай задачу, похожую на мою, по теме «{тема}», и реши её
пошагово. Покажи ход рассуждений.
Теперь используй тот же подход и реши мою задачу:
{твоя задача}
Плейсхолдеры:
- {тема} — область знаний или тип задачи: "анализ рисков", "написание аргумента", "разбор условий договора"
- {твоя задача} — конкретный вопрос или ситуация полностью
🚀 Быстрый старт — вставь в чат:
Вот шаблон Integrated Prompting. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит о теме и о конкретной задаче — потому что ей нужно понять, какую похожую задачу сгенерировать как разогрев. Она возьмёт паттерн из шаблона и адаптирует под контекст.
Ограничения
⚠️ Для размытых задач работает хуже: Если задача субъективная — "напиши красиво", "придумай что-нибудь интересное" — разогрев тоже будет размытым. Метод раскрывается там, где есть структура: анализ, аргумент, расчёт, план.
⚠️ Chain-of-Thought частично перекрывает эффект: Когда вы уже просите модель "думать по шагам" (CoT), разрыв между Integrated и обычным промптом сужается. Метод всё равно даёт прибавку, но меньшую.
⚠️ Исходная задача должна быть нетривиальной: На простых вопросах эффект минимален. Чем сложнее задача — тем заметнее разница.
⚠️ Больше токенов: Прибавляется целый блок генерации похожей задачи. Для коротких сессий это норма, для очень длинных контекстов — учитывайте.
Как исследовали
Идея была простой: разобрать, что именно помогает — пример как текст или процесс его создания. Команда из KAIST сравнила три варианта промптинга на математических задачах (MATH и GSM8K): без примеров, с примером созданным тут же (Integrated) и с тем же примером, но вставленным отдельно (Decoupled). Если Integrated = Decoupled, значит помогает пример. Если Integrated > Decoupled ≈ Zero-shot, значит помогает процесс.
Результат оказался однозначным: пять разных моделей, два датасета — везде одно и то же. GPT-4O с Integrated набрал 54.6% на GSM8K против 50.5% у Decoupled и 49.9% у Zero-shot. То есть Decoupled практически не отличается от нуля, хотя использует точно тот же пример.
Исследователи пошли дальше и подменили самогенерируемый пример случайными символами ("dummy"). Даже с мусорным содержимым Integrated чуть обгонял Zero-shot — то есть часть эффекта даёт просто акт генерации текста перед задачей. Но содержательный пример даёт заметно больше. Ещё попробовали явно повторить пример прямо в промпте перед задачей (Repeat): лучше Decoupled, но хуже Integrated. Локация примера важна, но процесс создания важнее.
Больше всего удивила работа по вниманию (attention analysis) на открытой модели LLaMA. Оказалось, что при Integrated модель активно смотрит на свой пример в нижних слоях (0–12, где идёт лексическая и синтаксическая обработка) и в верхних (23–31, где принимаются решения). В средних слоях разница исчезает. Именно верхние слои ответственны за итоговые рассуждения — и там Integrated загружает пример как опорную точку.
Оригинал из исследования
Полные промпты вынесены авторами в Appendix B оригинальной статьи (не включён в публикацию). Из описания в тексте структура Integrated выглядит так:
[User]: Generate a related math problem about {topic} and solve it step by step.
Then solve the following test question: {test question}
[Assistant]: [generates related problem] → [solves it] → [solves test question]
Контекст: Авторы тестировали на соревновательных математических задачах (MATH) и арифметических задачах уровня начальной школы (GSM8K). Ключевое: Integrated = один запрос, оба шага в одном ответе модели.
Адаптации и экстраполяции
💡 Адаптация: добавить "намерение" генерации
Из таблицы 5 исследования: если явно сказать зачем создаётся похожий пример, точность скачет сильно. Без намерения Integrated даёт 35.19%, с намерением — 45.50% (+10 п.п. на том же датасете).
Придумай задачу, похожую на мою, по теме «{тема}» — чтобы разобраться
в структуре похожей проблемы и выработать метод решения. Реши её
пошагово и покажи ход рассуждений.
Теперь, опираясь на этот метод, реши мою задачу:
{твоя задача}
🔧 Техника: несколько похожих задач → глубже разогрев
Из таблицы multi-shot: с 2 примерами в Integrated точность растёт (35.19% → 38.93%). С 4 — тоже выше нуля (38.24%). У Decoupled — наоборот, добавление примеров не помогает.
Придумай две задачи, похожие на мою, по теме «{тема}».
Реши каждую пошагово.
Теперь реши мою задачу:
{твоя задача}
Когда использовать: задача особенно сложная или нестандартная, и одного разогрева может не хватить.
🔧 Техника: Integrated + Chain-of-Thought
Авторы проверяли CoT отдельно — в связке с Integrated прибавка сохраняется, хотя и меньше. Можно комбинировать:
Придумай задачу, похожую на мою, по теме «{тема}».
Реши её шаг за шагом, объясняя каждое решение.
Теперь реши мою задачу тем же методом, шаг за шагом:
{твоя задача}
Ресурсы
Статья: Not the Example, but the Process: How Self-Generated Examples Enhance LLM Reasoning (2025)
Авторы: Daehoon Gwak, Minseo Jung, Junwoo Park, Minho Park, ChaeHun Park, Junha Hyung, Jaegul Choo
Организации: KAIST AI, Applied Artificial Intelligence — Sungkyunkwan University
Контакт: daehoon.gwak@kaist.ac.kr, jchoo@kaist.ac.kr
