TL;DR
Чем больше прошлых примеров даёшь модели — тем лучше — так интуитивно кажется. Но это не так. Исследование показало: для последовательных задач достаточно 3–5 последних примеров, и добавление всей истории не даёт выигрыша. Более того — при отсутствии контекста вообще модель генерирует раздутый, обобщённый текст, который по объёму в 2 раза больше нужного и хуже по качеству.
Главный инсайт — и это нелогично — последние примеры работают лучше, чем первые. Казалось бы, "фундаментальные" ранние решения дают тон всему — но нет. Модель лучше ориентируется на текущее направление задачи, чем на её исторические основы. Старые примеры добавляют шум и тянут в сторону.
Механика простая: дай модели последние 3–5 завершённых версий работы → она "видит" актуальный тон, стиль, структуру, логику → следующий документ получается органичным продолжением, а не обобщённым шаблоном.
Схема метода
Один промпт, один запрос:
КОНТЕКСТ — последние 3–5 примеров:
[Пример 1] (самый недавний)
[Пример 2]
[Пример 3]
↓
ЗАДАЧА: создай следующий [документ] с заголовком: [название]
Важно: берёшь именно последние по времени — не первые, не "самые важные".
Всё в одном промпте, отдельные запросы не нужны.
Пример применения
Задача: Аня — контент-стратег в российском EdTech стартапе — каждую неделю пишет "карточку продукта" для Telegram-канала. Все выпуски должны быть в одном стиле: одинаковая структура, тон, детализация. После 10 выпусков она хочет сохранить накопленный стиль.
Промпт:
Ты помогаешь писать "карточку продукта" для Telegram-канала EdTech стартапа.
Вот три последних карточки для понимания стиля, структуры и тона:
---КАРТОЧКА 1 (последняя)---
[текст карточки про курс по Python]
---КАРТОЧКА 2---
[текст карточки про курс по дизайну]
---КАРТОЧКА 3---
[текст карточки про курс по маркетингу]
---
На основе этого контекста напиши следующую карточку:
Тема: Курс по продуктовому мышлению для менеджеров
Сохрани тот же стиль, структуру и объём.
Результат:
Модель "подхватит" текущий формат — длину, разбивку на блоки, манеру подачи, характерные обороты. Без этого контекста она напишет что-то общее и в 2 раза длиннее.
Почему это работает
LLM без примеров "фантазирует" обобщённо. У неё нет знания о твоём стиле и формате — только усреднённые паттерны из обучения. Поэтому без контекста она пишет "как обычно": многословно, с общими местами, без специфики.
LLM отлично подхватывает паттерн из примеров. Это одна из главных сильных сторон моделей — few-shot обучение прямо в контексте. Покажи 3 примера — модель обнаруживает паттерн и воспроизводит его.
Почему последние, а не первые? Ранние примеры отражают "как было задумано в начале". Последние — "как оно сложилось сейчас". В реальности стиль, формат и понимание задачи эволюционируют. Старые примеры могут тянуть в сторону устаревших решений. Модель лучше считывает актуальное состояние из свежих примеров.
Рычаги управления: - Число примеров → 3 достаточно для большинства задач, 5 — если стиль очень специфичный. Больше 5 — обычно без эффекта, только занимает контекст - Порядок примеров → последний по времени — первым в промпте (модель сильнее весит ближнее) - Явная инструкция "сохрани стиль" → добавляй, если без неё модель уходит в сторону - Если задача нелинейная (нужен пример из другой темы, а не последний по времени) → выбирай по смыслу, а не по дате
Шаблон промпта
Ты помогаешь создавать {тип_документа}.
Вот {число} последних примеров — используй их как эталон стиля, структуры и тона:
---ПРИМЕР 1 (последний)---
{пример_1}
---ПРИМЕР 2---
{пример_2}
---ПРИМЕР 3---
{пример_3}
---
Создай следующий {тип_документа}:
Тема / заголовок: {новая_тема}
Сохрани тот же стиль, объём и структуру.
Что подставлять:
- {тип_документа} — пост, кейс, письмо, ТЗ, описание задачи, отчёт, RFC
- {число} — обычно 3, максимум 5
- {пример_1–3} — реальные готовые тексты, последние по времени
- {новая_тема} — то, что нужно создать следующим
🚀 Быстрый старт — вставь в чат:
Вот шаблон для последовательного создания документов с сохранением стиля.
Адаптируй под мою задачу: {опиши что ты делаешь}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит какой тип документов ты создаёшь и попросит скинуть последние примеры — потому что без них не сможет считать твой конкретный стиль.
Ограничения
⚠️ Нелинейные задачи: Если создаёшь что-то, что тематически не продолжает предыдущие работы (например, документ на пересечении нескольких тем), последние 3–5 примеров могут не дать нужного контекста. Тогда лучше выбирать примеры по смыслу, а не по дате.
⚠️ Слишком короткая история: Если у тебя меньше 3 примеров — метод работает слабее. Минимум 2 примера, иначе модели не хватает паттерна.
⚠️ Не заменяет явные инструкции по стилю: Если стиль очень специфичный и нестандартный — лучше сочетать с явным описанием правил. Примеры помогают, но не всегда полностью передают нюансы.
⚠️ Результат зависит от качества примеров: Если последние 3 примера сами неудачные — модель воспроизведёт их слабости.
Как исследовали
Исследователи взяли более 4 500 реальных архитектурных решений (ADR — короткие документы "почему мы так сделали") из 750 открытых репозиториев на GitHub. Отфильтровали шаблоны, пустышки и документы с нарушенной хронологией — осталась чистая последовательность.
Затем проверили простую идею: берёшь N-й документ, скрываешь его, даёшь модели только заголовок и разные варианты прошлого контекста — и смотришь, насколько сгенерированный документ похож на оригинальный. Сравнивали 5 стратегий: без контекста, вся история, первые K, последние K, и семантический поиск. Запустили на 4 разных моделях.
Самое интересное — разрыв между "без контекста" и "с контекстом" оказался колоссальным, а разрыв между "3 примера" и "вся история" — почти нулевым. Это значит: главный выигрыш не в количестве контекста, а в самом факте его наличия. При этом модель без контекста генерировала тексты в 2 раза длиннее нужного — явный признак "генерализации без ориентира". Добавление хоть какого-то контекста сразу снижало многословность.
Удивил также результат семантического поиска (RAFG): он почти не превосходил простые последние K в обычных линейных задачах. Редкое исключение — нестандартные, "перекрёстные" документы.
Адаптации и экстраполяции
🔧 Техника: замени примеры документов → на примеры решений / рассуждений
Принцип работает не только для текстов. Если ты ведёшь серию аналитических разборов, обзоров, оценок — давай последние 3 как контекст:
Вот три последних разбора стартапов, которые я делал:
---РАЗБОР 1---
[разбор Самоката: почему масштабируется, где риски]
---РАЗБОР 2---
[разбор Skyeng: юнит-экономика, модель роста]
---РАЗБОР 3---
[разбор Циан: конкуренция и монетизация]
---
Сделай разбор следующего: Литрес — сервис электронных книг.
Сохрани ту же логику, глубину и структуру.
🔧 Техника: "окно стиля" для длинных переписок
Когда переписка в чате стала длинной и модель начала "уплывать" по тону или структуре — создай новый чат и вставь только последние 3–5 своих запросов и ответов как контекст. Это "перезагружает" стиль без потери направления.
Ресурсы
Название: Context Matters: Evaluating Context Strategies for Automated ADR Generation Using LLMs
Конференция: EASE 2026 (30th International Conference on Evaluation and Assessment in Software Engineering), Glasgow, Scotland
Авторы: Aviral Gupta, Rudra Dhar — Software Engineering Research Centre, IIIT Hyderabad (Индия); Daniel Feitosa — University of Groningen (Нидерланды); Karthik Vaidhyanathan — IIIT Hyderabad
Датасет для репликации: https://zenodo.org/records/18370195
