3,583 papers
arXiv:2604.03826 76 4 апр. 2026 г. FREE

Last-K: почему 3–5 последних примеров бьют полную историю в последовательных задачах

КЛЮЧЕВАЯ СУТЬ
Чем больше примеров из прошлого даёшь модели — тем лучше.' Это ошибка. 3–5 последних примеров дают тот же результат, что и вся накопленная история. А без контекста вообще модель пишет вдвое длиннее нужного — общий, размытый текст, который ни под какой формат не попадает. Метод Last-K позволяет поддерживать единый стиль в последовательных задачах: серии постов, карточек товара, отчётов одного типа. Фишка: бери не первые и не 'лучшие' примеры — бери последние по дате. Последние отражают актуальное состояние стиля, а не то, как задумывалось изначально.
Адаптировать под запрос

TL;DR

Чем больше прошлых примеров даёшь модели — тем лучше — так интуитивно кажется. Но это не так. Исследование показало: для последовательных задач достаточно 3–5 последних примеров, и добавление всей истории не даёт выигрыша. Более того — при отсутствии контекста вообще модель генерирует раздутый, обобщённый текст, который по объёму в 2 раза больше нужного и хуже по качеству.

Главный инсайт — и это нелогично — последние примеры работают лучше, чем первые. Казалось бы, "фундаментальные" ранние решения дают тон всему — но нет. Модель лучше ориентируется на текущее направление задачи, чем на её исторические основы. Старые примеры добавляют шум и тянут в сторону.

Механика простая: дай модели последние 3–5 завершённых версий работы → она "видит" актуальный тон, стиль, структуру, логику → следующий документ получается органичным продолжением, а не обобщённым шаблоном.


🔬

Схема метода

Один промпт, один запрос:

КОНТЕКСТ — последние 3–5 примеров:
[Пример 1] (самый недавний)
[Пример 2]
[Пример 3]
↓
ЗАДАЧА: создай следующий [документ] с заголовком: [название]

Важно: берёшь именно последние по времени — не первые, не "самые важные".

Всё в одном промпте, отдельные запросы не нужны.


🚀

Пример применения

Задача: Аня — контент-стратег в российском EdTech стартапе — каждую неделю пишет "карточку продукта" для Telegram-канала. Все выпуски должны быть в одном стиле: одинаковая структура, тон, детализация. После 10 выпусков она хочет сохранить накопленный стиль.

Промпт:

Ты помогаешь писать "карточку продукта" для Telegram-канала EdTech стартапа.

Вот три последних карточки для понимания стиля, структуры и тона:

---КАРТОЧКА 1 (последняя)---
[текст карточки про курс по Python]

---КАРТОЧКА 2---
[текст карточки про курс по дизайну]

---КАРТОЧКА 3---
[текст карточки про курс по маркетингу]
---

На основе этого контекста напиши следующую карточку:
Тема: Курс по продуктовому мышлению для менеджеров

Сохрани тот же стиль, структуру и объём.

Результат:

Модель "подхватит" текущий формат — длину, разбивку на блоки, манеру подачи, характерные обороты. Без этого контекста она напишет что-то общее и в 2 раза длиннее.


🧠

Почему это работает

LLM без примеров "фантазирует" обобщённо. У неё нет знания о твоём стиле и формате — только усреднённые паттерны из обучения. Поэтому без контекста она пишет "как обычно": многословно, с общими местами, без специфики.

LLM отлично подхватывает паттерн из примеров. Это одна из главных сильных сторон моделей — few-shot обучение прямо в контексте. Покажи 3 примера — модель обнаруживает паттерн и воспроизводит его.

Почему последние, а не первые? Ранние примеры отражают "как было задумано в начале". Последние — "как оно сложилось сейчас". В реальности стиль, формат и понимание задачи эволюционируют. Старые примеры могут тянуть в сторону устаревших решений. Модель лучше считывает актуальное состояние из свежих примеров.

Рычаги управления: - Число примеров → 3 достаточно для большинства задач, 5 — если стиль очень специфичный. Больше 5 — обычно без эффекта, только занимает контекст - Порядок примеров → последний по времени — первым в промпте (модель сильнее весит ближнее) - Явная инструкция "сохрани стиль" → добавляй, если без неё модель уходит в сторону - Если задача нелинейная (нужен пример из другой темы, а не последний по времени) → выбирай по смыслу, а не по дате


📋

Шаблон промпта

Ты помогаешь создавать {тип_документа}.

Вот {число} последних примеров — используй их как эталон стиля, структуры и тона:

---ПРИМЕР 1 (последний)---
{пример_1}

---ПРИМЕР 2---
{пример_2}

---ПРИМЕР 3---
{пример_3}
---

Создай следующий {тип_документа}:
Тема / заголовок: {новая_тема}

Сохрани тот же стиль, объём и структуру.

Что подставлять: - {тип_документа} — пост, кейс, письмо, ТЗ, описание задачи, отчёт, RFC - {число} — обычно 3, максимум 5 - {пример_1–3} — реальные готовые тексты, последние по времени - {новая_тема} — то, что нужно создать следующим


🚀 Быстрый старт — вставь в чат:

Вот шаблон для последовательного создания документов с сохранением стиля. 
Адаптируй под мою задачу: {опиши что ты делаешь}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит какой тип документов ты создаёшь и попросит скинуть последние примеры — потому что без них не сможет считать твой конкретный стиль.


⚠️

Ограничения

⚠️ Нелинейные задачи: Если создаёшь что-то, что тематически не продолжает предыдущие работы (например, документ на пересечении нескольких тем), последние 3–5 примеров могут не дать нужного контекста. Тогда лучше выбирать примеры по смыслу, а не по дате.

⚠️ Слишком короткая история: Если у тебя меньше 3 примеров — метод работает слабее. Минимум 2 примера, иначе модели не хватает паттерна.

⚠️ Не заменяет явные инструкции по стилю: Если стиль очень специфичный и нестандартный — лучше сочетать с явным описанием правил. Примеры помогают, но не всегда полностью передают нюансы.

⚠️ Результат зависит от качества примеров: Если последние 3 примера сами неудачные — модель воспроизведёт их слабости.


🔍

Как исследовали

Исследователи взяли более 4 500 реальных архитектурных решений (ADR — короткие документы "почему мы так сделали") из 750 открытых репозиториев на GitHub. Отфильтровали шаблоны, пустышки и документы с нарушенной хронологией — осталась чистая последовательность.

Затем проверили простую идею: берёшь N-й документ, скрываешь его, даёшь модели только заголовок и разные варианты прошлого контекста — и смотришь, насколько сгенерированный документ похож на оригинальный. Сравнивали 5 стратегий: без контекста, вся история, первые K, последние K, и семантический поиск. Запустили на 4 разных моделях.

Самое интересное — разрыв между "без контекста" и "с контекстом" оказался колоссальным, а разрыв между "3 примера" и "вся история" — почти нулевым. Это значит: главный выигрыш не в количестве контекста, а в самом факте его наличия. При этом модель без контекста генерировала тексты в 2 раза длиннее нужного — явный признак "генерализации без ориентира". Добавление хоть какого-то контекста сразу снижало многословность.

Удивил также результат семантического поиска (RAFG): он почти не превосходил простые последние K в обычных линейных задачах. Редкое исключение — нестандартные, "перекрёстные" документы.


💡

Адаптации и экстраполяции

🔧 Техника: замени примеры документов → на примеры решений / рассуждений

Принцип работает не только для текстов. Если ты ведёшь серию аналитических разборов, обзоров, оценок — давай последние 3 как контекст:

Вот три последних разбора стартапов, которые я делал:

---РАЗБОР 1---
[разбор Самоката: почему масштабируется, где риски]

---РАЗБОР 2---
[разбор Skyeng: юнит-экономика, модель роста]

---РАЗБОР 3---
[разбор Циан: конкуренция и монетизация]
---

Сделай разбор следующего: Литрес — сервис электронных книг.
Сохрани ту же логику, глубину и структуру.

🔧 Техника: "окно стиля" для длинных переписок

Когда переписка в чате стала длинной и модель начала "уплывать" по тону или структуре — создай новый чат и вставь только последние 3–5 своих запросов и ответов как контекст. Это "перезагружает" стиль без потери направления.


🔗

Ресурсы

Название: Context Matters: Evaluating Context Strategies for Automated ADR Generation Using LLMs

Конференция: EASE 2026 (30th International Conference on Evaluation and Assessment in Software Engineering), Glasgow, Scotland

Авторы: Aviral Gupta, Rudra Dhar — Software Engineering Research Centre, IIIT Hyderabad (Индия); Daniel Feitosa — University of Groningen (Нидерланды); Karthik Vaidhyanathan — IIIT Hyderabad

Датасет для репликации: https://zenodo.org/records/18370195


📋 Дайджест исследования

Ключевая суть

Чем больше примеров из прошлого даёшь модели — тем лучше.' Это ошибка. 3–5 последних примеров дают тот же результат, что и вся накопленная история. А без контекста вообще модель пишет вдвое длиннее нужного — общий, размытый текст, который ни под какой формат не попадает. Метод Last-K позволяет поддерживать единый стиль в последовательных задачах: серии постов, карточек товара, отчётов одного типа. Фишка: бери не первые и не 'лучшие' примеры — бери последние по дате. Последние отражают актуальное состояние стиля, а не то, как задумывалось изначально.

Принцип работы

Без примеров модель пишет 'как обычно' — тянет усреднённые паттерны из обучения. Покажи 3 последних готовых текста — она считает актуальный тон, структуру, объём и воспроизведёт их в новом документе. Ранние примеры тянут в сторону: стиль меняется со временем, старые образцы отражают 'как было задумано', а не 'как сложилось сейчас'. Порядок важен: самый свежий пример — первым в промпте, остальные за ним по убыванию даты.

Почему работает

LLM хорошо считывает паттерны из немногих примеров — это называют few-shot обучением прямо в контексте. Покажи 3 примера — модель находит закономерность и воспроизводит её. И вот что неожиданно: 3 свежих примера дают тот же результат, что 20 — лишний контекст не помогает, он просто занимает место. Больше 5 примеров — метрики качества не растут. Зато контекст расходуется, и на длинных задачах это начинает мешать.

Когда применять

Последовательные задачи с накопленным стилем: регулярные посты в соцсети, серии карточек товара, еженедельные отчёты, технические документы одного типа — особенно когда нужно сохранить специфику формата, выработанную за несколько итераций. НЕ подходит: нелинейные задачи, где следующий документ тематически не связан с предыдущими. Там выбирай примеры по смыслу, а не по дате — иначе модель будет ориентироваться на чужой для задачи контекст.

Мини-рецепт

1. Отбери примеры: возьми 3 последних готовых текста нужного типа. Именно последних по дате — не лучших, не первых.
2. Расставь по порядку: самый свежий — первым в промпте, остальные за ним. Модель сильнее весит то, что стоит ближе к заданию.
3. Сформулируй задачу: укажи тип документа и тему нового — коротко и конкретно.
4. Добавь явную инструкцию: Сохрани тот же стиль, объём и структуру. — без неё модель может решить что ей виднее.

Примеры

[ПЛОХО] : Напиши карточку продукта для курса по продуктовому мышлению для Telegram-канала
[ХОРОШО] : Ты помогаешь писать карточки продуктов для Telegram-канала EdTech стартапа. Вот 3 последних карточки — используй как эталон стиля, объёма и структуры: ---КАРТОЧКА 1 (последняя)--- [текст карточки про курс по Python] ---КАРТОЧКА 2--- [текст карточки про курс по дизайну] ---КАРТОЧКА 3--- [текст карточки про курс по маркетингу] --- Напиши следующую карточку: Тема: Курс по продуктовому мышлению для менеджеров Сохрани тот же стиль, объём и структуру.
Источник: Context Matters: Evaluating Context Strategies for Automated ADR Generation Using LLMs
ArXiv ID: 2604.03826 | Сгенерировано: 2026-04-07 04:25

Методы

МетодСуть
Последние 3–5 примеров вместо полной историиДля последовательных задач (серия документов, постов, писем) давай не всё что накопилось, а только последние 3–5 готовых версий. Самый свежий — первым в промпте. Правило: ---ПРИМЕР 1 (последний)--- ... ---ПРИМЕР 2--- ... + инструкция "сохрани тот же стиль и объём". Почему работает: Стиль серии меняется со временем. Последние примеры отражают то, как задача выглядит сейчас. Первые — как она выглядела в начале. Модель подхватывает актуальный паттерн, а не стартовый. Когда применять: создаёшь следующий документ из серии похожих. Когда не работает: задача тематически не продолжает предыдущие; у тебя меньше 2 примеров
📖 Простыми словами

Context Matters: Evaluating Context Strategies for Automated ADR GenerationUsingLLMs

arXiv: 2604.03826

Суть в том, что нейронки — это не бездонные бочки, которые становятся умнее от каждого лишнего байта информации. Когда ты просишь AI генерировать контент в едином стиле, срабатывает эффект замыленного взора. Если не дать модели примеров, она начинает «лить воду», выдавая в два раза больше текста, чем нужно, просто чтобы казаться полезной. Но как только ты скармливаешь ей правильный контекст, она переключается из режима «пишу обо всем на свете» в режим точного копирования паттерна.

Это работает как попытка объяснить новому бармену, как делать твой любимый авторский коктейль. Если ты просто скажешь «сделай вкусно», он нальет тебе литр непонятной бурды с зонтиком. Но если ты покажешь ему 3–5 последних чеков с точным составом, он мгновенно схватит суть. При этом тащить ему архив за последние три года — полная херня: бармен запутается в старых версиях рецептов, начнет тормозить, а результат лучше не станет. Избыток данных только засоряет эфир.

Исследователи четко замерили: 3–5 примеров — это золотое сечение. Если даешь меньше, модель лажает и уходит в обобщения, если больше — ты просто тратишь токены и время, не получая никакого прироста в качестве. Метод Few-shot prompting здесь работает как ограничитель: он не дает модели фантазировать, заставляя её придерживаться структуры и тональности. Без этого контекста текст получается раздутым и стерильным, как инструкция к советскому утюгу.

Этот принцип универсален: неважно, пишешь ли ты карточки товаров для маркетплейса, посты в Telegram или отчеты для босса. Тестировали на генерации ADR, но механика везде одна. Если тебе нужно, чтобы AI выдавал результат «как вчера», не надо пихать в него всю историю переписки. Достаточно короткой выборки последних удачных работ, чтобы модель поняла правила игры. Контекст решает, но только если он свежий и лаконичный.

Короче, завязывай с огромными промптами-инструкциями на три страницы. Вместо того чтобы расписывать правила, просто дай пять живых примеров и закрой тему. Без контекста ты получишь мусорный объем, а с перебором данных — лишние расходы и риск, что модель начнет тупить. 3–5 кейсов — это всё, что нужно для идеального попадания в стиль, остальное — бесполезный шум.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с