TL;DR
Чем абстрактнее урок из прошлого опыта, тем лучше он работает в новых задачах — даже в совершенно других областях. Исследователи изучали, как AI-агенты используют память после решённых задач, и обнаружили: высокоуровневые принципы типа «сначала изучи структуру, потом редактируй» переносятся между разными типами задач. Конкретные записи о прошлых решениях — нет.
Главная боль: когда просишь LLM примениться к задаче и даёшь ей «пример из прошлого», слишком конкретный пример мешает. Модель начинает цепляться за детали предыдущей ситуации, которые не подходят к новой. Вместо помощи — искажение. Это называется отрицательный перенос (negative transfer): специфика прошлого опыта ломает новое решение.
Решение: формат Insight — трёхчастная структура урока, которую можно извлечь из любого прошлого опыта и применить в другом контексте. Она убирает детали и оставляет только принцип: что делать, зачем, в каких ситуациях. Именно этот формат показал наилучший перенос через разные типы задач.
Схема метода
ШАГ 1: Завершили задачу → попросить LLM извлечь Insight
(в одном запросе, результат — структурированная карточка)
ШАГ 2: Сохранить Insight → в документ "уроков"
(ручное хранение — блокнот, Notion, текстовый файл)
ШАГ 3: Новая задача (любой области) → вставить релевантные Insight'ы в промпт
(ручной выбор, вставка в начало нового чата)
Все три шага — через обычный чат. Никакой автоматизации не нужно.
Пример применения
Задача: Артём — product manager в EdTech-стартапе. Он провёл отличный разбор с LLM: разобрал почему провалилась маркетинговая кампания. Теперь ему нужно проанализировать, почему упала конверсия в онбординге — задача другая, но хочется не начинать с нуля.
Промпт (Шаг 1 — извлечь Insight из разбора кампании):
Мы только что разобрали провал маркетинговой кампании для нашего EdTech-курса.
Извлеки обобщённый урок в формате Insight — так, чтобы он работал
для ЛЮБОГО анализа провалов, а не только маркетинговых:
Короткое название принципа (5-7 слов)
Одно предложение: что делать и когда
Общий принцип работы (3-5 предложений).
Без упоминания конкретной кампании, каналов, платформ.
Только универсальная механика: почему это работает,
как применять в новой ситуации.
Промпт (Шаг 3 — применить Insight к новой задаче):
Я анализирую падение конверсии в онбординге нашего приложения.
Вот принцип, который помог мне в прошлом похожем анализе:
[вставить сохранённый Insight]
Используй этот принцип как ориентир. Начнём: вот данные по онбордингу...
[данные]
Результат: Модель в первом запросе выдаст карточку Insight — название принципа, одно предложение описания и 3-5 предложений содержательного принципа без привязки к деталям кампании. В третьем шаге — применит логику анализа к онбордингу, минуя типичный "нулевой старт" без контекста.
Почему это работает
LLM не помнит прошлые разговоры — каждый новый чат начинается с нуля. Но даже если дать модели контекст из прошлого, слишком конкретный пример создаёт проблему: модель начинает генерировать ответ по шаблону прошлой ситуации, а не думать о новой. Деталь тянет за собой другие детали.
Модель хорошо умеет применять принципы — особенно когда они сформулированы явно и без лишних деталей. Структурированный Insight — это фактически meta-prompt: он задаёт режим мышления ("сначала изучи структуру, потом редактируй"), а не конкретный алгоритм действий. Модель следует принципу, а не копирует прошлое.
Рычаги управления:
- Уровень абстракции в → чем меньше конкретики (названий, цифр, платформ), тем шире применимость Insight'а
- Количество сохранённых карточек → даже 5-10 хороших Insight'ов из разных задач дают ощутимый эффект
- Момент извлечения → лучше сразу после задачи, пока контекст свежий: "Извлеки Insight из этого разговора"
- Формат → короткое название помогает быстро выбрать нужный Insight при новой задаче
Шаблон промпта
Шаблон 1 — Извлечь Insight после задачи:
В этом разговоре мы решили задачу: {краткое описание задачи}.
Извлеки обобщённый урок в формате Insight — так, чтобы он работал
для других похожих ситуаций в {область применения: анализ / написание текстов /
принятие решений / работа с данными}.
Короткое название принципа (5-7 слов)
Одно предложение: что делать и когда
Универсальный принцип (3-5 предложений).
Без упоминания конкретных имён, инструментов, деталей этой задачи.
Только механика: почему это работает и как применять.
Шаблон 2 — Применить сохранённые Insight'ы к новой задаче:
Я работаю над задачей: {описание новой задачи}.
Вот принципы, которые помогали мне в похожих ситуациях раньше:
{вставить 1-3 сохранённых Insight'а}
Используй эти принципы как ориентир — там, где они применимы.
Начнём с {первый шаг задачи}.
Плейсхолдеры:
- {краткое описание задачи} — "разбор провала кампании", "написание продающего письма", "анализ данных по продажам"
- {область применения} — широко: "любой аналитической работы", "работы с текстами", "принятия решений"
- {вставить 1-3 сохранённых Insight'а} — карточки из вашего документа уроков
- {первый шаг задачи} — "вот данные", "вот задача клиента", "вот черновик"
🚀 Быстрый старт — вставь в чат:
Вот шаблон для извлечения переносимых уроков из задач.
Адаптируй под мою ситуацию: [опиши свою задачу].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит, какую задачу только что решили и в каких ситуациях хотят применять урок — потому что без этого невозможно правильно откалибровать уровень абстракции в .
Ограничения
⚠️ Ручное хранение — узкое место: Метод требует дисциплины: извлекать Insight'ы после каждой значимой задачи и хранить их в доступном месте. Без этой привычки система не работает.
⚠️ Выбор нужного Insight — на вас: В автоматических системах поиск нужной карточки делает векторная база данных. Вручную нужно самому вспомнить и выбрать подходящее. При большой библиотеке (50+ карточек) это становится сложнее.
⚠️ Конкретные примеры в памяти могут навредить: Если в Insight'е остались детали прошлой задачи (названия, инструменты, конкретные данные) — модель может "залипнуть" на них вместо решения новой задачи. Правило: если сомневаешься — абстрагируй сильнее.
⚠️ Работает лучше на задачах с процессом, не с ответом: Insight'ы хорошо переносят "как действовать" (отладка, анализ, редактирование), хуже — "что ответить" (если задача зависит от уникальных данных).
Ресурсы
Memory Transfer Learning: How Memories are Transferred Across Domains in Coding Agents Kangsan Kim, Minki Kang, Taeil Kim (KAIST), Yanlai Yang, Mengye Ren (New York University), Sung Ju Hwang (KAIST, DeepAuto.ai) Сайт: memorytransfer.github.io
Ключевые отсылки: ReasoningBank (Ouyang et al., 2025), AgentKB (Tang et al., 2025), AWM (Wang et al., 2024c)
