TL;DR
Каждый раз, когда просишь AI переписать или обновить свой конспект — теряется информация. После нескольких итераций сводный документ становится хуже, чем просто набор сырых заметок. Это не особенность одной модели — эффект стабильно проявляется почти на всех протестированных системах.
Проблема: кажется логичным просить AI «обновить сводку на основе нового материала». Но каждый пересказ — это потеря деталей, добавление ошибочных обобщений, смешение несвязанных вещей. Ранние ошибки закрепляются и становятся контекстом для следующего пересказа. Снежный ком катится вниз.
Решение: накапливай сырые заметки, не переписывай их. Если резюме нужно — делай его один раз, из всего материала сразу, сгруппировав по темам. Инкрементальные обновления через AI хуже, чем просто список оригинальных фрагментов.
Схема метода
❌ ПЛОХО (итеративный пересказ):
Заметка v1 → AI обновляет → Заметка v2 → AI обновляет → Заметка v3...
Каждый шаг = потеря деталей, искажение смысла
✅ ХОРОШО (накопление + разовый синтез):
Фрагмент 1 (сырой) → добавляем в список
Фрагмент 2 (сырой) → добавляем в список
Фрагмент 3 (сырой) → добавляем в список
...
Когда нужно резюме → AI обрабатывает ВСЁ СРАЗУ, сгруппировав по темам
Всё работает в одном чате. Никаких отдельных запросов — только смена подхода к ведению заметок.
Пример применения
Задача: Ты ведёшь переговоры о продаже своего SaaS-сервиса с несколькими потенциальными покупателями. После каждой встречи просишь AI обновить сводку переговоров. Через 10 встреч замечаешь, что сводка странная — перепутаны детали, часть нюансов пропала.
Промпт (правильный подход):
У меня идут переговоры о продаже сервиса. Я веду список сырых заметок
после каждой встречи — без обработки, как есть.
Вот мои заметки по дням:
[3 июля — Альфа Капитал]
Иван, 45 лет, партнёр. Интересует клиентская база (текущая — 2200 компаний).
Смущает отток 8% в квартал. Спросил про договоры с крупняком —
у нас 4 якорных клиента на 40% выручки. Следующий звонок 10 июля.
[5 июля — БетаФонд]
Ольга, сделки до 500 млн. Понравился ARR рост 3x за 2 года.
Хочет видеть юридическую структуру — попросила прислать до пятницы.
Сказала: "если цифры сойдутся, быстро закроем".
[8 июля — Гамма Инвест]
Михаил, был холодным. Спросил почему не росли в 2022 — ковидный провал,
объяснил. Потеплел. Просит эксклюзив на 2 недели — отказал.
...
Сделай сводку один раз по всем заметкам сразу.
Сгруппируй по покупателям. Для каждого: интерес, опасения, следующий шаг.
Не обобщай — сохраняй конкретику из заметок.
Результат: Модель выдаст структурированную таблицу или список по каждому покупателю — с конкретными деталями из оригинальных заметок. Главное: она обработала всё разом, без промежуточных перезаписей. Детали про "4 якорных клиента", "эксклюзив отклонён" и "юридическая структура до пятницы" не потеряются.
Почему это работает
LLM не хранит "память" между запросами — она видит только то, что ты даёшь в контекст прямо сейчас. Когда просишь "обнови сводку на основе нового", модель получает старую сводку + новое, и делает новую версию. Но старая сводка уже была с потерями — а значит новая теряет ещё больше.
Каждый пересказ — это генерация нового текста, не редактирование. Модель следует паттернам обобщения: убирает "мелкие детали", выводит "общие правила". Именно это кажется полезным — пока не замечаешь, что конкретные цифры, оговорки и нюансы исчезли.
Сырые заметки работают лучше, потому что сохраняют контекст, из которого вытекает смысл. "Ольга сказала 'если цифры сойдутся, быстро закроем'" — ценнее чем "один покупатель настроен оптимистично". Второе — это уже интерпретация, и она может оказаться неверной.
Рычаги управления:
- "сохраняй конкретику из заметок" — блокирует тягу к обобщениям
- "сгруппируй по [тема]" — задаёшь правила группировки сам, не даёшь модели смешать несвязанное
- "не резюмируй поверх предыдущей версии" — сигнал обрабатывать весь пул заново, не надстраивать
Шаблон промпта
У меня накопились сырые заметки по {тема}.
Вот все записи подряд, в хронологическом порядке:
[{дата 1}]
{сырая заметка 1 — как есть, без обработки}
[{дата 2}]
{сырая заметка 2 — как есть, без обработки}
[{дата N}]
{сырая заметка N — как есть, без обработки}
Обработай все заметки сразу за один проход.
Сгруппируй по {критерий группировки}.
Для каждой группы выдели: {что важно 1}, {что важно 2}, следующий шаг.
Сохраняй конкретику — не обобщай и не убирай детали.
Плейсхолдеры:
- {тема} — переговоры, проект, клиенты, обучение, идеи
- {критерий группировки} — по людям, по темам, по задачам, по датам
- {что важно 1/2} — зависит от задачи: интерес + опасения, статус + следующий шаг, аргументы + риски
🚀 Быстрый старт — вставь в чат:
Вот шаблон для разовой обработки накопленных заметок.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит: о чём заметки, как группировать, что выделять — потому что без этого не сможет настроить критерии под твой контекст.
Ограничения
⚠️ Растущий контекст: Если заметок много — они перестанут влезать в контекст модели. Решение: делай разовый синтез раньше, пока объём ещё позволяет. Или делай синтез по группам (например, помесячно), а не по всей истории сразу.
⚠️ Разовый синтез ≠ живой документ: После разовой сводки — не проси AI её дополнять. Добавляй новые сырые заметки и делай новый синтез заново из всего пула.
⚠️ Принцип работает для структурированных задач: Переговоры, проекты, клиенты, исследования. Для субъективных и творческих задач (стиль текста, tone of voice) итеративная доработка — нормальная практика, не применяй этот принцип там механически.
Как исследовали
Исследователи запустили AI-агентов на нескольких бенчмарках — задачах по домоводству, шопингу, веб-навигации и логическим паттернам. Суть эксперимента: после каждого решённого задания агент "конспектировал" урок в свою память. Потом эта память использовалась при следующих задачах.
Самый чистый эксперимент выглядит так: GPT-4 сначала решил набор задач ARC-AGI с нулём памяти — результат 100%. Потом ту же модель попросили законспектировать уроки из правильных решений и дали эти конспекты как контекст. Итог — 54% на тех же задачах, которые модель только что решила без конспектов. Конспекты сделали хуже, не лучше.
Второй важный результат: разовая обработка всего пула заметок сразу давала нормальную точность. А потоковое обновление (сначала 10 задач → синтез, потом ещё 10 → обновление синтеза) теряло 17-38 процентных пунктов по сравнению с разовым. Причина — ранние ошибки становились контекстом для следующего шага, ошибки накапливались.
Дополнительно проверили: что если давать агенту оригинальные записи разговоров вместо синтезированных уроков? В большинстве случаев сырые логи оказались не хуже дистиллированных конспектов — а иногда лучше. Это говорит о том, что ценность была в деталях, которые конспект выбрасывал.
Оригинал из исследования
Principle: Episodic and schema-forming roles should not be collapsed into a
single rewrite loop. Complementary Learning Systems make this prescription
explicitly: a fast episodic store and a slow schema-forming store are kept
architecturally distinct so that fast learning does not overwrite the slow one,
and consolidation is gated by schema fit rather than triggered on every event.
The Force regime collapses this separation into a mandatory rewrite loop,
recreating the interference conditions the dual-system design was meant to prevent.
An episodic store should therefore retain the evidence; abstraction, when it happens,
should be opt-in and gated by the agent rather than forced on every trajectory.
Контекст: Авторы формулируют архитектурный принцип после серии экспериментов с разными режимами управления памятью агентов. "Force" — обязательный пересказ после каждого шага. "Auto" — агент сам решает сохранять сырое или абстрагировать. Auto побеждает.
Адаптации и экстраполяции
💡 Адаптация для ведения проекта
Вместо "памяти агента" — твоя рабочая папка по проекту.
Вместо того чтобы просить AI обновлять "статус проекта" — держи файл с хронологическими записями. Раз в месяц (или когда накопилось) — разовый синтез всего.
Вот мои записи по проекту {название} за последние {период}:
[{дата}] {что произошло, что решили, что застряло — сырым текстом}
[{дата}] {...}
Сделай срез: что сделано, что в процессе, что заблокировано, что нужно решить.
Опирайся на конкретные записи, не на общие слова.
🔧 Техника: явный запрет на обобщение → сохранение деталей
По умолчанию модель тянется обобщать. Один добавленный запрет меняет поведение:
При синтезе:
- НЕ убирай цифры, даты и имена
- НЕ заменяй конкретные факты на "в целом"
- НЕ добавляй выводов, которых нет в записях
- Если что-то противоречит — оставь оба факта, не сглаживай
Работает в любом промпте на синтез: переговоры, исследования, обучение.
🔧 Экстраполяция: принцип применим к итеративному редактированию текстов
Тот же эффект проявляется, когда просишь AI многократно "улучшить" один и тот же текст.
Пять итераций "сделай лучше" → текст становится гладким, но теряет оригинальный голос, конкретные детали заменяются обтекаемыми фразами.
Лучше: собери конкретные правки ("добавь пример про X", "убери абзац про Y", "сделай заголовок короче") — и применяй к оригиналу за один проход.
Ресурсы
"Useful Memories Become Faulty When Continuously Updated by LLMs"
Авторы: Dylan Zhang (corresponding), команда из University of Illinois Urbana-Champaign
Смежные системы, упомянутые в работе: CLIN, Agent Workflow Memory (AWM), Dynamic Cheatsheet, ACE
Бенчмарки: ALFWorld, ScienceWorld, WebShop, AppWorld, ARC-AGI Stream (новый, введён авторами)
