3,583 papers
arXiv:2605.12978 76 13 мая 2026 г. FREE

Memory Erosion: итеративные пересказы деградируют — держи сырые записи

КЛЮЧЕВАЯ СУТЬ
Парадокс: просить AI «обнови мою сводку» кажется логичным — но каждая итерация делает документ хуже, не лучше. После нескольких пересказов сводка становится беднее, чем просто куча необработанных записей. Метод памяти без перезаписи позволяет накапливать заметки месяцами без потери деталей. Храни сырые фрагменты, не пересказывай их — когда нужна сводка, обрабатывай весь пул за один проход. Ранние ошибки не накапливаются, конкретика остаётся нетронутой.
Адаптировать под запрос

TL;DR

Каждый раз, когда просишь AI переписать или обновить свой конспект — теряется информация. После нескольких итераций сводный документ становится хуже, чем просто набор сырых заметок. Это не особенность одной модели — эффект стабильно проявляется почти на всех протестированных системах.

Проблема: кажется логичным просить AI «обновить сводку на основе нового материала». Но каждый пересказ — это потеря деталей, добавление ошибочных обобщений, смешение несвязанных вещей. Ранние ошибки закрепляются и становятся контекстом для следующего пересказа. Снежный ком катится вниз.

Решение: накапливай сырые заметки, не переписывай их. Если резюме нужно — делай его один раз, из всего материала сразу, сгруппировав по темам. Инкрементальные обновления через AI хуже, чем просто список оригинальных фрагментов.


🔬

Схема метода

❌ ПЛОХО (итеративный пересказ):
Заметка v1 → AI обновляет → Заметка v2 → AI обновляет → Заметка v3...
Каждый шаг = потеря деталей, искажение смысла

✅ ХОРОШО (накопление + разовый синтез):
Фрагмент 1 (сырой) → добавляем в список
Фрагмент 2 (сырой) → добавляем в список
Фрагмент 3 (сырой) → добавляем в список
...
Когда нужно резюме → AI обрабатывает ВСЁ СРАЗУ, сгруппировав по темам

Всё работает в одном чате. Никаких отдельных запросов — только смена подхода к ведению заметок.


🚀

Пример применения

Задача: Ты ведёшь переговоры о продаже своего SaaS-сервиса с несколькими потенциальными покупателями. После каждой встречи просишь AI обновить сводку переговоров. Через 10 встреч замечаешь, что сводка странная — перепутаны детали, часть нюансов пропала.

Промпт (правильный подход):

У меня идут переговоры о продаже сервиса. Я веду список сырых заметок 
после каждой встречи — без обработки, как есть.

Вот мои заметки по дням:

[3 июля — Альфа Капитал]
Иван, 45 лет, партнёр. Интересует клиентская база (текущая — 2200 компаний). 
Смущает отток 8% в квартал. Спросил про договоры с крупняком — 
у нас 4 якорных клиента на 40% выручки. Следующий звонок 10 июля.

[5 июля — БетаФонд]  
Ольга, сделки до 500 млн. Понравился ARR рост 3x за 2 года.
Хочет видеть юридическую структуру — попросила прислать до пятницы.
Сказала: "если цифры сойдутся, быстро закроем".

[8 июля — Гамма Инвест]
Михаил, был холодным. Спросил почему не росли в 2022 — ковидный провал,
объяснил. Потеплел. Просит эксклюзив на 2 недели — отказал.
...

Сделай сводку один раз по всем заметкам сразу. 
Сгруппируй по покупателям. Для каждого: интерес, опасения, следующий шаг.
Не обобщай — сохраняй конкретику из заметок.

Результат: Модель выдаст структурированную таблицу или список по каждому покупателю — с конкретными деталями из оригинальных заметок. Главное: она обработала всё разом, без промежуточных перезаписей. Детали про "4 якорных клиента", "эксклюзив отклонён" и "юридическая структура до пятницы" не потеряются.


🧠

Почему это работает

LLM не хранит "память" между запросами — она видит только то, что ты даёшь в контекст прямо сейчас. Когда просишь "обнови сводку на основе нового", модель получает старую сводку + новое, и делает новую версию. Но старая сводка уже была с потерями — а значит новая теряет ещё больше.

Каждый пересказ — это генерация нового текста, не редактирование. Модель следует паттернам обобщения: убирает "мелкие детали", выводит "общие правила". Именно это кажется полезным — пока не замечаешь, что конкретные цифры, оговорки и нюансы исчезли.

Сырые заметки работают лучше, потому что сохраняют контекст, из которого вытекает смысл. "Ольга сказала 'если цифры сойдутся, быстро закроем'" — ценнее чем "один покупатель настроен оптимистично". Второе — это уже интерпретация, и она может оказаться неверной.

Рычаги управления: - "сохраняй конкретику из заметок" — блокирует тягу к обобщениям - "сгруппируй по [тема]" — задаёшь правила группировки сам, не даёшь модели смешать несвязанное - "не резюмируй поверх предыдущей версии" — сигнал обрабатывать весь пул заново, не надстраивать


📋

Шаблон промпта

У меня накопились сырые заметки по {тема}. 
Вот все записи подряд, в хронологическом порядке:

[{дата 1}]
{сырая заметка 1 — как есть, без обработки}

[{дата 2}]
{сырая заметка 2 — как есть, без обработки}

[{дата N}]
{сырая заметка N — как есть, без обработки}

Обработай все заметки сразу за один проход. 
Сгруппируй по {критерий группировки}.
Для каждой группы выдели: {что важно 1}, {что важно 2}, следующий шаг.
Сохраняй конкретику — не обобщай и не убирай детали.

Плейсхолдеры: - {тема} — переговоры, проект, клиенты, обучение, идеи - {критерий группировки} — по людям, по темам, по задачам, по датам - {что важно 1/2} — зависит от задачи: интерес + опасения, статус + следующий шаг, аргументы + риски

🚀 Быстрый старт — вставь в чат:

Вот шаблон для разовой обработки накопленных заметок. 
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит: о чём заметки, как группировать, что выделять — потому что без этого не сможет настроить критерии под твой контекст.


⚠️

Ограничения

⚠️ Растущий контекст: Если заметок много — они перестанут влезать в контекст модели. Решение: делай разовый синтез раньше, пока объём ещё позволяет. Или делай синтез по группам (например, помесячно), а не по всей истории сразу.

⚠️ Разовый синтез ≠ живой документ: После разовой сводки — не проси AI её дополнять. Добавляй новые сырые заметки и делай новый синтез заново из всего пула.

⚠️ Принцип работает для структурированных задач: Переговоры, проекты, клиенты, исследования. Для субъективных и творческих задач (стиль текста, tone of voice) итеративная доработка — нормальная практика, не применяй этот принцип там механически.


🔍

Как исследовали

Исследователи запустили AI-агентов на нескольких бенчмарках — задачах по домоводству, шопингу, веб-навигации и логическим паттернам. Суть эксперимента: после каждого решённого задания агент "конспектировал" урок в свою память. Потом эта память использовалась при следующих задачах.

Самый чистый эксперимент выглядит так: GPT-4 сначала решил набор задач ARC-AGI с нулём памяти — результат 100%. Потом ту же модель попросили законспектировать уроки из правильных решений и дали эти конспекты как контекст. Итог — 54% на тех же задачах, которые модель только что решила без конспектов. Конспекты сделали хуже, не лучше.

Второй важный результат: разовая обработка всего пула заметок сразу давала нормальную точность. А потоковое обновление (сначала 10 задач → синтез, потом ещё 10 → обновление синтеза) теряло 17-38 процентных пунктов по сравнению с разовым. Причина — ранние ошибки становились контекстом для следующего шага, ошибки накапливались.

Дополнительно проверили: что если давать агенту оригинальные записи разговоров вместо синтезированных уроков? В большинстве случаев сырые логи оказались не хуже дистиллированных конспектов — а иногда лучше. Это говорит о том, что ценность была в деталях, которые конспект выбрасывал.


📄

Оригинал из исследования

Principle: Episodic and schema-forming roles should not be collapsed into a 
single rewrite loop. Complementary Learning Systems make this prescription 
explicitly: a fast episodic store and a slow schema-forming store are kept 
architecturally distinct so that fast learning does not overwrite the slow one, 
and consolidation is gated by schema fit rather than triggered on every event.

The Force regime collapses this separation into a mandatory rewrite loop, 
recreating the interference conditions the dual-system design was meant to prevent. 
An episodic store should therefore retain the evidence; abstraction, when it happens, 
should be opt-in and gated by the agent rather than forced on every trajectory.

Контекст: Авторы формулируют архитектурный принцип после серии экспериментов с разными режимами управления памятью агентов. "Force" — обязательный пересказ после каждого шага. "Auto" — агент сам решает сохранять сырое или абстрагировать. Auto побеждает.


💡

Адаптации и экстраполяции

📌

💡 Адаптация для ведения проекта

Вместо "памяти агента" — твоя рабочая папка по проекту.

Вместо того чтобы просить AI обновлять "статус проекта" — держи файл с хронологическими записями. Раз в месяц (или когда накопилось) — разовый синтез всего.

Вот мои записи по проекту {название} за последние {период}:

[{дата}] {что произошло, что решили, что застряло — сырым текстом}
[{дата}] {...}

Сделай срез: что сделано, что в процессе, что заблокировано, что нужно решить.
Опирайся на конкретные записи, не на общие слова.

📌

🔧 Техника: явный запрет на обобщение → сохранение деталей

По умолчанию модель тянется обобщать. Один добавленный запрет меняет поведение:

При синтезе:
- НЕ убирай цифры, даты и имена
- НЕ заменяй конкретные факты на "в целом"
- НЕ добавляй выводов, которых нет в записях
- Если что-то противоречит — оставь оба факта, не сглаживай

Работает в любом промпте на синтез: переговоры, исследования, обучение.


📌

🔧 Экстраполяция: принцип применим к итеративному редактированию текстов

Тот же эффект проявляется, когда просишь AI многократно "улучшить" один и тот же текст.

Пять итераций "сделай лучше" → текст становится гладким, но теряет оригинальный голос, конкретные детали заменяются обтекаемыми фразами.

Лучше: собери конкретные правки ("добавь пример про X", "убери абзац про Y", "сделай заголовок короче") — и применяй к оригиналу за один проход.


🔗

Ресурсы

"Useful Memories Become Faulty When Continuously Updated by LLMs"

Авторы: Dylan Zhang (corresponding), команда из University of Illinois Urbana-Champaign

Смежные системы, упомянутые в работе: CLIN, Agent Workflow Memory (AWM), Dynamic Cheatsheet, ACE

Бенчмарки: ALFWorld, ScienceWorld, WebShop, AppWorld, ARC-AGI Stream (новый, введён авторами)


📋 Дайджест исследования

Ключевая суть

Парадокс: просить AI «обнови мою сводку» кажется логичным — но каждая итерация делает документ хуже, не лучше. После нескольких пересказов сводка становится беднее, чем просто куча необработанных записей. Метод памяти без перезаписи позволяет накапливать заметки месяцами без потери деталей. Храни сырые фрагменты, не пересказывай их — когда нужна сводка, обрабатывай весь пул за один проход. Ранние ошибки не накапливаются, конкретика остаётся нетронутой.

Принцип работы

Разделяй сбор и обработку. Пока идёт накопление — модели делать нечего. Когда нужна сводка — даёшь ей весь пул сразу. Прикол: итеративный пересказ — это не редактирование, а генерация нового текста по ухудшенному черновику. Модель следует паттернам обобщения: убирает «лишние детали», выводит «общие правила». Это кажется полезным — пока не замечаешь, что конкретные цифры, имена и оговорки исчезли. Каждая следующая итерация это усугубляет.

Почему работает

LLM не хранит ничего между запросами — она видит только то, что ты дал в контекст прямо сейчас. Когда просишь обновить сводку, модель получает старую версию (уже с потерями) плюс новую заметку, и создаёт следующую версию. Потери накапливаются. Ошибка первого пересказа становится контекстом для второго, второго — для третьего. Снежный ком. Сырые записи этого не делают — они хранят то, что было, без интерпретации. «Ольга сказала: если цифры сойдутся, быстро закроем» ценнее, чем «один покупатель настроен оптимистично». Второе — уже чья-то догадка, и не всегда верная. Эффект стабильно проявляется почти на всех протестированных моделях: это не баг одной системы, это паттерн.

Когда применять

Переговоры, проекты, клиентская база, исследования, обучение — везде где важна фактура и конкретные детали, особенно когда заметки накапливаются неделями. НЕ подходит для творческих и итеративных задач: доработка текста, шлифовка стиля, tone of voice — там итерации это нормальная практика, а не ошибка.

Мини-рецепт

1. Веди сырые записи: После каждой встречи, звонка, прочтения — пиши как есть, без причёсывания. Дата, участник, детали, цифры. Не просишь AI обработать.
2. Накапливай пул: Все записи идут в один документ или список. Хронологически, сырыми.
3. Синтез — один раз из всего пула: Когда нужна сводка — даёшь модели весь список сразу. Указываешь критерий: сгруппируй по людям, по темам, по задачам.
4. Блокируй тягу к обобщениям: Добавь в промпт сохраняй конкретику из заметок, не обобщай и не убирай детали. Без этого модель будет «улучшать».
5. После синтеза — снова сырой режим: Новые записи идут в пул сырыми. Когда сводка понадобится снова — новый проход из всего пула заново, не надстройка поверх старой.

Примеры

[ПЛОХО] : Вот мои заметки за сегодня. Обнови общую сводку переговоров.
[ХОРОШО] : Вот все мои сырые заметки за 3 недели переговоров: [3 июля — Альфа Капитал] Иван, партнёр. Интересует клиентская база (2200 компаний). Смущает отток 8%. Спросил про якорных клиентов — их 4 штуки, дают 40% выручки. Следующий звонок 10 июля. [5 июля — БетаФонд] Ольга, сделки до 500 млн. Понравился рост выручки в 3 раза за 2 года. Хочет юридическую структуру до пятницы. Сказала: если цифры сойдутся — закроем быстро. [8 июля — Гамма Инвест] Михаил, поначалу холодный. Спросил про провал 2022 — объяснил ковидом, потеплел. Просил эксклюзив на 2 недели — отказал. Обработай весь список за один проход. Сгруппируй по покупателям. Для каждого: интерес, опасения, следующий шаг. Сохраняй конкретику — цифры, имена, договорённости. Не обобщай.
Источник: Useful Memories Become Faulty When Continuously Updated by LLMs
ArXiv ID: 2605.12978 | Сгенерировано: 2026-05-14 05:37

Проблемы LLM

ПроблемаСутьКак обойти
Итеративные обновления сводки деградируютПросишь AI "обнови сводку с учётом нового". Каждый раз модель генерирует новый текст заново. Не редактирует старый. Детали выглядят незначительными — убираются. Обобщения приходят вместо фактов. Ранние ошибки входят в контекст следующего обновления и закрепляются. После 5–7 итераций сводка хуже, чем просто список оригинальных фрагментов. Проблема для любых задач с накоплением: переговоры, проекты, клиенты, исследованияНе проси AI обновлять сводку итеративно. Накапливай сырые заметки как есть. Когда нужен синтез — обрабатывай весь пул разом за один проход

Методы

МетодСуть
Разовый синтез из пула сырых заметокСкладывай все фрагменты в список без обработки: [дата] {текст как есть}. Когда нужна сводка — кидаешь всё в один запрос. Добавляешь: "Сгруппируй по {критерий}. Сохраняй конкретику — не обобщай и не убирай детали". После синтеза — не проси дополнять. Появилось новое добавь сырую заметку делай новый синтез из всего пула заново. Почему работает: модель видит весь контекст разом, не надстраивает одно резюме поверх другого. Детали не успевают потеряться на промежуточных шагах. Не работает: контекст переполнен (слишком много заметок). Выход: делай синтез по блокам (например, помесячно), не по всей истории сразу
📖 Простыми словами

UsefulMemories Become Faulty When Continuously Updated byLLMs

arXiv: 2605.12978

AI-ассистенты не умеют «дописывать» информацию в твою память — они каждый раз пересобирают её с нуля, как конструктор. Когда ты просишь модель обновить старый конспект новыми данными, она не просто добавляет строчку, а перемалывает весь текст целиком. Проблема в том, что LLM — это не архив, а интерпретатор. На каждом цикле обновления модель отсекает то, что кажется ей второстепенным, и в итоге полезные воспоминания превращаются в кашу. Чем дольше ты ведешь один и тот же документ через итерации, тем сильнее он деградирует.

Это как играть в «испорченный телефон» с самим собой. Представь, что ты пересказываешь другу историю, он записывает её по памяти, а на следующий день ты просишь его пересказать этот текст третьему человеку, добавив пару новых деталей. К пятому разу из истории исчезнут нюансы, а к десятому — смысл перевернется с ног на голову. Ты думаешь, что хранишь знания, но на самом деле ты хранишь копию копии, где каждый шаг стирает важные детали ради «красивого» слога.

Исследователи проверили это на разных моделях и везде один и тот же облом: итеративное обновление убивает точность. Если ты ведешь протокол встреч и после каждого созвона просишь AI «обновить текущий статус», готовься к провалу. Модель начнет путать имена, терять цифры и подменять факты галлюцинациями, просто чтобы текст выглядел связным. 10 обновлений подряд гарантированно превращают документ в бесполезную фигню, которая только имитирует знание.

Принцип универсален: это касается не только рабочих заметок, но и написания кода, ведения логов или планирования путешествий. Тестировали на текстах, но эффект деградации сожрет любой контент, который ты пытаешься «наслаивать» через запросы. Вместо того чтобы заставлять AI переписывать старое, нужно использовать метод накопления сырых данных. Сваливай все факты в одну кучу как есть, и только в самом конце проси модель сделать финальный синтез.

Короче: забудь про команду «обнови этот текст». Если хочешь сохранить адекватность, храни сырые исходники и делай саммари один раз в финале. Попытка сэкономить место в контексте и вести «живой документ» через AI — это прямой путь к потере контроля над информацией. Либо ты работаешь с первоисточниками, либо через неделю твой проект превратится в набор красивых, но пустых фраз.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с