3,583 papers
arXiv:2512.20651 72 17 дек. 2025 г. FREE

Memory Bear: система человекоподобной долговременной памяти для LLM

КЛЮЧЕВАЯ СУТЬ
Если чат с GPT превращается в свалку из 200 сообщений — модель забывает ранние решения или пересказывает всю историю. Точность падает на 15%, затраты растут вдвое. Memory Bear решает это через систему долговременной памяти по образцу мозга. Фишка: три механизма из когнитивной наукисемантическое сжатие (удаляет дубликаты и шум), оценка активации (приоритизирует важное по весу), рефлексия (чистит противоречия). Результат: плотность информации ×10, обработка токенов −90%.
Адаптировать под запрос

TL;DR

Memory Bear — система долговременной памяти для LLM, построенная по образцу человеческого мозга: разделение на краткосрочную/долговременную память, механизмы сжатия, приоритизации, рефлексии и контролируемого забывания. Система состоит из трёх слоёв: хранение (извлечение фактов в графовую БД), оркестрация (активация нужных воспоминаний, проверка противоречий, удаление устаревшего), применение (память как сервис для агентов).

Главная проблема: LLM не умеют управлять памятью — они либо теряют ранний контекст, либо захламляют промпт всей историей диалога. В первом случае модель забывает о чём говорили 50 сообщений назад. Во втором — обрабатывает тысячи токенов повторяющейся информации, внимание рассеивается, точность падает на 15%, затраты на обработку растут вдвое. У человека есть механизм сжатия ("вчера мы обсудили проект" вместо пересказа всего диалога), приоритизации (эмоционально важное помнится лучше), забывания (старое стирается). У LLM этого нет — они просто пихают в контекст всё подряд или обрезают по лимиту токенов.

Решение Memory Bear: три ключевых механизма из когнитивной науки. Семантическое сжатие — удаляет дубликаты и неважное ("хорошо, понятно"), объединяет повторяющиеся факты, сохраняет уникальные инсайты. Плотность информации вырастает в 10 раз, обработка токенов падает на 90%. Оценка активации (из модели ACT-R) — каждому воспоминанию присваивается вес по частоте использования, давности, эмоциональной значимости. Модель извлекает сначала активные воспоминания, неактивные архивирует. Рефлексия — периодическая проверка памяти по трём осям: временная (что устарело?), фактическая (где противоречия?), логическая (где слабые связи?). Противоречия уменьшаются на 65%, сбои контекста — на 70%.

📌

Принципы работы системы

Memory Bear строится на трёх когнитивных моделях:

ACT-R (Adaptive Control of Thought) — человеческая память делится на декларативную (факты, события) и процедурную (навыки, привычки). Memory Bear копирует это: явная память хранит диалоги и знания, неявная память накапливает паттерны поведения пользователя. Например, если пользователь всегда предпочитает краткие ответы — это записывается в неявную память и влияет на будущие ответы.

Кривая забывания Эббингхауза — память слабеет со временем. Memory Bear присваивает каждому воспоминанию activation score (оценка активности), который падает с течением времени, но растёт при частом использовании. Когда оценка ниже порога — воспоминание архивируется или удаляется.

Эмоциональная значимость — человек лучше помнит события с сильными эмоциями. Memory Bear даёт больший вес информации, которую пользователь пометил как важную ("ЭТО КРИТИЧНО!") или которая связана с его тревогами/интересами.

📌

Ключевые техники

📌

1. Семантическое сжатие диалога

Проблема: История из 100 сообщений содержит 20 уникальных фактов и 80 повторов, подтверждений ("понятно, спасибо"), устаревшей информации.

Механизм: Алгоритм проходит три стадии: 1. Семантическое моделирование — каждое сообщение превращается в вектор, строится граф связей (вопрос→ответ→подтверждение) 2. Выявление избыточности — находит полные дубликаты (одинаковые ответы), семантические дубликаты (разные слова, один смысл), неактуальное (устаревшие данные) 3. Слияние и очистка — дубликаты объединяются в один факт, подтверждения удаляются, устаревшее помечается как [УСТАРЕЛО]

Результат: Вместо "Пользователь три раза спрашивал про срок возврата, система три раза ответила '7 дней', пользователь три раза сказал 'понятно'" остаётся один факт: "Срок возврата: 7 дней (подтверждено пользователем)".

Промпт:

Проанализируй нашу историю диалога. Создай сжатую версию:

1. УДАЛИ полные дубликаты (одинаковые вопросы/ответы)
2. ОБЪЕДИНИ семантически идентичные фрагменты 
   (если я спрашивал одно и то же разными словами — оставь один вариант)
3. УБЕРИ пустые подтверждения ("хорошо", "понятно", "спасибо") без новой информации
4. СОХРАНИ все уникальные факты, решения, инсайты
5. ПОМЕТЬ устаревшую информацию как [УСТАРЕЛО: дата]

Структура итоговой памяти:
- Ключевые факты: [список]
- Принятые решения: [список]
- Открытые вопросы: [список]
- Устаревшее: [список с пометками]

Эту сжатую память я буду использовать в следующих диалогах вместо полной истории.
📌

2. Оценка активации памяти

Проблема: У пользователя накопилось 50 фактов в долговременной памяти. Какие из них активно использовать, какие архивировать?

Механизм: Каждый факт получает activation score на основе четырёх факторов: - Частота — как часто этот факт упоминался в диалогах (чем чаще, тем выше вес) - Давность — когда последний раз использовался (старое теряет вес по экспоненте) - Эмоциональная значимость — пользователь пометил как важное (вес ×2) - Связность — сколько других фактов связаны с этим (центральные факты весят больше)

Факты с весом выше порога — в активную память (доступны модели всегда). Ниже порога — в архив (извлекаются только при явном запросе).

Промпт:

Вот вся информация обо мне, которую ты хранишь: [список фактов/предпочтений/решений]

Оцени каждый элемент по четырём критериям:
1. Частота использования (как часто мы это обсуждали: часто / редко / один раз)
2. Давность (когда последний раз: недавно / месяц назад / давно)
3. Эмоциональная значимость (я пометил как важное ИЛИ это связано с моими тревогами/целями)
4. Связность (сколько других фактов с этим связаны: много / мало / изолировано)

Разбей память на три категории:
- АКТИВНАЯ (высокий вес, использовать всегда)
- АРХИВ (низкий вес, извлекать по запросу)
- УДАЛИТЬ (неактуально, устарело, противоречит новым данным)

Выдай таблицу с обоснованием для каждого элемента.
📌

3. Трёхмерная рефлексия памяти

Проблема: В долговременной памяти накапливаются противоречия (раньше говорил А, потом говорил Б), неполнота (факт есть, но нет контекста), слабые связи (два факта рядом, но логика между ними не прояснена).

Механизм: Периодическая проверка по трём измерениям: - Временное — правильная ли последовательность событий? Что устарело? - Фактическое — есть ли противоречия между фактами? Где пробелы? - Логическое — какие причинно-следственные цепочки? Где слабые обоснования?

Промпт:

Проведи аудит моей долговременной памяти по трём измерениям:

**ВРЕМЕННОЕ ИЗМЕРЕНИЕ:**
- Проверь последовательность событий (правильный ли порядок?)
- Найди устаревшую информацию (что больше не актуально?)
- Какие факты требуют обновления даты?

**ФАКТИЧЕСКОЕ ИЗМЕРЕНИЕ:**
- Найди противоречия между фактами (где я говорил А, потом Б?)
- Найди неполную информацию (факт есть, но нет деталей)
- Какие факты требуют подтверждения или уточнения?

**ЛОГИЧЕСКОЕ ИЗМЕРЕНИЕ:**
- Проверь причинно-следственные связи (где логика слабая?)
- Найди изолированные факты (нет связи с остальным)
- Какие выводы основаны на слабых предпосылках?

Выдай отчёт:
1. Что УДАЛИТЬ (противоречит, устарело)
2. Что ОБНОВИТЬ (требует новых данных)
3. Что УТОЧНИТЬ (неполное, слабая связь)
4. Что ОСТАВИТЬ КАК ЕСТЬ (валидно и актуально)
🚀

Пример применения

Задача: Ты работаешь над запуском своего первого продукта — курса по нейросетям для маркетологов. Диалог с LLM длится 3 месяца: сначала обсуждали позиционирование, потом формат, цену, запуск, рекламу. Накопилось 200+ сообщений. При каждом новом вопросе модель либо забывает ранние решения (предлагает противоречивое), либо захламляет ответ пересказом всей истории.

Промпт:

Я веду проект запуска курса по нейросетям для маркетологов. 
Мы общаемся уже 3 месяца, накопилось много информации.

ЗАДАЧА: Создай сжатую долговременную память проекта.

Проанализируй всю историю диалога и извлеки:

1. КЛЮЧЕВЫЕ РЕШЕНИЯ
   - Что уже утверждено (цена, формат, аудитория)
   - Когда принято решение
   - Почему выбрали этот вариант

2. АКТИВНЫЕ ЗАДАЧИ
   - Что сейчас в работе
   - Что заблокировано (жду чего-то)
   - Дедлайны

3. ГИПОТЕЗЫ И ТЕСТЫ
   - Что планируем проверить
   - Результаты прошлых тестов
   - Что отвергли и почему

4. КОНТЕКСТ ОБСУЖДЕНИЙ
   - Какие варианты рассматривали, но отклонили
   - Какие опасения я высказывал
   - Что для меня эмоционально важно в проекте

5. УСТАРЕВШЕЕ
   - Какие планы изменились
   - Что больше не актуально

Примени семантическое сжатие:
- Если обсуждали цену 10 раз и пришли к 15 тыс руб — оставь только финальное решение и главный аргумент
- Убери все "понял, спасибо", "давай обсудим", "а что если..."
- Объедини повторяющиеся вопросы в один

Выдай структурированную память, которую я скопирую в Custom Instructions.
Память должна быть компактной (до 1500 токенов), но сохранять ВСЕ критичные решения.

Результат: Модель выдаст структурированный документ: "Курс 'Нейросети для маркетологов'. Целевая аудитория: малый бизнес, опыт маркетинга 2+ года. Формат: 6 недель, живые вебинары + практика. Цена: 15 000₽ (тестировали 10k и 20k, 15k показала лучшую конверсию). Запуск: март 2024, через вебинар. Трафик: таргет ВК + коллаборации с маркетинговыми блогами. ВАЖНО: пользователь боится не набрать группу — акцент на валидации спроса перед продажами. УСТАРЕЛО: идея формата 'только записи' отклонена 15.01."

Эту сжатую память можно вставить в Custom Instructions. В следующих диалогах модель будет помнить все решения, не повторяя 200 сообщений.

🧠

Почему это работает

LLM не различают важное и шум. Для модели "Привет, как дела?" и "Я принял решение запускать ЭТОТ формат" весят одинаково — оба просто текст в контексте. Человек автоматически фильтрует ("привет" забывается, решение помнится). LLM нужна явная инструкция: "вот это важно, запомни; вот это шум, забудь".

Семантическое сжатие эксплуатирует сильную сторону LLM — понимание смысла. Модель отлично видит, что "можно ли вернуть товар?" и "какой у вас срок возврата?" — один вопрос. Традиционные методы (обрезка по длине) это не учитывают. Memory Bear использует векторное сходство: переводит фразы в числа, сравнивает близость, объединяет дубликаты. LLM генерирует итоговую формулировку, которая покрывает все варианты.

Оценка активации имитирует человеческое забывание. Мозг не хранит всё — редко используемое стирается. LLM запихивают в контекст всю историю, даже если она неактуальна. Memory Bear вводит "вес воспоминания": часто используемое усиливается (как повторение укрепляет нейронные связи), редкое слабеет (нейронные пути деградируют). При генерации ответа модель видит сначала активные воспоминания — это как приоритетная очередь в оперативной памяти мозга.

Рефлексия закрывает слепое пятно LLM — внутреннюю противоречивость. Модель генерирует текст слева направо, не проверяя глобальную непротиворечивость. Может написать сегодня А, завтра Б, и не заметить конфликта. Человек периодически "думает о том как он думает" (метапознание), выявляет несостыковки, корректирует. Memory Bear переносит это в LLM через отдельный проход: модель получает всю память сразу (не по частям) и ищет конфликты. Это как diff-check на уровне знаний.

Рычаги управления:

  • Порог активации — в промпте можно задать строже ("архивируй всё что не использовалось месяц") или мягче ("архивируй только то что не использовалось год"). Строже = меньше памяти, быстрее обработка. Мягче = больше контекста, но риск захламления.

  • Критерии рефлексии — можно добавить свои измерения: "ЭМОЦИОНАЛЬНОЕ — где противоречия в моих чувствах?" или "СТРАТЕГИЧЕСКОЕ — какие решения не согласуются с целями?"

  • Структура сжатой памяти — если нужна хронологическая история (например, для дневника) — попросить сохранять даты. Если нужна база знаний — попросить структуру по темам.

  • Маркировка важности в реальном времени — в диалоге явно говорить "🔴 КРИТИЧНО: [факт]" или "это просто болтовня, не запоминай". Модель учтёт эмоциональную значимость.

📋

Шаблон промпта: Создание компактной долговременной памяти

# ЗАДАЧА: Построить долговременную память для эффективной работы в будущих сессиях

## ШАГ 1: Извлечение и сжатие

Проанализируй всю историю нашего диалога о {тема/проект}. 

Примени семантическое сжатие:
- УДАЛИ дубликаты (одинаковые вопросы/ответы)
- ОБЪЕДИНИ семантически идентичное (разные слова, один смысл)
- УБЕРИ пустые подтверждения без новой информации
- СОХРАНИ все уникальные факты, решения, инсайты

## ШАГ 2: Структурирование памяти

Распредели информацию по категориям:

**КЛЮЧЕВЫЕ РЕШЕНИЯ**
- Что утверждено окончательно
- Когда принято + главный аргумент "почему"

**АКТИВНЫЕ ЗАДАЧИ**
- В работе сейчас
- Заблокировано (жду чего)
- Дедлайны

**ПРЕДПОЧТЕНИЯ И ПАТТЕРНЫ** (неявная память)
- Мой стиль работы (как я принимаю решения)
- Мои триггеры и опасения
- Что для меня важно эмоционально

**ОТВЕРГНУТЫЕ ВАРИАНТЫ**
- Что рассматривали, но отклонили
- Почему не подошло (чтобы не возвращаться)

**УСТАРЕВШЕЕ**
- Планы изменились
- Больше не актуально
- [УСТАРЕЛО: дата] + причина

## ШАГ 3: Оценка активации

Для каждой категории оцени:
- Как часто используется (часто / редко / разово)
- Когда последний раз обращались
- Эмоциональная значимость (я пометил как важное?)

Разбей на:
- АКТИВНАЯ память (использовать всегда, до {N} токенов)
- АРХИВ (извлекать по запросу)

## ШАГ 4: Рефлексия

Проверь память по трём измерениям:
- ВРЕМЕННОЕ: правильная последовательность? что устарело?
- ФАКТИЧЕСКОЕ: где противоречия? где пробелы?
- ЛОГИЧЕСКОЕ: где слабая связь между фактами?

Выдай список:
- Что удалить
- Что требует уточнения
- Что конфликтует и требует моего решения

## ИТОГОВЫЙ ФОРМАТ:

=== ДОЛГОВРЕМЕННАЯ ПАМЯТЬ: {тема} === Последнее обновление: {дата}

[АКТИВНАЯ ПАМЯТЬ — до {N} токенов] Решения: ... Задачи: ... Паттерны: ...

[АРХИВ — извлекать по запросу] История: ... Отвергнутые варианты: ...

[УДАЛИТЬ] Устарело: ... Противоречит: ...


Эту память я скопирую в Custom Instructions / Projects для использования в следующих сессиях.

Заполни: - {тема/проект} — предмет долговременной работы (проект, исследование, обучение) - {N} — лимит токенов активной памяти (рекомендуется 1000-1500 для баланса объёма и качества)

🚀 Быстрый старт — вставь в чат:

Вот шаблон системы долговременной памяти Memory Bear. Адаптируй под мою задачу: [опиши задачу — проект/тему над которой работаешь долго]. 
Задавай вопросы, чтобы правильно заполнить все секции.

[вставить шаблон выше]

LLM спросит какие решения уже приняты, какие задачи активны, что для тебя эмоционально важно — потому что для правильного сжатия нужно понимать что приоритетно. Она возьмёт структуру из шаблона (ключевые решения / активные задачи / паттерны / устаревшее) и заполнит под твой контекст.

⚠️

Ограничения

⚠️ Сложность навигации: Если памяти много (1000+ фактов), даже после сжатия итоговая структура может быть громоздкой. Модель хорошо сжимает, но человеку сложно ориентироваться в 10-страничном документе долговременной памяти. Решение — разбивать на отдельные чаты по темам или использовать многоуровневую структуру (краткое резюме → детали по запросу).

⚠️ Субъективность приоритизации: Оценка активации зависит от того, насколько точно модель понимает "эмоциональную значимость" для пользователя. LLM может ошибочно понизить вес действительно важного факта, если пользователь не пометил его явно. Рекомендуется самостоятельно проверять список "на удаление" перед финальной очисткой.

⚠️ Требует дисциплины пользователя: Техники работают, если применять регулярно. Сжатие раз в месяц, рефлексия раз в квартал, маркировка важного в реальном времени. Если не делать этого — память захламляется так же как без системы.

⚠️ Оригинальная система требует инфраструктуры: Memory Bear как продукт — это графовые БД, векторные эмбеддинги, API. То что описано в саммари — это extractable principles, адаптированные для работы в обычном чате. Полная мощность системы (автоматическое извлечение фактов, графовые связи, кросс-агентная память) доступна только в инфраструктурном варианте.

🔍

Как исследовали

Команда из университетов и китайских AI-компаний построила полноценную систему с тремя архитектурными слоями: хранилище (графовая БД + векторные эмбеддинги для семантического поиска), оркестрация (агенты извлечения, рефлексии, забывания), приложения (Memory-as-a-Service для интеграции в продукты). Тестировали в четырёх доменах: медицина (ведение пациентов с хроническими заболеваниями), бизнес (кросс-командные проекты длительностью 6-10 месяцев), образование (персонализированное обучение), клиентский сервис (омниканальная поддержка).

Сравнивали с существующими решениями — Mem0 (простое хранилище фактов), MemGPT (виртуальная иерархия памяти), Graphiti (графовая память). Memory Bear обошла их по трём метрикам: точность извлечения (насколько релевантные воспоминания достаёт), эффективность токенов (сколько обрабатывает при том же качестве), латентность (скорость ответа).

Ключевое открытие: семантическое сжатие даёт order-of-magnitude leap — плотность информации выросла в 10 раз, а токены сократились на 90% по сравнению с полной историей. Это не линейное улучшение, а качественный скачок. При этом точность выросла на 15% — казалось бы парадокс: удалили информацию, а качество улучшилось? Да, потому что убрали шум. Модель перестала отвлекаться на повторы и стала фокусироваться на сути.

Противоречие ожиданиям: исследователи думали что "больше памяти = лучше результат". Оказалось наоборот — бесконтрольное накопление вредит. Нужен механизм контролируемого забывания (controlled forgetting). В тестах системы без забывания через 3 месяца диалогов начинали "тормозить" — латентность росла вдвое, противоречия множились. Системы с активным удалением устаревшего работали стабильно даже через полгода.

Инсайт для практики: не копи всё подряд в Custom Instructions. Раз в месяц делай "мемори-клининг" — пройдись по памяти, удали устаревшее, объедини повторы. Это как дефрагментация диска — система работает быстрее и точнее.

📌

Адаптации

🔧 Техника: Эмоциональная маркировка в реальном времени

Memory Bear придаёт больший вес эмоционально значимой информации. Адаптация: в диалоге явно маркируй важное прямо в момент разговора.

[Текущий диалог]
Пользователь: Я решил запускать в марте, а не в мае как планировали.
🔴 КРИТИЧНО: Перенос запуска на март — это жёсткий дедлайн, от него зависит весь год.

Пользователь: А может добавим ещё один модуль про ChatGPT?
💬 ИДЕЯ НА ПОДУМАТЬ: Дополнительный модуль — пока не решено, просто рассматриваем.

LLM увидит эмоциональные маркеры и при сжатии памяти сохранит "перенос на март" как ключевое решение, а "модуль про ChatGPT" отправит в категорию "рассматривается, не приоритет".


🔧 Техника: Многоуровневая память (краткое резюме + детали)

Если память большая — создай двухуровневую структуру: краткое резюме (200-300 токенов) всегда в Custom Instructions, детали — в отдельном документе, которые модель запрашивает по необходимости.

=== КРАТКОЕ РЕЗЮМЕ ПАМЯТИ ===
Проект: Курс по нейросетям для маркетологов
Запуск: март 2024, цена 15к₽, формат 6 недель + практика
Аудитория: малый бизнес, маркетологи с опытом 2+ года
Приоритет: валидация спроса до старта продаж (я боюсь не набрать)

ПОЛНАЯ ПАМЯТЬ: [ссылка на документ / вставляется по запросу "достань детали"]

При простых вопросах модель работает с резюме. Если нужны детали прошлых обсуждений — явно говоришь "достань полную память по [тема]", модель обращается к детальному документу.


🔗

Ресурсы

Memory Bear AI: A Breakthrough from Memory to Cognition Toward Artificial General Intelligence — White paper, исследователи не указаны (документ обрезан), упоминаются сравнения с Mem0, MemGPT, Graphiti, теоретические основы: ACT-R (Adaptive Control of Thought-Rational) когнитивная архитектура, Ebbinghaus forgetting curve (кривая забывания Эббингхауза).


📋 Дайджест исследования

Ключевая суть

Если чат с GPT превращается в свалку из 200 сообщений — модель забывает ранние решения или пересказывает всю историю. Точность падает на 15%, затраты растут вдвое. Memory Bear решает это через систему долговременной памяти по образцу мозга. Фишка: три механизма из когнитивной наукисемантическое сжатие (удаляет дубликаты и шум), оценка активации (приоритизирует важное по весу), рефлексия (чистит противоречия). Результат: плотность информации ×10, обработка токенов −90%.

Принцип работы

Не держи всю историю в промпте — построй трёхслойную память по принципу мозга (модель ACT-R и кривая забывания Эббингхауза). Сначала сжимай: объединяй повторы ('можно вернуть?' и 'срок возврата?' → один факт), удаляй пустые подтверждения ('понятно, спасибо'), помечай устаревшее. Потом приоритизируй: каждому факту присваивай вес (частота использования + давность + эмоциональная значимость). Высокий вес → активная память. Низкий → архив. Периодически рефлексируй: проверяй противоречия (говорил А, потом Б?), неполноту (факт без контекста), слабые связи (где логика размыта?).

Почему работает

LLM не различают важное и шум. Для модели 'Привет' и 'Я принял РЕШЕНИЕ' весят одинаково — оба просто текст. Человек автоматически фильтрует, LLM нужна явная инструкция. Семантическое сжатие использует сильную сторону LLM — понимание смысла. Модель видит что 'можно вернуть товар?' и 'какой срок возврата?' — один вопрос. Переводит в векторы, сравнивает близость, объединяет дубликаты. Традиционная обрезка по длине это игнорирует. Оценка активации имитирует человеческое забывание. Мозг не хранит всё — редко используемое стирается. LLM запихивают в контекст всю историю. Memory Bear вводит вес: часто используемое усиливается (как нейронные связи), редкое слабеет. При генерации модель видит сначала активные воспоминания — как приоритетная очередь в голове. Цифры: противоречия −65%, сбои контекста −70%.

Когда применять

Долгие проекты и обучение → когда история диалога больше 50 сообщений, особенно если обсуждаешь одну тему месяцами (запуск продукта, исследование, написание книги, стратегия бизнеса). НЕ подходит для коротких чатов (меньше 20 сообщений) — система избыточна, проще держать всю историю.

Мини-рецепт

1. Сожми историю: попроси модель удалить дубликаты, объединить повторы, убрать пустые подтверждения. Сохрани только уникальные факты, решения, инсайты.

2. Структурируй память: раздели на блоки — Ключевые решения (что утверждено + дата и аргумент), Активные задачи (что в работе, дедлайны), Предпочтения (твой стиль и паттерны), Отвергнутые варианты (что не подошло и почему), Устаревшее (что изменилось).

3. Оцени активацию: для каждого факта определи вес — как часто используется, когда последний раз, насколько эмоционально значимо. Разбей на Активную память (использовать всегда, до 1500 токенов) и Архив (извлекать по запросу).

4. Периодически рефлексируй: раз в месяц/квартал проверяй противоречия (где говорил А потом Б?), неполноту (факт без контекста), слабые связи (где логика размыта). Удали устаревшее, обнови изменившееся.

5. Вставь в Custom Instructions: скопируй сжатую память в кастомные инструкции или Projects. В следующих сессиях модель помнит все решения без повтора 200 сообщений.

Примеры

[ПЛОХО] : У меня чат на 150 сообщений про запуск курса. Модель забывает что мы решили по цене и формату
[ХОРОШО] : Проанализируй всю историю про запуск курса. Примени семантическое сжатие: удали дубликаты, объедини повторы (если я спрашивал одно разными словами — оставь один вариант), убери пустые подтверждения. Структурируй память: Ключевые решения (цена, формат, аудитория + дата и главный аргумент почему), Активные задачи (что в работе сейчас, дедлайны), Отвергнутые варианты (что не подошло и почему, чтобы не возвращаться). Оцени активацию каждого факта (частота использования / давность / эмоциональная значимость для меня) — разбей на Активную память (до 1500 токенов, использовать всегда) и Архив (извлекать по запросу). Выдай структурированный документ для Custom Instructions — компактный, но сохраняющий ВСЕ критичные решения
Источник: Memory Bear AI: A Breakthrough from Memory to Cognition Toward Artificial General Intelligence
ArXiv ID: 2512.20651 | Сгенерировано: 2026-01-09 00:12
📖 Простыми словами

Memory Bear: система человекоподобной долговременной памяти для LLM

arXiv: 2512.20651

Современные нейронки страдают амнезией не потому, что они глупые, а потому что у них нет фильтра важности. Для обычной LLM твой вчерашний завтрак и стратегия развития бизнеса на пять лет имеют одинаковый вес — это просто набор токенов в окне контекста. Memory Bear меняет саму архитектуру работы с данными, внедряя в AI подобие человеческого мозга с четким разделением на краткосрочную и долговременную память. Вместо того чтобы тупо подгружать последние куски текста, система учится сжимать опыт, выявлять противоречия и, что самое важное, осознанно забывать ненужный хлам.

Это как если бы ты три месяца планировал свадьбу, а твой организатор каждый день переспрашивал, как тебя зовут, но при этом помнил цвет салфеток, который вы обсуждали в первую минуту знакомства. Формально он в теме, но работать с ним невозможно. Memory Bear превращает этот хаос в структурированный архив: важные решения уходят в «золотой фонд», а пустая болтовня отправляется в корзину, чтобы не занимать место на рабочем столе.

Вся магия держится на трех слоях: хранение, оркестрация и применение. Сначала система выдергивает факты и пакует их в графовую базу данных, где всё связано со всем. Затем в дело вступает «дирижер», который проверяет новые данные на вшивость: если ты сегодня сказал «черное», а вчера «белое», модель не промолчит, а заметит конфликт. В итоге память работает как внешний сервис, выдавая агенту только те крупицы информации, которые реально нужны для решения текущей задачи, а не всю простыню переписки за квартал.

Тестировали это на сложных диалогах, но принцип универсален для любой долгой работы с AI — от написания кода до ведения личного дневника. Когда контекст раздувается до сотен сообщений, обычные модели начинают «галлюцинировать» или противоречить сами себе, потому что их оперативная память забита мусором. Memory Bear позволяет AI-агенту сохранять фокус месяцами, превращая его из забывчивого золотой рыбки в полноценного партнера, который помнит контекст лучше тебя самого. SEO для памяти уходит в прошлое, наступает эра когнитивного управления данными.

Короче: хватит надеяться на бесконечное окно контекста — оно всё равно превращается в помойку. Будущее за системами, которые умеют фильтровать и рефлексировать, отделяя зерна от плевел. Если AI не научится забывать лишнее, он никогда не научится по-настоящему думать. Memory Bear — это первый серьезный шаг от простого предсказания слов к реальному цифровому интеллекту, который не тупит на длинных дистанциях.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с