3,583 papers
arXiv:2511.12960 72 17 нояб. 2025 г. PRO

ENGRAM: три типа памяти для длинных диалогов с LLM

КЛЮЧЕВАЯ СУТЬ
Парадокс: LLM проваливается на длинном контексте — подаёшь 16K токенов истории, модель «тонет» в середине (lost-in-the-middle) и забывает важное. ENGRAM позволяет держать длинные диалоги без потери контекста через разделение на три типа памяти: события, факты, инструкции. Фишка: поиск идёт в каждом типе отдельно — события не конкурируют с фактами, инструкции не теряются в историях. Результат: 77.55% точности при использовании ~1% токенов (~900 вместо 16K).
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с