3,583 papers
arXiv:2511.17208 82 21 нояб. 2025 г. PRO

Event-Centric Memory (EMem): организация памяти LLM через события, а не факты

КЛЮЧЕВАЯ СУТЬ
Парадокс долговременной памяти LLM: как хранить историю из десятков сессий? Сжимаешь в summary - теряешь детали ('на какой конференции?'). Дробишь на факты ('Боб-посетил-X', 'X-в-Токио') - нужно найти и связать три штуки для простого вопроса. EMem (Event-Centric Memory) позволяет хранить всю историю диалогов через самодостаточные события - один retrieval шаг вместо сборки по кускам. Вместо трёх фактов один EDU: 'Боб провёл пять дней в Токио в марте 2024 на Global AI Innovation Symposium 2024, выступил с докладом о multimodal learning'. Все аспекты события (кто-что-где-когда-зачем) упакованы в одну единицу памяти с нормализованными сущностями.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с