3,583 papers
arXiv:2511.20857 74 25 нояб. 2025 г. PRO

Evo-Memory: переиспользование опыта вместо повторения фактов

КЛЮЧЕВАЯ СУТЬ
LLM отлично вспоминает факты из прошлых диалогов ('какое решение получили?'), но катастрофически плохо переиспользует стратегии ('как решали похожие задачи?'). Модель помнит ЧТО получила, но не КАК пришла к ответу — это разница между запоминанием фактов и накоплением опыта. Метод ReMem позволяет накапливать и применять опыт решения задач, а не просто хранить историю диалогов. ReMem добавляет явный шаг рефлексии через цикл Think-Act-Refine. Модель не просто отвечает — она формулирует урок словами после каждого действия. Этот урок становится переиспользуемым знанием для будущих задач. Pearson r=0.72 показывает: чем похожее задачи, тем эффективнее работает переиспользование опыта.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с