3,583 papers
arXiv:2512.09222 74 9 дек. 2025 г. PRO

CORE: персистентное концептуальное состояние вместо повтора истории

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM забывает всё после каждого ответа. Внутренние представления (что поняла модель, какая задача, какие ограничения) исчезают. Отсюда проблема длинных диалогов — приходится повторять всю историю, промпт растет, модель дрейфует. CORE позволяет вести мультитёрновые задачи без роста промпта — модель не забывает контекст между вызовами, не скатывается с "сравнения" в "общие объяснения". Фишка: выносит состояние задачи наружу — в файл или заметку. Вместо повтора истории передаешь модели только компактное состояние (суть задачи, ограничения, промежуточные результаты) + явный когнитивный оператор ("сравни", "разбей на части", "уточни ограничения"). Экономия ~42% токенов, но главное — модель стабильно держит курс в длинных задачах.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с