3,583 papers
arXiv:2605.12922 74 13 мая 2026 г. PRO

Attention Decay: почему LLM теряет ваши инструкции на 20-м сообщении — и что с этим делать

КЛЮЧЕВАЯ СУТЬ
Обнаружено: внимание модели к вашим инструкциям рушится не постепенно — сильнее всего оно падает в первые 10 сообщений, а к ходу 19–23 правила из начала переписки практически исчезают из её поля зрения. Метод периодического восстановления контекста позволяет работать в длинных сессиях так, будто вы только что открыли новый чат. Каждые 10–12 ходов вставляешь пронумерованный список ключевых правил — и модель снова смотрит на них напрямую, а не пытается достать из внутренних резервов. Ключевой нюанс: атомарные правила (одна строка = одно утверждение) держатся намного дольше, чем длинные описания роли с кучей условий.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с