3,583 papers
arXiv:2512.04307 73 3 дек. 2025 г. PRO

Long-Context Web Agents: почему агенты теряют цель в длинных диалогах

КЛЮЧЕВАЯ СУТЬ
Длинный диалог убивает память LLM: при 25k-150k токенов (примерно 50-300 сообщений) успешность выполнения задач падает с 40-50% до менее 10%. Причём это касается всех топовых моделей – Claude-3.7, GPT-4.1, даже o4-mini с 'extended thinking'. Implicit RAG позволяет агенту не терять цель в длинных сессиях через явное извлечение информации из истории. Разбиение на два шага: сначала 'вспомни и зафиксируй' (модель генерирует краткое саммари относительно текущей задачи), потом 'используй это для действия'. Вместо одного запроса 'вспомни ТО и сделай ЭТО' – два последовательных. Даёт +5-15% успешности на 150k токенов.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с