3,583 papers
arXiv:2603.05890 74 6 мар. 2026 г. PRO

Потери в середине: где и почему LLM теряет нить в длинных текстах

КЛЮЧЕВАЯ СУТЬ
Длинный текст разваливается не в конце — строго на 40–60% от общей длины. Исследование ConStory-Bench это измерило: в точках ошибок модель сама генерирует с 12–19% большей неуверенностью, чем в среднем по тексту. Метод «факт-библия + чекпойнт» позволяет писать длинные тексты — главы, сценарии, лонгриды — без внутренних противоречий: персонаж не молодеет к пятой главе и не держит меч рукой, на которой нет шрама. Фишка: факт-библия в начале промпта фиксирует ключевые детали, а явная пауза на 50% текста заставляет модель сверить написанное с фактами — вместо того чтобы «изобретать» их заново из всё слабеющей памяти о начале.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с