3,583 papers
arXiv:2511.13900 52 17 нояб. 2025 г. PRO

Что работает для "потери в середине" в LLM? Исследование GM-Extract и мер по смягчению последствий

КЛЮЧЕВАЯ СУТЬ
LLM теряет до 70% точности при поиске информации в середине длинного промпта — не потому что «не понимает», а потому что архитектура внимания создаёт «слепые зоны». Метод позволяет извлекать данные из больших текстов с точностью 85-95% вместо случайных 30-40%. Решение — стратегическое размещение: ключевые инструкции и данные по краям контекста (начало/конец), структурированный формат посередине. Модель отлично понимает что искать (семантика), но плохо ориентируется где это лежит в тексте — вы должны стать архитектором контекста, а не просто «свалить всё в промпт».
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с