3,583 papers
arXiv:2509.19228 65 23 сент. 2025 г. PRO

CompLLM: Сжатие для ответов на вопросы с длинным контекстом

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически теряют качество на длинных документах из-за «размытия внимания» — модель буквально «забывает» важную информацию из середины текста, пытаясь охватить весь контекст сразу. CompLLM решает проблему системно: разбивает документ на независимые сегменты, сжимает каждый отдельно в «умное» представление, затем передает LLM эту концентрированную последовательность вместо громоздкого оригинала. Результат: ускорение обработки в 4 раза + улучшение качества ответов на документах, которые раньше модель просто «не тянула».
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с