3,583 papers
arXiv:2505.14925 95 1 мая 2025 г. PRO

Слишком долго не модель распада LLM долгий контекст понимание с романами

КЛЮЧЕВАЯ СУТЬ
Современные LLM имеют ОГРОМНУЮ РАЗНИЦУ между заявленным контекстным окном (1M+ токенов) и реальным эффективным окном для сложных задач (~64k токенов). Больше контекста не значит лучше – избыточная информация создает шум и снижает качество ответов. КЛЮЧЕВОЙ ПРИНЦИП: подавай только релевантную часть документа, а не весь текст целиком.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с