3,583 papers
arXiv:2509.08596 65 10 сент. 2025 г. PRO

LLMEnsemble для RAG: Роль длины контекста в вопросно-ответной системе с нулевым обучением для соревнования BioASQ

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически теряет точность, когда получает слишком много контекста — полный текст статьи работает хуже, чем 2-3 ключевых абзаца. Это явление называется «информационная дилюция» (information dilution) — модель рассеивает внимание на нерелевантных деталях и пропускает важное. Решение: станьте куратором информации для LLM — вручную отбирайте только самые релевантные фрагменты перед отправкой в промпт, вместо копирования целых документов.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с