3,583 papers
arXiv:2509.21865 78 26 сент. 2025 г. PRO

За пределами RAG против длинного контекста: обучение извлечению, осознающему отвлекающие факторы, для эффективного обоснования знаний

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически теряет точность не от недостатка информации, а от её избытка — даже релевантные фрагменты документа могут «отвлекать» и создавать противоречия, приводя к ошибкам. Метод LDAR позволяет автоматически отсекать информационный шум — подавать модели не весь документ и не случайные куски, а точно выверенный набор фрагментов, достаточный для ответа, но без путаницы. Ключ в том, что система учится различать «полезный контекст» и «отвлекающий контекст» — даже если оба релевантны теме. Модель получает distraction-aware retrieval: например, из 20-страничного отчёта выбираются только 3 абзаца, которые вместе дают чёткий ответ, без противоречий и лишних деталей — точность выросла на 15-23% по сравнению с подачей всего документа.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с