3,583 papers
arXiv:2509.12765 68 16 сент. 2025 г. PRO

InfoGain-RAG: Улучшение генерации с дополненным поиском с помощью переранжирования и фильтрации на основе информационной выгоды документа

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически чувствительны к информационному шуму в контексте — даже релевантные по ключевым словам документы могут снижать точность ответа на 40%, если содержат противоречия или «воду». InfoGain-RAG позволяет подавать в промпт только тот контекст, который реально увеличивает уверенность модели в правильном ответе, отсеивая семантически похожий, но бесполезный или вредный текст. Метод оценивает каждый фрагмент не по совпадению слов с запросом, а по приросту информации (DIG) — насколько он помогает модели дать верный ответ. Результат: вместо 20 документов «про то же самое» модель получает 3 документа, которые действительно решают задачу, — точность растет с 67% до 89% в задачах question-answering.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с