3,583 papers
arXiv:2511.00505 65 1 нояб. 2025 г. PRO

Zero-RAG: к генерации с дополненной выборкой без избыточных знаний

КЛЮЧЕВАЯ СУТЬ
Загрузить в LLM всю найденную информацию — прямой путь к ухудшению ответа. Исследование Zero-RAG позволяет получать более точные ответы через радикальное сокращение контекста: удаление из промпта информации, которую модель уже знает. Избыточный контекст работает как шум, который отвлекает модель от использования её внутренних знаний и заставляет «теряться» в море текста. Эксперименты показали: умное прореживание контекста эффективнее, чем предоставление всей потенциально релевантной информации.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с