3,583 papers
arXiv:2509.24869 83 29 сент. 2025 г. PRO

Retro*: Оптимизация больших языковых моделей для поиска документов, требующего интенсивного рассуждения

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически плохи в оценке релевантности документов для сложных запросов, когда связь неочевидна — отсюда вечная проблема RAG-систем с выдачей нерелевантного контекста. Retro* позволяет превратить LLM в эксперта-оценщика, который анализирует документы не по совпадению слов, а по четким критериям соответствия задаче. Метод заменяет поиск на структурированную оценку: модель получает рубрику (как экзаменатор получает критерии проверки работы) — определение релевантности + шкалу 0-100 + пошаговый алгоритм анализа. Результат: +40% точности в задачах, где нужно найти документ для рассуждений, а не для прямого ответа.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с