3,583 papers
arXiv:2508.15437 70 24 авг. 2025 г. PRO

Feedback-Driven Retrieval: как итеративно улучшать поиск информации через обратную связь

КЛЮЧЕВАЯ СУТЬ
LLM проваливает поиск не потому что плохо ищет, а потому что изначальный запрос расплывчат. Спрашиваешь «цены на квартиры» — модель не знает интересует тебя аренда или покупка, центр или окраины, динамика или текущие цифры. Пока не увидишь первые результаты — не понимаешь чего именно не хватает. Feedback-Driven Retrieval позволяет получать точные ответы на сложные вопросы через циклы уточнения: модель сама решает когда нужен новый раунд поиска вместо одноразового «найди → ответь». Фишка: модель анализирует первые результаты и переформулирует запрос — второй поиск фокусируется на пробелах из первого раунда. Или модель чувствует неуверенность (низкая вероятность токенов при генерации) и сама триггерит дополнительный поиск. Исследования показали: динамический поиск (модель решает когда искать) точнее фиксированного одноразового.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с