3,583 papers
arXiv:2508.07995 93 25 авг. 2025 г. FREE

DIVER: многоэтапный подход для информационного поиска, требующего рассуждений

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM дает поверхностные ответы не потому что «глупая», а потому что ваш запрос слишком общий — модель ищет по нему не те документы и работает с неполным контекстом. DIVER-QExpand позволяет использовать саму LLM как инструмент для улучшения вашего промпта перед получением финального ответа. Вместо схемы «запрос → ответ» используется «запрос → LLM переформулирует → улучшенный запрос → точный ответ». Результат: итеративное расширение запроса превращает размытый вопрос типа «помоги выбрать профессию» в структурированный опросник из 7 пунктов — LLM получает в 5 раз больше релевантного контекста и перестает додумывать за вас.
Адаптировать под запрос
📌

Ключевые аспекты исследования:

Исследование показывает, что для сложных вопросов, требующих рассуждений, простой поиск по ключевым словам или смысловой близости неэффективен. Авторы предлагают многоступенчатый подход DIVER, ключевой частью которого является DIVER-QExpand — процесс, где LLM сама итеративно улучшает исходный запрос пользователя, анализируя предварительно найденные документы, чтобы сделать его более точным и подробным.

Ключевой результат: Итеративное расширение и уточнение запроса с помощью LLM значительно повышает качество поиска релевантной информации, что ведет к более точным и осмысленным ответам.


🔬

Объяснение всей сути метода:

Представьте, что вы задаете сложному чат-боту (вроде ChatGPT Pro или Claude) вопрос: "Как спланировать экологичный отпуск в Европе для семьи с подростками?". Чат-бот, чтобы ответить, сначала ищет информацию в своей базе знаний (этот процесс называется Retrieval-Augmented Generation, RAG). Если ваш запрос слишком общий, он найдет общие статьи про "экотуризм", "отдых с детьми" и "поездки в Европу". В итоге ответ будет поверхностным и неточным.

Суть метода DIVER, а точнее его самой полезной для пользователя части DIVER-QExpand, заключается в том, чтобы не отправлять ваш "сырой" запрос сразу на большой поиск. Вместо этого предлагается умный промежуточный шаг:

  1. Первичный запрос: Вы задаете свой общий вопрос.
  2. "Черновой" поиск и анализ: Система делает быстрый, грубый поиск и отдает результаты (пусть даже не самые удачные) вместе с вашим вопросом другой LLM.
  3. "Мозговой штурм" и переформулировка: Эта вторая LLM, видя ваш запрос и первые найденные документы, рассуждает: "Ага, пользователь хочет не просто отпуск. Ему важны: 1) экологичность (транспорт, жилье), 2) локация (Европа), 3) состав (семья с подростками, значит, нужны развлечения для них). Исходный запрос слишком размыт". После этого она сама генерирует новый, гораздо более подробный и структурированный запрос.
  4. Финальный поиск и ответ: Уже этот новый, "улучшенный" запрос используется для финального, качественного поиска информации. Найденные по нему документы будут гораздо релевантнее, и итоговый ответ чат-бота получится на порядок лучше.

Для обычного пользователя это означает, что вы можете использовать LLM как партнера для улучшения вашего собственного промпта. Вы не просто задаете вопрос, а просите чат-бота помочь вам сформулировать наилучшую версию этого вопроса.


📌

Анализ практической применимости:

  • Прямая применимость: Очень высокая. Любой пользователь может вручную воспроизвести логику DIVER-QExpand в два этапа в любом продвинутом чат-боте:

    1. Шаг 1 (Промпт на расширение): Дать LLM свой первоначальный, "сырой" запрос и попросить переформулировать его в идеальный, подробный промпт для решения этой задачи.
    2. Шаг 2 (Финальный промпт): Скопировать сгенерированный на первом шаге подробный промпт и отправить его в новом чате (или в том же, если контекст не мешает) для получения финального ответа.
  • Концептуальная ценность: Огромная. Исследование учит пользователя ключевой идее: качество ответа LLM напрямую зависит от качества "контекста", который она находит. А качество найденного контекста зависит от качества вашего запроса. Следовательно, самая эффективная стратегия — потратить один промпт на то, чтобы "прокачать" свой основной промпт. Это меняет подход от "вопрос-ответ" к "диалог-уточнение-ответ".

  • Потенциал для адаптации: Метод универсален и применим к любой сложной задаче, где требуется точность и полнота: написание бизнес-плана, выбор образовательного курса, анализ рыночной ниши, создание контент-плана. Механизм адаптации прост: вместо того чтобы сразу просить результат, сначала попросите LLM сгенерировать "идеальный промпт" или "подробный план запроса" для получения этого результата, а затем используйте этот план.


🚀

Практически пример применения:

Представим, что пользователь хочет сменить профессию и приходит к LLM с очень общим запросом.

# ЭТАП 1: Промпт для расширения и уточнения запроса (симуляция DIVER-QExpand)

**Твоя роль:** Опытный карьерный консультант и эксперт по промпт-инжинирингу.

**Моя цель:** Я хочу сменить профессию, но не знаю, с чего начать. Мой текущий запрос очень общий: "Помоги мне выбрать новую профессию".

**Твоя задача:**
Не отвечай на мой общий запрос напрямую. Вместо этого, основываясь на моем запросе, создай идеальный, структурированный и подробный промпт. Этот новый промпт я затем использую, чтобы получить от тебя максимально персонализированные и полезные рекомендации по выбору профессии.

**Структура идеального промпта, который ты должен создать, должна включать следующие разделы для заполнения:**
1.  **Текущая ситуация:** Моя текущая/прошлая профессия, что в ней нравится и не нравится.
2.  **Ключевые навыки:** Что я умею делать хорошо (hard skills и soft skills).
3.  **Интересы и хобби:** Чем я увлекаюсь в свободное время.
4.  **Предпочтения по работе:** Формат (удаленка/офис), желаемый доход, уровень стресса, работа с людьми/данными/объектами.
5.  **Ограничения и страхи:** Что меня останавливает, сколько времени я готов учиться.

Создай этот шаблон промпта в формате markdown, чтобы я мог его скопировать, заполнить и использовать для следующего запроса.

LLM сгенерирует подробный шаблон. Пользователь заполняет его и переходит к Этапу 2.

🧠

Почему это работает:

Этот промпт не просит LLM сразу решить задачу, что привело бы к общим советам вроде "попробуйте IT или дизайн". Вместо этого он использует LLM для рефлексии над самим запросом.

  • Имитация рассуждения (Reasoning): Промпт заставляет LLM "подумать" о том, какая информация необходима для качественного карьерного совета. Это аналог "reasoning chain" из исследования.
  • Итеративное уточнение: Мы разбиваем одну сложную задачу ("выбери мне профессию") на два шага: "сформулируй правильные вопросы" и "ответь на эти вопросы". Это и есть суть итеративного подхода DIVER-QExpand.
  • Создание "идеального документа": Заполненный пользователем шаблон из Этапа 1 становится аналогом "идеально релевантного документа" для LLM на Этапе 2. Модель получает всю необходимую информацию в структурированном виде, что позволяет ей дать глубокий и персонализированный ответ, а не галлюцинировать.

📌

Другой пример практического применения

Задача: Пользователь хочет составить план питания для похудения.

# ЭТАП 1: Промпт для создания "идеального запроса"

**Роль:** Ты — профессиональный диетолог и нутрициолог.

**Мой запрос:** "Составь мне план питания для похудения".

**Твоя задача:**
Это слишком общий запрос. Не составляй план питания сейчас.
Твоя задача — помочь мне сформулировать идеальный промпт для тебя же. Создай подробный опросник в формате markdown, который я должен буду заполнить. Этот опросник, когда я его заполню и отправлю тебе, станет идеальным промптом для создания персонализированного плана питания.

**Опросник должен включать как минимум:**
- Мои антропометрические данные (возраст, пол, рост, вес, желаемый вес).
- Уровень физической активности (сколько раз в неделю тренируюсь, сидячая/активная работа).
- Пищевые предпочтения (что люблю, что не люблю).
- Аллергии и ограничения (непереносимость лактозы, вегетарианство и т.д.).
- Текущий рацион (пример моего обычного дня).
- Цели и сроки (сколько кг и за какой период хочу сбросить).
- Бюджет на продукты.

Сгенерируй этот опросник.
🧠

Объяснение механизма почему этот пример работает.

Этот подход эффективен, потому что он решает главную проблему RAG-систем и LLM в целом — недостаток специфического контекста.

  • Преодоление неоднозначности: Запрос "план питания для похудения" может означать что угодно. Метод DIVER-QExpand, симулированный здесь, заставляет LLM сначала определить, какая именно информация нужна для устранения этой неоднозначности.
  • Активное извлечение информации: Вместо того чтобы пассивно работать с тем, что дал пользователь, LLM активно запрашивает недостающие данные через шаблон-опросник. Это похоже на то, как DIVER использует "document-interactive query expansion" — взаимодействие с информацией (в данном случае, с будущей информацией от пользователя) для уточнения запроса.
  • Структурирование контекста: Заполненный опросник предоставляет LLM всю необходимую информацию в четкой, структурированной форме. Это позволяет модели не додумывать, а работать с фактами, что резко повышает качество и безопасность (что особенно важно в диетологии) итоговой рекомендации.
📌

Оценка полезности: 93

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Очень высокая. Исследование напрямую описывает метод DIVER-QExpand — итеративное расширение и уточнение пользовательского запроса с помощью LLM. В Таблице 1 приведены конкретные шаблоны промптов для этого процесса.
  • B. Улучшение качества диалоговых ответов: Высокая. Весь метод DIVER направлен на улучшение поиска релевантной информации (Retrieval), что является основой для качественных и точных ответов в RAG-системах (которые используют большинство современных чат-ботов). Лучше найденные документы = лучше и правдоподобнее ответ.
  • C. Прямая практическая применимость: Высокая, но с адаптацией. Пользователь не может запустить всю систему DIVER, но может вручную воспроизвести ключевой и самый ценный её компонент — DIVER-QExpand. Это делается в два шага в обычном чате с LLM, без кода и специальных инструментов.
  • D. Концептуальная ценность: Очень высокая. Исследование блестяще доносит идею, что первоначальный запрос пользователя — это не истина в последней инстанции, а лишь отправная точка. Оно учит пользователя использовать LLM не просто как "ответчик", а как "партнера по формулированию идеального вопроса". Это меняет ментальную модель взаимодействия с LLM.
  • E. Новая полезная практика: Работа попадает сразу в несколько кластеров:
    • Кластер 1 (Техники формулирования): Представлен метод итеративного расширения запроса (Query Expansion).
    • Кластер 6 (Контекст и память): Вся суть работы — в улучшении поиска релевантного контекста (RAG) для ответа на сложные вопросы.
    • Кластер 7 (Надежность и стабильность): Улучшенный поиск контекста напрямую снижает галлюцинации и повышает точность ответов.
  • Чек-лист практичности (+15 баллов): Да, исследование дает готовые конструкции для промптов (Таблица 1), показывает, как структурировать сложные запросы (через итеративное уточнение) и раскрывает неочевидную особенность поведения LLM (ее способность улучшать собственные входные данные).
📌

Цифровая оценка полезности

Аргументы за оценку 93: Исследование предлагает не просто "трюк", а целую методологию взаимодействия с LLM для решения сложных задач — использование LLM для улучшения собственного запроса. Это фундаментальный и чрезвычайно полезный навык для любого пользователя. Концепция "DIVER-QExpand" легко адаптируется для ручного применения в любом чат-боте и дает немедленный и ощутимый прирост качества ответов на неоднозначные или многосоставные вопросы. Это одна из самых мощных техник промт-инжиниринга, подкрепленная научными данными.

Контраргументы (почему оценка могла быть ниже): * Техническая сложность: Статья написана для специалистов по ML. Термины вроде "nDCG@10", "bi-encoder retriever", "InfoNCE loss" могут отпугнуть обычного пользователя. Ценная идея "закопана" в академическом тексте. * Непрямое применение: Пользователь не может использовать систему DIVER "из коробки". Ему нужно понять принцип и адаптировать его для ручного использования, что требует дополнительного мыслительного усилия.

Контраргументы (почему оценка могла быть выше): * Фундаментальная ценность: Идея использования LLM для рефлексии и улучшения запроса — это переход на новый уровень промптинга. По своей значимости для пользователя это сравнимо с открытием техник "Chain-of-Thought" или "Role-play". Возможно, за такой концептуальный сдвиг стоило бы дать оценку ближе к 95-98.

Итоговая оценка 93 отражает баланс между огромной практической и концептуальной ценностью ключевой идеи и необходимостью для пользователя "извлечь" эту идею из сложного научного текста и адаптировать ее вручную.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с