3,583 papers
arXiv:2504.07724 90 10 апр. 2025 г. FREE

Многораундовая диагностическая RAG-система для эмуляции клинического мышления

КЛЮЧЕВАЯ СУТЬ
Этот цикл "Варианты -> Анализ -> Уточняющий вопрос" можно повторять несколько раз, с каждым шагом сужая круг поиска и повышая точность
Адаптировать под запрос

Исследование решает проблему "семантического разрыва", когда LLM не может сопоставить обыденные описания пользователя с точной терминологией из своей базы знаний. Для этого авторы предлагают фреймворк MRD-RAG, который имитирует рассуждения врача: он выдвигает несколько гипотез, анализирует их, определяет, какой информации не хватает для точного вывода, и задает пользователю целенаправленный уточняющий вопрос.

Ключевой результат: Итеративный диалог с анализом гипотез и задаванием уточняющих вопросов значительно повышает точность и надежность ответов LLM по сравнению со стандартным подходом "вопрос-ответ".

Суть метода для обычного пользователя заключается в том, чтобы перестать воспринимать LLM как всезнающего оракула и начать использовать его как системного аналитика в диалоговом режиме. Вместо того чтобы задавать один большой и сложный вопрос в надежде на идеальный ответ, вы должны разбить процесс на три логических шага, имитируя фреймворк из исследования:

  1. Шаг 1: "Ретривер" (Набросок вариантов). Вы даете LLM первоначальную проблему и просите набросать несколько возможных решений или гипотез. Это аналог того, как система извлекает кандидатов из базы знаний.
  2. Шаг 2: "Анализатор" (Сравнительный анализ и поиск "белых пятен"). Вы просите LLM сравнить предложенные варианты между собой по ключевым критериям. Самое главное на этом шаге — дать команду определить, какой критически важной информации не хватает, чтобы сделать однозначный выбор между вариантами. Это имитация модуля Analyzer, который ищет различия и формулирует стратегию.
  3. Шаг 3: "Доктор" (Целенаправленный вопрос). Вы просите LLM на основе анализа из Шага 2 сформулировать один-единственный, самый важный вопрос к вам. Ответив на него, вы предоставите модели недостающие данные для принятия финального, обоснованного решения.

Этот цикл "Варианты -> Анализ -> Уточняющий вопрос" можно повторять несколько раз, с каждым шагом сужая круг поиска и повышая точность. Вы, по сути, заставляете LLM "думать вслух" и вести вас по процессу решения проблемы, а не просто выдавать готовый ответ.

  • Прямая применимость: Пользователь может немедленно начать использовать эту методику, структурируя свои промпты в виде последовательности команд: "1. Предложи варианты. 2. Сравни их и скажи, что тебе нужно знать для выбора. 3. Задай мне этот вопрос". Это работает в любом современном чат-боте (ChatGPT, Claude, Gemini) без каких-либо настроек.

  • Концептуальная ценность: Главный инсайт — сложные задачи решаются не одним гениальным промптом, а серией логически связанных запросов, которые управляют процессом рассуждения модели. Это учит пользователя не "бороться" с LLM, а "сотрудничать" с ней, направляя ее "мыслительный" процесс. Вы начинаете понимать, что неоднозначность — это не ошибка LLM, а повод для уточнения.

  • Потенциал для адаптации: Метод легко адаптируется для любой сферы.

    • Маркетинг: "Помоги выбрать соцсеть для продвижения" -> "1. Предложи 3 соцсети. 2. Сравни их для моего бизнеса и скажи, что тебе неясно о моей аудитории. 3. Задай вопрос о моей аудитории".
    • Выбор путешествия: "Куда поехать в отпуск?" -> "1. Предложи 3 страны. 2. Сравни их по климату и бюджету и скажи, что тебе неизвестно о моих предпочтениях. 3. Задай вопрос о моих предпочтениях".
    • Написание текста: "Помоги с идеей для статьи" -> "1. Предложи 3 темы. 2. Сравни их и скажи, что тебе неясно о цели статьи. 3. Задай вопрос о цели".
Ты — опытный маркетолог-стратег. Моя задача — выбрать лучшую социальную сеть для продвижения моего нового бизнеса.

**Контекст:**
Я открываю небольшой онлайн-магазин по продаже ароматических свечей ручной работы. Моя целевая аудитория — женщины 25-45 лет, ценящие уют, эстетику и экологичные товары. Бюджет на продвижение ограничен.

**Твоя задача — провести меня через процесс выбора, действуя по следующему алгоритму:**

**Шаг 1: Первичный анализ (Аналог "Ретривера")**
Проанализируй мой бизнес и предложи 3 наиболее подходящие социальные сети для продвижения. Кратко обоснуй выбор для каждой.

**Шаг 2: Дифференциальный анализ (Аналог "Анализатора")**
Создай таблицу для сравнения этих 3 платформ по следующим критериям:
*   Потенциальный охват моей ЦА.
*   Стоимость привлечения клиента (приблизительно).
*   Требования к контенту (фото, видео, текст).
*   Возможности для прямых продаж.

После таблицы, основываясь на этом сравнении, определи **самый важный фактор**, который мне нужно уточнить о своем бизнесе или стратегии, чтобы сделать окончательный выбор.

**Шаг 3: Уточняющий вопрос (Аналог "Доктора")**
Сформулируй и задай мне **один-единственный, самый главный вопрос**, ответ на который поможет тебе дать финальную, наиболее точную рекомендацию. Не давай рекомендацию сейчас, просто задай вопрос.

Этот промпт работает, потому что он не просит LLM сразу дать ответ, а заставляет его эмулировать логику MRD-RAG, что снижает риск получения поверхностного или нерелевантного совета:

  1. Декомпозиция задачи: Сложная задача "выбери мне соцсеть" разбивается на простые и понятные шаги. Это снижает когнитивную нагрузку на модель и направляет ее рассуждения.
  2. Принудительный анализ: Шаг 2 заставляет модель не просто перечислить факты, а активно сравнивать варианты и, что самое важное, рефлексировать о нехватке информации (определи самый важный фактор). Это имитирует работу модуля Analyzer.
  3. Преодоление семантического разрыва: Вместо того чтобы гадать, что для меня важнее (визуал, бюджет, скорость продаж?), модель через Шаг 3 запрашивает именно ту информацию, которая является ключевой для моего конкретного случая. Это позволяет перейти от общих знаний к персонализированному совету.
Ты — опытный карьерный консультант. Я хочу сменить профессию, но не могу определиться с направлением.

**Контекст:**
Сейчас я работаю графическим дизайнером в рекламном агентстве. У меня сильные визуальные навыки, я хорошо работаю в команде, но устал от постоянных дедлайнов и работы на клиента. Я ищу сферу с большим творческим контролем и потенциалом роста.

**Твоя задача — помочь мне сузить выбор, действуя по шагам:**

**Шаг 1: Генерация гипотез**
На основе моего опыта и пожеланий, предложи 3 реалистичные карьерные траектории для смены профессии.

**Шаг 2: Сравнительный анализ и выявление пробелов**
Сравни эти 3 траектории по параметрам:
*   Необходимые новые навыки и время на их освоение.
*   Средний стартовый доход.
*   Уровень творческой свободы.
*   Долгосрочные перспективы.

После анализа определи, какая **ключевая информация о моих личных ценностях или склонностях** тебе неизвестна, чтобы дать наиболее подходящий совет.

**Шаг 3: Целенаправленный вопрос**
Задай мне **один вопрос**, который поможет лучше понять мои внутренние мотиваторы и сделать выбор между этими путями. Жди моего ответа, прежде чем давать рекомендации.

Этот промпт эффективен по тем же причинам, что и предыдущий, но в контексте личного выбора, где нет объективно "правильного" ответа:

  1. От общего к частному: Промпт ведет модель от широких гипотез (3 карьерных пути) к глубокому пониманию личных мотиваторов пользователя.
  2. Фокус на "слепых зонах": Команда определи, какая ключевая информация... тебе неизвестна заставляет LLM анализировать не только предложенные варианты, но и собственные пробелы в понимании запроса. Это заставляет модель перейти от роли "справочника профессий" к роли "консультанта".
  3. Управляемый диалог: Задавая в конце только один, но самый важный вопрос, модель инициирует осмысленный диалог. Ответ пользователя на этот вопрос станет тем самым недостающим фрагментом пазла, который позволит LLM в следующем шаге дать уже не общий, а по-настоящему персонализированный и ценный совет.
📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да, раскрывает концептуальную модель "дифференциальной диагностики", которую можно эмулировать в промптах для решения сложных задач.
  • B. Улучшение качества диалоговых ответов: Да, это основная цель исследования — повышение точности ответов в многошаговом диалоге.
  • C. Прямая практическая применимость: Да, хотя сам фреймворк требует кода, его логику можно напрямую перенести в структуру промптов для любого чат-бота, заставляя LLM рассуждать и задавать уточняющие вопросы.
  • D. Концептуальная ценность: Очень высокая. Объясняет, почему простые RAG-запросы не работают (семантический разрыв), и предлагает мощную ментальную модель: LLM как партнер по рассуждению, а не как поисковик.
  • E. Новая полезная практика: Работа попадает в кластеры:

    • #1 (Техники формулирования промптов): Предлагает методологию декомпозиции и итеративного уточнения, которую можно реализовать через role-play и структурированные инструкции.
    • #6 (Контекст и память): Вся суть метода — в эффективном управлении диалоговым контекстом для достижения цели.
    • #7 (Надежность и стабильность): Метод направлен на снижение неверных выводов ("галлюцинаций") путем последовательной проверки гипотез.
  • Чек-лист практичности (+15 баллов): Да, исследование дает концептуальные конструкции для промптов, показывает, как структурировать сложные запросы, раскрывает неочевидные особенности поведения LLM (семантический разрыв) и предлагает способ повысить точность ответов.

📌

Цифровая оценка полезности

Оценка 90 дана потому, что исследование предлагает не просто "трюк" или "волшебную фразу", а целую методологию взаимодействия с LLM для решения сложных, неоднозначных задач. Она учит пользователя превращать LLM из простого исполнителя в партнера по рассуждению.

Аргументы за оценку: * Универсальность концепции: Идея "дифференциальной диагностики" (сравнение гипотез и задавание уточняющих вопросов) применима не только в медицине, но и в маркетинге, юриспруденции, выборе карьеры, написании кода — везде, где нет одного правильного ответа на старте. * Высокая концептуальная ценность: Исследование блестяще объясняет, почему LLM часто "не понимает" пользователя (семантический разрыв между бытовым языком и экспертными данными), и дает рабочий способ этот разрыв преодолеть. * Прямое влияние на качество: Применение этой методики заставляет LLM не выдавать первый попавшийся ответ, а проводить анализ, что кардинально повышает точность и релевантность итогового результата.

Контраргументы (почему оценка могла бы быть ниже): * Требует осмысления: Это не техника, которую можно скопировать и вставить. Пользователю нужно понять саму логику "Ретривер-Анализатор-Доктор" и адаптировать ее под свою задачу, что требует небольшого когнитивного усилия. * Техническая сложность оригинала: Само исследование описывает сложный фреймворк с собственной базой знаний. Обычный пользователь не сможет его воспроизвести "один в один", а может лишь эмулировать его логику в своих промптах.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с