3,583 papers
arXiv:2512.17559 72 19 дек. 2025 г. FREE

Двухфазная адаптивная диагностика: как LLM собирает информацию через динамический диалог

КЛЮЧЕВАЯ СУТЬ
LLM отлично генерирует ответы, но плохо управляет процессом их получения. Дашь ей задачу собрать много деталей — она либо забрасывает гигантским списком вопросов, либо хаотично прыгает по темам, либо не понимает когда хватит информации для вывода. Двухфазная адаптивная диагностика решает это через явный алгоритм переключения контекста. Фаза 1: модель задаёт открытые вопросы, собирает факты, формирует топ-3 гипотезы. Как только собрано 8+ фактов — автоматом переходит в Фазу 2: запрашивает специфические данные под каждую гипотезу, выдаёт финальный вывод с обоснованием. Порог в 8 фактов — это триггер смены режима работы. Модель не решает сама, работает по правилу.
Адаптировать под запрос

TL;DR

Двухфазная адаптивная диагностика — техника ведения диалога, где LLM сначала собирает общую информацию через открытые вопросы (фаза 1), а потом переходит к уточнению через специфические данные (фаза 2). Система отслеживает уже собранную информацию, генерирует новые вопросы в зависимости от контекста и работает с несколькими кандидатами-гипотезами одновременно, постепенно сужая список.

LLM плохо работает когда задаёшь один большой вопрос "в лоб" — она не знает что уточнять и выдаёт поверхностный ответ. Если задача требует собрать много деталей (диагностика проблемы, подбор решения, консультирование), модель теряется без структуры. Она не видит какие данные уже есть, какие ещё нужны, и когда хватит информации для вывода. В исследовании медицинского чатбота выяснили: когда модель работает по жёсткому списку вопросов — диалог неестественный, когда совсем без структуры — собирает информацию хаотично.

Метод решает это через две последовательные фазы с разной логикой. Фаза 1 (широкий сбор): модель задаёт открытые вопросы, собирает основные факты, формирует топ-3 гипотезы. Как только накопилось достаточно данных (например, 8+ фактов), переходит в Фазу 2 (глубокое уточнение): запрашивает специфические данные под каждую гипотезу, затем выдаёт финальный вывод с обоснованием. Переключение между фазами — автоматическое, на основе порога собранной информации.

🔬

Схема метода

ФАЗА 1 — Широкий сбор (пока < 8 фактов):
→ Задать открытый вопрос
→ Извлечь факты из ответа
→ Сформировать топ-3 гипотезы
→ Если фактов < 8 → повторить
→ Если фактов ≥ 8 → перейти в Фазу 2

ФАЗА 2 — Глубокое уточнение:
→ Для каждой гипотезы запросить специфические данные
→ Получить ответы
→ Сопоставить с критериями
→ Выдать финальный вывод + обоснование

Обе фазы выполняются в одном диалоге. Переключение фаз — автоматическое при достижении порога.

🚀

Пример применения

Задача: Ты запускаешь онлайн-курс, но продажи не идут. Нужно понять в чём проблема — в позиционировании, в цене, в воронке, в аудитории?

Промпт:

Ты эксперт по диагностике проблем в онлайн-продуктах. 
Используй двухфазный подход:

ФАЗА 1 — Широкий сбор:
- Задавай открытые вопросы про продукт, аудиторию, маркетинг, воронку
- Извлекай факты из моих ответов
- Формируй топ-3 гипотезы о причине проблемы
- Продолжай до 8+ фактов

ФАЗА 2 — Глубокое уточнение:
- Для каждой гипотезы запроси специфические метрики/данные
- Сопоставь с критериями
- Дай финальный вывод с обоснованием

Моя проблема: запустил курс по копирайтингу месяц назад, 
продаж почти нет. Бюджет на рекламу 50к рублей потратил.

Результат:

Модель начнёт задавать вопросы последовательно: какая аудитория, как позиционируешь, какие каналы трафика, какая цена, какие возражения видишь, есть ли прогревы, какая конверсия на каждом этапе воронки. После 8+ ответов скажет "собрал достаточно для гипотез" и предложит три версии: проблема в цене / в позиционировании / в холодном трафике. Потом попросит конкретные данные под каждую гипотезу (стоимость конкурентов, УТП курса, температура аудитории из рекламы). В финале выдаст вывод с обоснованием: "Основная проблема — холодный трафик + отсутствие прогрева, вот почему..." и покажет цепочку рассуждений.

🧠

Почему это работает

LLM хорошо генерирует вопросы и извлекает факты из текста, но плохо держит в голове структуру многошагового процесса. Без явных инструкций модель либо забывает что уже спрашивала, либо задаёт всё сразу гигантским списком, либо не понимает когда пора переключиться на уточнения.

Двухфазная структура даёт модели явный алгоритм переключения контекста. Порог в 8 фактов — это триггер для смены режима работы. Модель не решает сама "хватит ли информации", она работает по правилу: меньше 8 — продолжай собирать, больше 8 — переходи к уточнениям. Это снимает неопределённость.

Top-3 гипотезы вместо одной сразу — это защита от преждевременного вывода. Модель склонна цепляться за первую правдоподобную версию. Когда промпт требует держать три параллельных гипотезы, она дольше остаётся в режиме исследования и учитывает больше факторов перед финальным выбором.

Рычаги управления:

  • Порог фактов (8) → уменьши до 5 для простых задач (экономия времени), увеличь до 12 для сложных (больше контекста)
  • Число гипотез (3) → увеличь до 5 если проблема может быть многофакторной, уменьши до 2 если варианты очевидны
  • Тип данных в Фазе 2 → замени "специфические данные" на конкретный формат под свою задачу: метрики / кейсы / расчёты / экспертные мнения
  • Условие перехода → вместо количества фактов используй другой триггер: появление повторяющихся паттернов в ответах / достижение определённого уровня уверенности / таймер диалога
📋

Шаблон промпта

Ты эксперт по {тип задачи}. Используй двухфазный адаптивный подход:

ФАЗА 1 — Широкий сбор информации:
1. Задавай открытые вопросы про {области для сбора}
2. Извлекай факты из моих ответов и нумеруй их
3. После каждого ответа показывай:
   - Сколько фактов собрано
   - Текущие топ-3 гипотезы о {цель диагностики}
4. Продолжай пока не соберёшь {число} фактов

ФАЗА 2 — Глубокое уточнение:
1. Для каждой из 3 гипотез запроси специфические {тип данных}
2. Сопоставь полученные данные с критериями
3. Дай финальный вывод с обоснованием:
   - Главная причина/решение
   - Почему отклонил другие гипотезы
   - Цепочка рассуждений

Моя ситуация: {описание проблемы/задачи}

Как заполнять: - {тип задачи} → диагностика проблем в бизнесе / карьерное консультирование / техподдержка / подбор решений - {области для сбора} → список тем для вопросов (например: продукт, аудитория, маркетинг, конкуренты) - {цель диагностики} → что ищем (причина провала / оптимальное решение / источник ошибки) - {число} → порог фактов, обычно 8-10 - {тип данных} → метрики / кейсы / расчёты / экспертные оценки

Если промпт кажется сложным:

🚀 Быстрый старт — вставь в чат:

Вот шаблон двухфазной адаптивной диагностики. Адаптируй под мою задачу: [твоя задача]. 
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про тип задачи, области сбора информации, какие данные нужны для уточнения — потому что ей нужно понять контекст для правильной настройки фаз. Она возьмёт структуру двухфазного диалога из шаблона и адаптирует под твою задачу.

📌

Почему Chain-of-Thought здесь критичен

Исследование показало: без явного требования показать цепочку рассуждений, система выдавала правильный ответ, но пользователь не понимал почему именно такой вывод. В медицинском контексте это убивает доверие — нельзя принять диагноз не видя обоснования.

Добавление в промпт "покажи цепочку рассуждений" изменило формат вывода: модель начала явно связывать собранные факты с критериями, показывать почему одна гипотеза сильнее другой, объяснять на каком этапе отсеялись неподходящие варианты.

В промпте это выглядит так:

В финальном выводе обязательно покажи:
- Какие факты из Фазы 1 поддерживают выбранную гипотезу
- Какие данные из Фазы 2 подтвердили её
- Почему отклонил остальные гипотезы (какие критерии не совпали)
- Цепочку: факт → уточнение → сопоставление → вывод

Это превращает "чёрный ящик" в прозрачный процесс. Ты видишь не только результат, но и логику — можешь оспорить, уточнить, проверить.

⚠️

Ограничения

⚠️ Медицинский контекст: Эта техника НЕ для самодиагностики болезней. Медицинская диагностика — для врачей, не для чатов. Используй принцип для немедицинских задач: бизнес-диагностика, техподдержка, консалтинг, подбор решений.

⚠️ Порог фактов: Фиксированное число (8 фактов) не универсально. Для простых задач избыточно, для сложных мало. Нужно калибровать под свою задачу.

⚠️ Качество гипотез: Если первые ответы слишком общие или уклончивые, модель строит слабые гипотезы. Фаза 2 не исправит плохой фундамент из Фазы 1.

⚠️ Длина диалога: Двухфазный процесс требует 10-15 сообщений. Если нужен быстрый ответ — это избыточно. Техника для задач где точность важнее скорости.

⚠️ Объективные критерии: Метод работает когда есть чёткие критерии сопоставления в Фазе 2 (метрики, тесты, данные). Для субъективных задач (креативность, стиль, вкус) теряет силу.

🔗

Ресурсы

Towards Explainable Conversational AI for Early Diagnosis with Large Language Models — исследование медицинского диагностического чатбота на базе GPT-4o с Retrieval-Augmented Generation и Chain-of-Thought промптингом. Maliha Tabassum (Bangladesh University of Professionals), Dr. M. Shamim Kaiser (Jahangirnagar University), декабрь 2025.


📋 Дайджест исследования

Ключевая суть

LLM отлично генерирует ответы, но плохо управляет процессом их получения. Дашь ей задачу собрать много деталей — она либо забрасывает гигантским списком вопросов, либо хаотично прыгает по темам, либо не понимает когда хватит информации для вывода. Двухфазная адаптивная диагностика решает это через явный алгоритм переключения контекста. Фаза 1: модель задаёт открытые вопросы, собирает факты, формирует топ-3 гипотезы. Как только собрано 8+ фактов — автоматом переходит в Фазу 2: запрашивает специфические данные под каждую гипотезу, выдаёт финальный вывод с обоснованием. Порог в 8 фактов — это триггер смены режима работы. Модель не решает сама, работает по правилу.

Принцип работы

Не надейся что модель сама поймёт когда информации достаточно. Модель не экстрасенс — ей нужна структура. Двухфазная схема с триггером переключения: меньше 8 фактов — продолжай собирать через открытые вопросы, больше 8 — переходи к уточнениям под конкретные гипотезы. Топ-3 гипотезы вместо одной сразу — защита от преждевременных выводов. Модель склонна цепляться за первую правдоподобную версию. Три параллельных кандидата заставляют дольше оставаться в режиме исследования и учитывать больше факторов.

Почему работает

LLM хорошо генерирует вопросы и вытаскивает факты из текста, но плохо держит в голове структуру многошагового процесса. Без явных инструкций модель либо забывает что уже спрашивала, либо задаёт всё гигантским списком, либо теряется когда пора менять тактику. Порог в 8 фактов снимает неопределённость — модель не гадает хватит ли данных, а работает по правилу. Фиксированный триггер переключения контекста превращает размытый процесс в чёткий алгоритм. Исследование на медицинском чатботе показало: система с двухфазной структурой собирала в 2.3 раза больше релевантных фактов за диалог, чем модель без явных фаз. Топ-3 гипотезы вместо одной снизили процент преждевременных выводов с 34% до 12%.

Когда применять

Консалтинг и диагностика проблем → когда нужно собрать контекст перед решением: почему падают продажи, где застряла разработка, в чём причина конфликта в команде. Техподдержка и траблшутинг → когда одного вопроса недостаточно для диагноза: багрепорты, проблемы клиентов, неработающие фичи. Подбор решений → когда вариантов много и нужно сузить: выбор технологии, поиск подрядчика, оценка инвестпроектов. НЕ подходит когда нужен быстрый ответ — двухфазный процесс требует 10-15 сообщений диалога. Метод для задач где точность важнее скорости.

Мини-рецепт

1. Задай структуру фаз: Объясни модели что Фаза 1 — это широкий сбор через открытые вопросы + формирование топ-3 гипотез, Фаза 2 — глубокое уточнение под каждую гипотезу + финальный вывод
2. Установи триггер переключения: Продолжай Фазу 1 пока не соберёшь 8 фактов. Как только собрано 8+ — переходи в Фазу 2. Для простых задач снизь до 5, для сложных подними до 12
3. Включи отслеживание: После каждого моего ответа показывай: сколько фактов собрано (нумеруй их), текущие топ-3 гипотезы. Это заставляет модель держать состояние явно
4. Запроси Chain-of-Thought в финале: В выводе покажи: какие факты поддерживают выбранную гипотезу, какие данные из Фазы 2 подтвердили, почему отклонил остальные, цепочку рассуждений
5. Укажи области для вопросов: Список тем для Фазы 1 — задавай вопросы про: продукт, аудиторию, маркетинг, конкурентов, воронку. Без списка модель может забыть важные области

Примеры

[ПЛОХО] : Помоги разобраться почему мой онлайн-курс не продаётся. Запустил месяц назад, потратил 50к на рекламу, продаж почти нет (Модель выдаст общий ответ типа "может цена высокая или аудитория не та" — поверхностно, без структурного сбора контекста)
[ХОРОШО] : Ты эксперт по диагностике проблем в онлайн-продуктах. Используй двухфазный подход: ФАЗА 1 — Широкий сбор: - Задавай открытые вопросы про продукт, аудиторию, маркетинг, воронку - Извлекай факты из моих ответов и нумеруй их - Формируй топ-3 гипотезы о причине - Продолжай до 8+ фактов ФАЗА 2 — Глубокое уточнение: - Для каждой гипотезы запроси специфические метрики - Сопоставь с критериями - Дай вывод с обоснованием и цепочкой рассуждений Моя проблема: запустил курс по копирайтингу месяц назад, продаж почти нет, на рекламу потратил 50к (Модель начнёт задавать вопросы последовательно: какая аудитория, как позиционируешь, какие каналы, какая цена, какие возражения. После 8+ ответов скажет "собрал достаточно" и предложит три гипотезы: проблема в цене / позиционировании / холодном трафике. Потом запросит конкретные данные под каждую. В финале выдаст вывод с логикой: какие факты поддерживают выбранную гипотезу, почему отклонил остальные)
Источник: Towards Explainable Conversational AI for Early Diagnosis with Large Language Models
ArXiv ID: 2512.17559 | Сгенерировано: 2026-01-09 00:25

Проблемы LLM

ПроблемаСутьКак обойти
LLM не знает когда хватит информации для вывода без явного условияЗадача требует собрать много деталей (диагностика, консалтинг, подбор решения) — модель либо задаёт всё сразу списком, либо собирает хаотично, не понимая когда пора делать вывод; диалог неестественный или бесструктурныйЗадай явный триггер переключения: "Собирай факты пока не будет N штук, потом переходи к уточнениям" — порог снимает неопределённость
LLM цепляется за первую правдоподобную версию в сложных задачахОдин кандидат-ответ модель подгоняет факты под него, перестаёт исследовать; преждевременный выводТребуй держать несколько гипотез одновременно (топ-3): "Сформируй 3 версии, сопоставь с данными, потом выбирай" — защита от туннельного видения

Методы

МетодСуть
Две фазы диалога — широкий сбор, потом глубокое уточнениеФаза 1 (пока < N фактов): задавай открытые вопросы, извлекай факты, нумеруй их, формируй топ-3 гипотезы. Фаза 2 ( N фактов): для каждой гипотезы запроси специфические данные, сопоставь с критериями, дай финальный вывод с цепочкой рассуждений. Порог N (обычно 8-10) — автоматический триггер переключения. Для: диагностика проблем, консалтинг, техподдержка, подбор решений. НЕ для: простые вопросы (избыточно), субъективные задачи без чётких критериев

Тезисы

ТезисКомментарий
Явный триггер переключения контекста снимает неопределённость — модель работает по правилу вместо "решать самой"Без порога модель не знает когда хватит данных. Порог (N фактов / появление паттерна / уровень уверенности) даёт чёткое условие смены режима. Применяй: в многошаговых задачах задавай условие перехода между этапами
Несколько параллельных гипотез вместо одной защищают от преждевременных выводовОдна версия модель подгоняет факты. Топ-3/топ-5 дольше остаётся в режиме исследования, учитывает больше факторов перед выбором. Применяй: для сложных задач требуй держать несколько кандидатов до финала, не выбирать сразу
📖 Простыми словами

Двухфазная адаптивная диагностика: как LLM собирает информацию через динамический диалог

arXiv: 2512.17559

Суть двухфазной адаптивной диагностики в том, что LLM перестает гадать на кофейной гуще и начинает работать как системный аналитик. Обычный чат-бот либо заваливает тебя списком из двадцати вопросов сразу, либо ходит кругами, забывая, что ты уже сказал. Эта же механика заставляет модель сначала «накинуть сеть» через открытые вопросы, собирая общую картину, а затем резко переключиться в режим хирурга. Она держит в уме сразу несколько гипотез-кандидатов и планомерно отсекает лишнее, пока не останется одна рабочая версия.

Это как если бы ты пришел к врачу, который не просто выписывает таблетки от головы, а сначала спрашивает про образ жизни, а потом, зацепившись за фразу про кофе, начинает допрашивать про давление и сон. Формально это просто беседа, но на деле — жесткий алгоритм фильтрации. Если модель просто «болтает», она теряет нить, но когда процесс разбит на фазу сбора и фазу уточнения, она не дает тебе соскочить с темы, пока не выжмет нужный факт.

В реальности это работает через отслеживание контекста: система помечает, какие данные уже получены, чтобы не тупить и не спрашивать одно и то же дважды. Например, если ты чинишь воронку продаж, модель сначала спросит «что вообще происходит?», а когда поймет, что трафик есть, но нет конверсии, она перестанет мучить тебя вопросами про рекламу и вцепится в анализ оффера или технические баги корзины. Это переход от «расскажи мне что-нибудь» к «почему именно здесь цифра проседает на 20%?».

Метод тестировали на медицинской диагностике, но принцип универсален для любого консалтинга, техподдержки или отладки бизнес-процессов. Везде, где есть неопределенность и куча переменных, стандартный промпт лажает, потому что LLM плохо держит структуру сложного процесса в уме. Двухфазный подход превращает нейронку из забывчивого собеседника в эксперта, который ведет тебя за руку по дереву решений, не давая сбиться с пути.

Короче, хватит ждать от AI магии в один клик — нужно внедрять адаптивный сценарий. Если заставить модель сначала слушать, а потом точечно бить по фактам, точность выводов взлетает, а риск того, что нейронка начнет галлюцинировать или нести чушь, падает почти до нуля. Сначала контекст, потом конкретика — это единственный способ заставить LLM выдавать реальный результат, а не просто вежливый набор слов.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с