TL;DR
Двухфазная адаптивная диагностика — техника ведения диалога, где LLM сначала собирает общую информацию через открытые вопросы (фаза 1), а потом переходит к уточнению через специфические данные (фаза 2). Система отслеживает уже собранную информацию, генерирует новые вопросы в зависимости от контекста и работает с несколькими кандидатами-гипотезами одновременно, постепенно сужая список.
LLM плохо работает когда задаёшь один большой вопрос "в лоб" — она не знает что уточнять и выдаёт поверхностный ответ. Если задача требует собрать много деталей (диагностика проблемы, подбор решения, консультирование), модель теряется без структуры. Она не видит какие данные уже есть, какие ещё нужны, и когда хватит информации для вывода. В исследовании медицинского чатбота выяснили: когда модель работает по жёсткому списку вопросов — диалог неестественный, когда совсем без структуры — собирает информацию хаотично.
Метод решает это через две последовательные фазы с разной логикой. Фаза 1 (широкий сбор): модель задаёт открытые вопросы, собирает основные факты, формирует топ-3 гипотезы. Как только накопилось достаточно данных (например, 8+ фактов), переходит в Фазу 2 (глубокое уточнение): запрашивает специфические данные под каждую гипотезу, затем выдаёт финальный вывод с обоснованием. Переключение между фазами — автоматическое, на основе порога собранной информации.
Схема метода
ФАЗА 1 — Широкий сбор (пока < 8 фактов):
→ Задать открытый вопрос
→ Извлечь факты из ответа
→ Сформировать топ-3 гипотезы
→ Если фактов < 8 → повторить
→ Если фактов ≥ 8 → перейти в Фазу 2
ФАЗА 2 — Глубокое уточнение:
→ Для каждой гипотезы запросить специфические данные
→ Получить ответы
→ Сопоставить с критериями
→ Выдать финальный вывод + обоснование
Обе фазы выполняются в одном диалоге. Переключение фаз — автоматическое при достижении порога.
Пример применения
Задача: Ты запускаешь онлайн-курс, но продажи не идут. Нужно понять в чём проблема — в позиционировании, в цене, в воронке, в аудитории?
Промпт:
Ты эксперт по диагностике проблем в онлайн-продуктах.
Используй двухфазный подход:
ФАЗА 1 — Широкий сбор:
- Задавай открытые вопросы про продукт, аудиторию, маркетинг, воронку
- Извлекай факты из моих ответов
- Формируй топ-3 гипотезы о причине проблемы
- Продолжай до 8+ фактов
ФАЗА 2 — Глубокое уточнение:
- Для каждой гипотезы запроси специфические метрики/данные
- Сопоставь с критериями
- Дай финальный вывод с обоснованием
Моя проблема: запустил курс по копирайтингу месяц назад,
продаж почти нет. Бюджет на рекламу 50к рублей потратил.
Результат:
Модель начнёт задавать вопросы последовательно: какая аудитория, как позиционируешь, какие каналы трафика, какая цена, какие возражения видишь, есть ли прогревы, какая конверсия на каждом этапе воронки. После 8+ ответов скажет "собрал достаточно для гипотез" и предложит три версии: проблема в цене / в позиционировании / в холодном трафике. Потом попросит конкретные данные под каждую гипотезу (стоимость конкурентов, УТП курса, температура аудитории из рекламы). В финале выдаст вывод с обоснованием: "Основная проблема — холодный трафик + отсутствие прогрева, вот почему..." и покажет цепочку рассуждений.
Почему это работает
LLM хорошо генерирует вопросы и извлекает факты из текста, но плохо держит в голове структуру многошагового процесса. Без явных инструкций модель либо забывает что уже спрашивала, либо задаёт всё сразу гигантским списком, либо не понимает когда пора переключиться на уточнения.
Двухфазная структура даёт модели явный алгоритм переключения контекста. Порог в 8 фактов — это триггер для смены режима работы. Модель не решает сама "хватит ли информации", она работает по правилу: меньше 8 — продолжай собирать, больше 8 — переходи к уточнениям. Это снимает неопределённость.
Top-3 гипотезы вместо одной сразу — это защита от преждевременного вывода. Модель склонна цепляться за первую правдоподобную версию. Когда промпт требует держать три параллельных гипотезы, она дольше остаётся в режиме исследования и учитывает больше факторов перед финальным выбором.
Рычаги управления:
- Порог фактов (8) → уменьши до 5 для простых задач (экономия времени), увеличь до 12 для сложных (больше контекста)
- Число гипотез (3) → увеличь до 5 если проблема может быть многофакторной, уменьши до 2 если варианты очевидны
- Тип данных в Фазе 2 → замени "специфические данные" на конкретный формат под свою задачу: метрики / кейсы / расчёты / экспертные мнения
- Условие перехода → вместо количества фактов используй другой триггер: появление повторяющихся паттернов в ответах / достижение определённого уровня уверенности / таймер диалога
Шаблон промпта
Ты эксперт по {тип задачи}. Используй двухфазный адаптивный подход:
ФАЗА 1 — Широкий сбор информации:
1. Задавай открытые вопросы про {области для сбора}
2. Извлекай факты из моих ответов и нумеруй их
3. После каждого ответа показывай:
- Сколько фактов собрано
- Текущие топ-3 гипотезы о {цель диагностики}
4. Продолжай пока не соберёшь {число} фактов
ФАЗА 2 — Глубокое уточнение:
1. Для каждой из 3 гипотез запроси специфические {тип данных}
2. Сопоставь полученные данные с критериями
3. Дай финальный вывод с обоснованием:
- Главная причина/решение
- Почему отклонил другие гипотезы
- Цепочка рассуждений
Моя ситуация: {описание проблемы/задачи}
Как заполнять:
- {тип задачи} → диагностика проблем в бизнесе / карьерное консультирование / техподдержка / подбор решений
- {области для сбора} → список тем для вопросов (например: продукт, аудитория, маркетинг, конкуренты)
- {цель диагностики} → что ищем (причина провала / оптимальное решение / источник ошибки)
- {число} → порог фактов, обычно 8-10
- {тип данных} → метрики / кейсы / расчёты / экспертные оценки
Если промпт кажется сложным:
🚀 Быстрый старт — вставь в чат:
Вот шаблон двухфазной адаптивной диагностики. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про тип задачи, области сбора информации, какие данные нужны для уточнения — потому что ей нужно понять контекст для правильной настройки фаз. Она возьмёт структуру двухфазного диалога из шаблона и адаптирует под твою задачу.
Почему Chain-of-Thought здесь критичен
Исследование показало: без явного требования показать цепочку рассуждений, система выдавала правильный ответ, но пользователь не понимал почему именно такой вывод. В медицинском контексте это убивает доверие — нельзя принять диагноз не видя обоснования.
Добавление в промпт "покажи цепочку рассуждений" изменило формат вывода: модель начала явно связывать собранные факты с критериями, показывать почему одна гипотеза сильнее другой, объяснять на каком этапе отсеялись неподходящие варианты.
В промпте это выглядит так:
В финальном выводе обязательно покажи:
- Какие факты из Фазы 1 поддерживают выбранную гипотезу
- Какие данные из Фазы 2 подтвердили её
- Почему отклонил остальные гипотезы (какие критерии не совпали)
- Цепочку: факт → уточнение → сопоставление → вывод
Это превращает "чёрный ящик" в прозрачный процесс. Ты видишь не только результат, но и логику — можешь оспорить, уточнить, проверить.
Ограничения
⚠️ Медицинский контекст: Эта техника НЕ для самодиагностики болезней. Медицинская диагностика — для врачей, не для чатов. Используй принцип для немедицинских задач: бизнес-диагностика, техподдержка, консалтинг, подбор решений.
⚠️ Порог фактов: Фиксированное число (8 фактов) не универсально. Для простых задач избыточно, для сложных мало. Нужно калибровать под свою задачу.
⚠️ Качество гипотез: Если первые ответы слишком общие или уклончивые, модель строит слабые гипотезы. Фаза 2 не исправит плохой фундамент из Фазы 1.
⚠️ Длина диалога: Двухфазный процесс требует 10-15 сообщений. Если нужен быстрый ответ — это избыточно. Техника для задач где точность важнее скорости.
⚠️ Объективные критерии: Метод работает когда есть чёткие критерии сопоставления в Фазе 2 (метрики, тесты, данные). Для субъективных задач (креативность, стиль, вкус) теряет силу.
Ресурсы
Towards Explainable Conversational AI for Early Diagnosis with Large Language Models — исследование медицинского диагностического чатбота на базе GPT-4o с Retrieval-Augmented Generation и Chain-of-Thought промптингом. Maliha Tabassum (Bangladesh University of Professionals), Dr. M. Shamim Kaiser (Jahangirnagar University), декабрь 2025.
