TL;DR
Когда LLM сама задаёт вам вопросы перед тем как ответить — результат значительно лучше, чем когда вы произвольно описываете ситуацию. Модель-интервьюер — это режим работы с LLM, при котором вы инструктируете модель провести вас через серию уточняющих вопросов перед тем как давать вывод. Не вы рассказываете то, что считаете важным — модель сама выясняет то, что ей нужно.
Главный инсайт: когда пользователь сам описывает ситуацию — он неосознанно упускает важные детали, акцентирует несущественное, формулирует неточно. LLM вынуждена работать с неполной и перекошенной картиной. Это работает примерно как рассказ врачу "ну у меня что-то болит вот тут" против структурированного анамнеза: второе даёт несравнимо больше нужной информации.
Решение простое: переверни порядок. Вместо "я расскажу всё что знаю" → "модель спрашивает, я отвечаю". Исследование показало, что любая форма структурированного интервью — неважно, по фиксированным вопросам или по динамически выбранным — давала примерно одинаковый прирост точности. То есть модели можно доверить самой решать, что спрашивать — она справится не хуже, чем по чеклисту эксперта.
Схема метода
ШАГ 1: Скажи модели задачу + попроси задавать вопросы
→ Модель НЕ даёт ответ сразу, задаёт вопрос 1
ШАГ 2: Ты отвечаешь на каждый вопрос
→ Модель задаёт следующий вопрос (или уточняет)
ШАГ 3: Когда модель собрала достаточно — даёт итоговый вывод
→ Диагноз / рекомендация / анализ
Всё выполняется в одном диалоге — несколько сообщений туда-обратно.
Пример применения
Задача: Ты думаешь открыть кофейню в Казани. Хочешь понять — стоит ли, и если да, то в каком формате.
Промпт:
Я хочу твою экспертную оценку бизнес-идеи — открыть кофейню в Казани.
Но прежде чем давать мне рекомендацию — проведи меня через интервью. Задавай по одному вопросу за раз. Не спрашивай всё сразу. Задавай только то, что действительно важно для точного вывода. Когда соберёшь достаточно информации — скажи об этом и дай итоговую оценку с конкретными рекомендациями.
Начинай первый вопрос.
Результат: Модель начнёт задавать вопросы по одному — бюджет, опыт, локация, целевая аудитория, конкуренты рядом, формат. Не всё сразу, а последовательно — следующий вопрос будет зависеть от предыдущего ответа. После 5-10 обменов модель объявит, что картина ясна, и выдаст структурированный разбор: риски, точка безубыточности, рекомендация по формату. Это будет несравнимо точнее, чем если бы вы просто написали "оцени идею открыть кофейню в Казани".
Почему это работает
LLM плохо работает с неполной информацией. Когда вы описываете ситуацию произвольно — модель получает то, что вы считаете важным, а не то, что реально важно для ответа. Вы не знаете, какой вопрос критический. Поэтому ответ получается размытым — "с одной стороны, с другой стороны".
LLM хорошо умеет вести диалог и задавать уточняющие вопросы. Это её сильная сторона. Она знает, какая информация влияет на вывод — потому что "видела" тысячи похожих ситуаций. Экспертный суммарист превращается в экспертного интервьюера.
Рычаги управления: - 🔧 "По одному вопросу за раз" → убирает перегруженность анкетой из 10 пунктов - 🔧 "Скажи когда достаточно" → модель сама решает когда переходить к выводу, не вы - 🔧 "Задавай только важное" → убирает ритуальные вопросы ради вопросов - 🔧 Можно добавить "фокусируйся на [аспекте]" → сужаешь зону интервью
Шаблон промпта
Мне нужна твоя экспертная {тип_вывода} по {тема}.
Прежде чем давать вывод — проведи меня через интервью.
Задавай по одному вопросу за раз, только самые важные.
Каждый следующий вопрос — основывай на моём предыдущем ответе.
Когда соберёшь достаточно информации — сообщи об этом и дай {формат_итога}.
Начинай первый вопрос.
Что подставлять:
- {тип_вывода}: оценка, рекомендация, диагностика, анализ, план
- {тема}: ситуация/задача одной фразой
- {формат_итога}: итоговый вывод с рекомендациями / список рисков / пошаговый план
🚀 Быстрый старт — вставь в чат:
Вот шаблон метода Модель-интервьюер. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит тему и желаемый формат итога — потому что без этого она не знает куда вести интервью и в каком виде заканчивать.
Ограничения
⚠️ Простые задачи: Для коротких и однозначных вопросов ("переведи фразу", "найди ошибку в тексте") интервью избыточно — замедляет без выигрыша в качестве.
⚠️ Нетерпеливые сессии: Если нужен быстрый ответ здесь и сейчас — многоходовой диалог раздражает. Метод для ситуаций, где качество важнее скорости.
⚠️ Контекстное окно: Длинное интервью ест токены. В очень длинных сессиях ранние ответы могут "вытесниться" из памяти модели — делай промежуточные summary.
⚠️ Субъективные решения: Метод улучшает точность там, где есть объективно правильный ответ (диагноз, анализ, план). Для чисто субъективного ("какой стиль мне нравится") — менее эффективен.
Как исследовали
Команда Google Research развернула SymptomAI прямо в приложении Fitbit — и за 10 месяцев (июнь 2025 — апрель 2026) получила 13 917 реальных разговоров живых людей о симптомах. Не актёры, не синтетические кейсы — настоящие пользователи с настоящими болячками.
Участников случайно распределили между пятью версиями агента с разными промпт-стратегиями: от базового Gemini 2.0 Flash без специального промптинга до динамического интервьюера с полной свободой задавать вопросы. Главный вопрос: какой промпт даёт лучший диагноз?
Для проверки качества пригласили трёх опытных семейных врачей (суммарно >35 лет практики). Они читали транскрипты разговоров, ставили свои диагнозы независимо, потом вслепую сравнивали списки возможных диагнозов от SymptomAI и от врачей-коллег — не зная кто есть кто. Результат: клиницисты предпочли диагнозы SymptomAI в более чем 50% случаев, а точность оказалась в 2.47 раза выше, чем у врачей, работавших с теми же транскриптами.
Самый любопытный вывод: динамические вопросы (модель сама решает что спрашивать) показали результат статистически неотличимый от канонических медицинских вопросов (те самые, которым учат в медшколах). То есть если доверить модели интервью — она сама придёт к нужным вопросам. Это важно: не нужен чеклист эксперта, достаточно инструкции "выясни что нужно".
Оригинал из исследования (опционально)
Исследователи сравнивали 5 промпт-стратегий. Вот ключевые описания из Appendix E (по описанию в тексте):
Arm 1 (Base): инструктирован только ограничивать ответы медицинскими темами — без указания задавать вопросы.
Arm 3 (Flexible Canonical): следует структуре медицинского анамнеза (onset, location, quality, severity, associated symptoms), но может пропускать нерелевантные вопросы.
Arm 5 (Dynamic Final): полная свобода в выборе вопросов, ограничение только по числу ходов, финальный DDx только в конце.
Контекст: Arms 2-5 все явно инструктированы задавать уточняющие вопросы до постановки диагноза — и все превзошли базовый вариант на 27.34% в среднем.
Адаптации и экстраполяции
💡 Адаптация: вместо одного интервью — двухэтапный разбор
Сначала модель проводит интервью, потом — отдельным запросом — играет роль скептика и задаёт "неудобные вопросы" по твоим ответам.
[После завершения интервью и получения вывода:]
Теперь сыграй роль жёсткого критика. Изучи мои ответы на твои вопросы
и найди: что я мог упустить, о чём не подумал, какие допущения я
принимаю за факты. Задавай по одному "неудобному" вопросу за раз.
🔧 Техника: явный стоп-критерий → контроль глубины интервью
По умолчанию модель сама решает когда "достаточно". Можно задать явный критерий:
Задавай вопросы пока не получишь ответы минимум на 5 ключевых аспектов.
После 5-го аспекта — сообщи что переходишь к выводу.
Это особенно полезно если тема сложная и не хочешь, чтобы модель остановилась слишком рано.
Ресурсы
SymptomAI: Towards a Conversational AI Agent for Everyday Symptom Assessment (2026)
Авторы: Joseph Breda, Fadi Yousif, Samuel Schmidgall, Daniel McDuff и др.
Организации: Google Research, Google DeepMind
Платформа: Fitbit Labs / Fitbit mobile app
