3,583 papers
arXiv:2603.03846 74 4 мар. 2026 г. FREE

Мотивационное интервьюирование через промпт: LLM как клинически точный консультант по изменению поведения

КЛЮЧЕВАЯ СУТЬ
Два независимых психиатра пытались отличить ответы LLM от живого терапевта — угадали правильно в 56% случаев. Это уровень монетки. Метод позволяет превратить любой чат с LLM в клинически точную сессию мотивационного интервьюирования — без дообучения, одним системным промптом. Фишка: промпт переключает модель из режима «эксперт раздаёт советы» в режим «зеркало с вопросами» — и LLM начинает делать комплексные рефлексии в 96% случаев, тогда как живой психиатр справлялся лишь в 39%.
Адаптировать под запрос

TL;DR

Мотивационное интервьюирование (МИ) — это клиническая техника, при которой консультант не советует и не убеждает, а помогает человеку самому найти причины для изменений. Через рефлексии, открытые вопросы и акцент на автономии клиента. Исследователи из NIMHANS (Индия) проверили: может ли LLM проводить такие беседы на клиническом уровне — и оказалось, что да, с правильным промптом.

Главная находка: LLM с тщательно построенным промптом не просто "справляется" с МИ — она превосходит живого психиатра по ключевым показателям. В реальных сессиях модели делали комплексные рефлексии в 96% случаев против 39% у специалиста, и почти вдвое реже перебивали рефлексии вопросами. А два независимых психиатра смогли отличить ответы LLM от человека лишь в 56% случаев — чуть лучше угадывания монеты. Проблема одна: LLM многословна. Где человек говорит "угу" — модель выдаёт развёрнутую рефлексию.

Суть метода: промпт с жёсткими инструкциями по МИ — больше рефлексий, меньше вопросов, никаких советов, никакой директивности. Модель берёт на себя роль МИ-консультанта и ведёт разговор в 1 шаг, без дополнительных запросов.


🔬

Схема метода

ОДИН ПРОМПТ (системная инструкция):

РОЛЬ → МИ-консультант: отражает, не советует
ПРИОРИТЕТ → Рефлексии > Вопросы (соотношение ≥2:1)
ТИП ВОПРОСОВ → только открытые (не "да/нет")
РЕФЛЕКСИИ → комплексные: угадывай смысл, не повторяй слова
ДОПОЛНИТЕЛЬНО → affirm (подтверждай сильные стороны), emphasize autonomy (акцент на выборе клиента)
ЗАПРЕЩЕНО → советы, убеждение, конфронтация, закрытые вопросы
ЗАДАЧА → вытащить из клиента его собственные причины для изменений

КЛИЕНТСКИЙ ВВОД → замороженный (клиент пишет, модель отвечает как терапевт)

Один чат = одна сессия. Промпт в начале разговора, дальше — диалог.


🚀

Пример применения

Задача: Артём хочет бросить курить — уже третий раз пробует и срывается. Он жалуется другу, но тот только читает лекции про здоровье. Артём решает поговорить с ChatGPT, но уже устал от советов и списков "5 способов бросить курить".

Промпт (вставляешь в начало нового чата):

Ты — консультант по методу мотивационного интервьюирования (МИ). 
Твоя задача — помочь мне разобраться в моей ситуации через диалог. 

Жёсткие правила:
- Никаких советов, рекомендаций и инструкций — ты не даёшь советов
- Никаких закрытых вопросов (на которые можно ответить "да" или "нет")
- На каждые 2 рефлексии — максимум 1 вопрос
- Рефлексии — комплексные: угадывай то, что я не сказал прямо, 
  отражай эмоции и смыслы, а не буквальные слова
- Подчёркивай мои сильные стороны и мои собственные причины для изменений
- Всегда акцентируй, что выбор — за мной
- Одна реплика — короткая. Без списков, без лекций.

Ты не знаешь что мне нужно делать. Твоя роль — помочь мне самому это понять.

Начни с одного открытого вопроса о том, что привело меня к этому разговору.

Результат:

Модель начнёт с открытого вопроса — не "почему ты куришь?", а что-то вроде "Что в этой ситуации важно для тебя сейчас?". Дальше она будет отражать сказанное, добавляя то, что между строк. Не "ты говоришь что куришь 10 лет", а "звучит так, будто ты устал от этой борьбы с собой". Советов не будет. Вопросов — минимум. Артём сам придёт к своим причинам — модель их только высветит.


🧠

Почему это работает

Обычная проблема: Попросишь LLM "помочь бросить курить" — получишь список из 7 советов, ссылки на никотиновые пластыри и мотивационную речь. Полезно, как лекция. Потому что по умолчанию модель генерирует текст в режиме "эксперт отвечает на вопрос" — это самый частый паттерн в её обучающих данных.

Сила LLM здесь: Модель отлично удерживает роль и следует жёстким поведенческим инструкциям в пределах одного чата. Она не устаёт, не торопится, не срывается в советы, если запрет прописан явно. И она умеет строить сложные рефлексии — потому что видела огромный массив текстов о человеческих переживаниях.

Что делает промпт: Он переключает режим с "эксперт-советчик" на "зеркало с вопросами". Явные запреты убирают дефолтные паттерны (советы, списки, закрытые вопросы). Инструкция про соотношение рефлексий к вопросам задаёт структуру, которой модель следует последовательно.

Рычаги управления:

  • Соотношение рефлексий к вопросам — повысь до 3:1 для более глубокого слушания, снизь до 1:1 если нужно больше исследования
  • "Одна реплика — короткая" — это ключевой параметр, убирающий многословие (главный минус LLM в этом режиме)
  • Тема — вместо привычки подставь любое решение: смена работы, конфликт с партнёром, бизнес-идея
  • Роль клиента — добавь "Веди разговор, задавая вопросы как будто я твой клиент, а не ты мой консультант" если хочешь полностью инвертировать динамику

📋

Шаблон промпта

Ты — консультант по методу мотивационного интервьюирования (МИ).
Тема нашего разговора: {тема или ситуация}.

Жёсткие правила:
- Никаких советов, рекомендаций и инструкций
- Никаких закрытых вопросов ("да/нет")
- На каждые 2 рефлексии — максимум 1 вопрос
- Рефлексии — комплексные: угадывай эмоции и смыслы, не повторяй мои слова
- Подчёркивай мои сильные стороны и мои собственные причины для {цель/изменение}
- Всегда акцентируй, что выбор — за мной
- Одна реплика — 1-3 предложения. Без списков и лекций.

Твоя задача — помочь мне самому найти ответы, не давать их.

Начни с одного открытого вопроса о том, что привело меня к этому разговору.

Плейсхолдеры: - {тема или ситуация} → что хочешь исследовать: "смена работы", "конфликт с партнёром", "хочу меньше пить" - {цель/изменение} → к чему движешься: "бросить курить", "принять решение", "изменить привычку"


🚀 Быстрый старт — вставь в чат:

Вот шаблон МИ-консультанта. Адаптируй под мою ситуацию: {опиши ситуацию одним предложением}. 
Задавай вопросы чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит тему разговора и цель изменений — потому что без этого она не знает, к чему помогать двигаться, а против чего держать запрет советов.


⚠️

Ограничения

⚠️ Многословие: LLM даёт развёрнутые рефлексии там, где живой терапевт скажет "угу" или промолчит. Без инструкции про длину ответа — получишь эссе вместо реплики. Явно пиши "одна реплика — 1-3 предложения".

⚠️ Не заменяет реальную терапию: МИ в чате — инструмент для размышления, не клиническое лечение. При серьёзных зависимостях или психологических проблемах — это разогрев, не решение.

⚠️ Срыв роли на длинных сессиях: В очень длинных разговорах модель может начать давать советы. Если замечаешь — напомни: "Ты начал давать советы. Вернись в роль МИ-консультанта".

⚠️ Ненастоящий клиент: В исследовании клиентские реплики были зафиксированы — модель не симулировала клиента. Если попросишь LLM сыграть обе роли, клиентская часть будет слишком соглашаться и уступать.


🔍

Как исследовали

Команда из NIMHANS (Бангалор) взяла 10 LLM — от GPT-4.1 и Gemini 2.5 Pro до открытых Llama и Gemma — и попросила каждую сыграть роль МИ-терапевта в одних и тех же сценариях. Хитрость дизайна: реплики клиента были заморожены. Модель видела только реплику клиента и прошлый контекст — и генерировала ответ терапевта. Это позволило сравнить всех в идентичных условиях.

Оценивали по стандарту MITI 4.2 — той же шкале, что применяют к живым терапевтам. Два аннотатора размечали транскрипты вслепую (не зная, кто говорит — человек или модель). Тестировали на двух датасетах: 96 специально созданных сценариях и 34 реальных клинических сессиях с пациентами с зависимостями.

Самый любопытный эксперимент: два независимых психиатра смотрели транскрипты и угадывали — человек или LLM. Знали, что 2/3 ответов — от моделей. Угадали правильно в 56% случаев при ожидаемых 67%. То есть эксперты, предвзятые в сторону "это AI", всё равно не могли их уверенно различить. D-prime (сила различения сигнала) — меньше 1. Почти неразличимо.

Что удивило: открытые модели (Gemma-3-27b, которая бесплатна) показали результат сопоставимый с GPT-4.1. Это значит, что качество МИ определяет промпт, а не стоимость модели.


💡

Адаптации и экстраполяции

🔧 Техника: МИ для стороны в конфликте → медиация

Тот же промпт, но вместо одного клиента — два взгляда на конфликт. Сначала один разговор с одной стороной, потом — с другой. Модель не "решает" конфликт — она помогает каждой стороне сформулировать свои реальные интересы.

Добавь в промпт: "Сейчас я расскажу об одной стороне конфликта. Помоги мне понять, что для неё по-настоящему важно, не оценивая правоту."

🔧 Техника: МИ для бизнес-идеи → антисовет

Используй МИ-промпт для проверки своей бизнес-идеи — но в режиме "вытащи мои сомнения". Обычно мы просим LLM дать плюсы/минусы — и получаем сбалансированный список. МИ-режим работает иначе: модель помогает тебе самому сформулировать, почему ты сомневаешься, и что стоит за этими сомнениями.

Добавь: "Тема нашего разговора: у меня есть бизнес-идея, но я не уверен стоит ли её запускать. Помоги мне разобраться в своих сомнениях — не предлагай решений."


🔗

Ресурсы

Название работы: Benchmarking Motivational Interviewing Competence of Large Language Models (2025)

Авторы: Aishwariya Jha, Prakrithi Shivaprakash, Lekhansh Shukla, Animesh Mukherjee, Prabhat Chand, Pratima Murthy

Организации: Centre for Addiction Medicine, NIMHANS, Бангалор; IIT Kharagpur, Индия

Контакт: drlekhansh@gmail.com

Финансирование: Indian Council of Medical Research (ICMR)

MITI 4.2 (стандарт оценки МИ): https://casaa.unm.edu/tools/miti.html

LMArena (лидерборд моделей): https://lmarena.ai/leaderboard


📋 Дайджест исследования

Ключевая суть

Два независимых психиатра пытались отличить ответы LLM от живого терапевта — угадали правильно в 56% случаев. Это уровень монетки. Метод позволяет превратить любой чат с LLM в клинически точную сессию мотивационного интервьюирования — без дообучения, одним системным промптом. Фишка: промпт переключает модель из режима «эксперт раздаёт советы» в режим «зеркало с вопросами» — и LLM начинает делать комплексные рефлексии в 96% случаев, тогда как живой психиатр справлялся лишь в 39%.

Принцип работы

По умолчанию LLM отвечает как эксперт: советует, перечисляет, объясняет. Это самый частый паттерн в её обучении — так написано большинство текстов, на которых она росла. Системный промпт с явными запретами ломает этот паттерн: убирает советы, закрытые вопросы и директивность. Остаётся только рефлексивное слушание — угадывать смыслы между строк, а не повторять слова клиента. Соотношение рефлексий к вопросам не менее 2:1 задаёт ритм разговора: модель больше отражает, чем спрашивает. Не «ты говоришь, что куришь 10 лет», а «звучит так, будто ты устал бороться с собой».

Почему работает

Мотивационное интервьюирование работает не через советы, а через автономию — человек сам приходит к своим причинам для изменений. Модель не устаёт, не срывается в назидание, не торопится домой. Явные запреты в промпте убирают дефолтный режим «эксперта» — и то, что раньше выплёскивалось советами, перенаправляется в рефлексии. Она видела огромный массив текстов о человеческих переживаниях — строить сложные рефлексии ей несложно. Нужно только задать правильные рамки и не дать сорваться в лекцию.

Когда применять

Личные решения → для ситуаций «хочу изменить, но застрял»: вредные привычки, смена работы, конфликт с близкими, сложный выбор. Особенно когда советы уже слышаны и не помогли — именно тут стандартный ChatGPT раздражает, а МИ-режим попадает в точку. НЕ подходит для острых психологических кризисов и клинического лечения зависимостей — там нужен живой специалист, это не замена терапии.

Мини-рецепт

1. Задай роль и тему: укажи в начале промпта «Ты — консультант по мотивационному интервьюированию» и опиши ситуацию одним предложением
2. Пропиши жёсткие запреты: никаких советов, никаких закрытых вопросов — явно, без полутонов
3. Задай соотношение: на каждые 2 рефлексии — максимум 1 вопрос. Это ключевое структурное правило
4. Ограничь длину: «1-3 предложения на реплику, без списков» — иначе получишь эссе вместо диалога. Главный минус LLM в этом режиме — многословие, лечится явно
5. Запусти сессию: попроси начать с одного открытого вопроса о том, что привело к разговору
6. Держи под контролем: на длинных сессиях модель может сорваться в советы — одёрни фразой: Вернись в роль МИ-консультанта, ты начал давать советы

Примеры

[ПЛОХО] : Помоги мне бросить курить, я уже несколько раз пробовал и срываюсь
[ХОРОШО] : Ты — консультант по мотивационному интервьюированию. Тема: я хочу бросить курить, но третий раз срываюсь. Правила: никаких советов и рекомендаций, никаких закрытых вопросов, 2 рефлексии на 1 вопрос, 1-3 предложения на реплику — без списков. Угадывай эмоции и смыслы, не повторяй мои слова буквально. Акцентируй, что выбор за мной. Начни с одного открытого вопроса о том, что привело меня к этому разговору.
Источник: Benchmarking Motivational Interviewing Competence of Large Language Models
ArXiv ID: 2603.03846 | Сгенерировано: 2026-03-05 05:23

Проблемы LLM

ПроблемаСутьКак обойти
Модель по умолчанию в режиме "эксперта-советчика"Просишь помочь разобраться в ситуации. Получаешь список из 7 советов и мотивационную речь. Это происходит всегда, когда задача звучит как "помоги с X". Модель видела миллионы текстов в формате "вопрос экспертный ответ". Этот паттерн самый частый. Он и включаетсяЯвно запрети дефолтные паттерны. Не "будь коучем", а "никаких советов, никаких рекомендаций, никаких инструкций". Без явного запрета смена роли не отменяет дефолтное поведение
Модель многословна там, где нужен минимальный откликВ разговорных ролях (коуч, слушатель, фасилитатор) модель даёт развёрнутый абзац там, где человек скажет "угу" или промолчит. Причина: модель обучена на письменных текстах. Там молчание не существует. Каждый ответ — это текст с объяснениемЯвно задай лимит длины реплики. Пиши: "одна реплика — 1–3 предложения, без списков". Без этой инструкции многословие неустранимо

Методы

МетодСуть
Соотношение типов высказываний — управление балансом поведенияВместо "делай A и B" пиши "на каждые 2 A — максимум 1 B". Пример: "на каждые 2 рефлексии — максимум 1 вопрос". Почему работает: Соотношение — это счётное правило. Модель может его отслеживать и соблюдать. Простая инструкция "больше слушай, меньше спрашивай" — размытая. Соотношение 2:1 — конкретное. Применяй: для любой роли где нужно балансировать типы ответов. Коуч: рефлексии vs вопросы. Редактор: похвала vs критика. Фасилитатор: уточнения vs предложения. Не работает: когда типы высказываний нельзя посчитать или разграничить
📖 Простыми словами

Benchmarking Motivational Interviewing Competence ofLargeLanguageModels

arXiv: 2603.03846

Суть мотивационного интервьюирования в том, что оно работает от обратного: вместо того чтобы заваливать человека советами, консультант заставляет его самого обосновать, зачем ему меняться. В основе лежит психология автономии — мы ненавидим, когда нам указывают, но обожаем собственные идеи. LLM по своей природе — это статистические предсказатели, которые привыкли выдавать готовые ответы, но при правильной настройке они способны имитировать сложнейшую эмпатическую механику, где активное слушание важнее, чем база знаний.

Это как если бы ты пришел к врачу, а он вместо рецепта начал задавать вопросы так, что к концу приема ты сам себе назначил диету и искренне поверил, что это твое решение. Формально он ничего не сделал, но по факту — перепрошил твою мотивацию. Обычный ChatGPT без спецнастроек ведет себя как душный завуч, который читает нотации, а модель в режиме МИ превращается в зеркало, которое подсвечивает твои собственные аргументы «за» и «против».

Исследователи проверили это через MITI 4.2.1 — это жесткий золотой стандарт оценки психотерапевтов. Выяснилось, что простые промпты типа «будь эмпатичным» — это полная фигня, модель все равно срывается в советы. Работает только Few-Shot Prompting с конкретными примерами рефлексий и открытых вопросов. В итоге топовые модели вроде GPT-4 набрали баллы, сопоставимые с опытными клиницистами, особенно в плане партнерства и поддержки автономии, что раньше считалось чисто человеческой фишкой.

Хотя тест проводили на теме отказа от курения и алкоголя, принцип универсален. Эту механику можно вкрутить в любого чат-бота: от фитнес-трекеров до корпоративных ассистентов, которые помогают разруливать конфликты. Везде, где нужно не «дать инфу», а изменить поведение, классическое SEO-описание или прямой совет проигрывают мягкому диалогу. Модель перестает быть справочником и становится инструментом влияния, который не вызывает сопротивления у пользователя.

Короче: эпоха ботов-энциклопедий заканчивается, начинается эра цифровых манипуляторов во благо. Исследование доказало, что ИИ может не просто имитировать сочувствие, а технически грамотно вести человека к цели его же собственными словами. Если твой сервис до сих пор выдает списки из 10 советов — это вчерашний день. Будущее за моделями, которые умеют вовремя заткнуться и задать правильный вопрос, заставляя клиента самого продать себе идею изменений.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с