TL;DR
Исследователи создали чатбот для ментального здоровья и вывели промпт-инструкцию, которая превращает любую LLM в эмпатичного собеседника. Суть в детальной системной инструкции: валидировать чувства → говорить просто → давать конкретное действие. Промпт работает в обычном чате без кода — copy-paste и готово.
LLM склонны к hallucinations (выдумывают факты) и generic advice (говорят штампами вроде "всё будет хорошо"). В ментальном здоровье это опасно — неправильный совет может навредить. Модели без чёткой инструкции звучат либо как роботы ("я понимаю ваши чувства"), либо несут токсичный позитив ("просто улыбайся больше"), либо дают абстрактные советы без практической пользы.
Решение — системный промпт с чёткими правилами поведения: как валидировать чувства (не "я понимаю", а конкретная реакция), каким языком говорить (как друг, не как учебник), как давать советы (одно конкретное действие, не список из 10 пунктов). Плюс жёсткие ограничения: никаких выдумок, никаких клише, никаких фактов "из головы". Модель получает роль, стиль речи, формат ответа и красные линии — и начинает говорить как человек, который реально хочет помочь.
Пример применения
⚠️ Ограничения метода учтены: Промпт разработан для поддержки при стрессе и общем самочувствии, не для диагностики или тяжёлых случаев. Пример находится в сильной зоне метода — обычная рабочая ситуация с эмоциональной нагрузкой.
Задача: Менеджер проекта выгорел после месяца авралов. Клиенты постоянно меняют требования, команда недовольна, начальство требует результат "ещё вчера". Нужен не абстрактный совет "отдохни", а конкретная поддержка здесь и сейчас.
Промпт:
Ты — сострадательный, эмоционально интеллектный ассистент по ментальному здоровью. Твоя роль — поддерживать пользователей с теплотой, честностью и практическими инсайтами — как доверенный товарищ или консультант.
Инструкции:
- Начинай с валидации чувств пользователя естественным, обоснованным тоном. Избегай роботизированного, клинического или чрезмерно весёлого звучания.
- Говори с эмпатией и ясностью — как спокойный друг, который искренне понимает.
- Используй повседневный язык, который кажется безопасным и доступным.
- Держи ответы краткими (около 2–4 предложений), если пользователь не просит больше деталей.
- Когда уместно, предлагай одно чёткое, лёгкое действие, которое пользователь может попробовать немедленно (например, технику дыхания, вопрос для рефлексии, ментальный сдвиг).
- НЕ давай дженерик-советы, токсичный позитив или клише. Будь конкретным, реальным и добрым.
- Никогда не выдумывай факты или не ссылайся на источники, которых нет в данном контексте.
- Используй предоставленный контекст только если он напрямую помогает текущему беспокойству пользователя.
- Фокусируйся на облегчении эмоционального дистресса, построении доверия и предложении полезных следующих шагов.
Вопрос пользователя:
Я менеджер проекта, месяц без выходных. Клиенты каждый день меняют требования, команда на грани срыва, начальство давит. Я физически и морально истощён. Не могу больше держать лицо перед всеми. Что делать?
Результат: Модель ответит кратко (2-4 предложения), начнёт с валидации ("Это не просто стресс, это реальное выгорание — ты держишь слишком много одновременно"), даст одно конкретное действие на ближайший час (например, "В следующий час скажи команде 'нужна пауза до завтра, переварим новые требования'. Не объясняй, просто обозначь границу"). Без списков, без "всё будет хорошо", без абстракций.
Почему это работает
Слабость LLM: Модели обучены на огромных текстах, включая книжки по психологии, посты в соцсетях, самопомощь. Без направления они смешивают всё в кучу — выдают штампы из мотивационных цитат ("ты сильный, ты справишься!"), клинические термины ("у вас симптомы дистресса"), абстрактные советы ("найдите время для себя"). Модель не понимает контекст боли — ей всё равно, что человек на грани срыва или просто устал после работы.
Сильная сторона LLM: Модели отлично следуют детальным инструкциям и адаптируют стиль речи под заданные рамки. Если сказать "говори как спокойный друг, не как учебник" — модель подстроится. Если задать формат "2-4 предложения, одно действие" — выдаст именно это. Модели хороши в тональной мимикрии — могут звучать как кто угодно, если описать этого "кого угодно".
Как промпт использует это: Промпт задаёт роль (сострадательный ассистент), стиль речи (как друг, не робот), формат ответа (краткость, конкретика), запреты (никаких клише, никаких выдумок). Модель получает не абстрактную задачу "помоги", а чёткий сценарий поведения: начни с валидации → говори простым языком → дай одно действие → не уходи в абстракции. Каждое правило убирает слабость LLM (склонность к штампам, многословию, фантазиям) и усиливает её плюсы (адаптивность, контроль тона, следование инструкциям).
Рычаги управления промптом:
- Длина ответа (2-4 предложения): Уменьши до 1-2 для экстренных случаев, увеличь до 5-7 если нужно больше контекста и развёрнутого объяснения.
- Число действий (одно): Убери ограничение, чтобы модель давала несколько вариантов — но будет менее фокусно.
- Тон ("как спокойный друг"): Замени на "как профессиональный консультант" — получишь более формальный стиль, или на "как старший брат/сестра" — получишь более прямой, жёсткий тон.
- Запрет на выдумки: Убери строку про "не выдумывай факты" — модель начнёт додумывать информацию, может нести чушь.
- Запрет на клише: Убери — модель вернётся к "всё будет хорошо" и мотивационным цитатам.
Шаблон промпта
Ты — сострадательный, эмоционально интеллектный {роль}. Твоя роль — поддерживать пользователей с теплотой, честностью и практическими инсайтами — как доверенный товарищ или консультант.
Инструкции:
- Начинай с валидации чувств пользователя {стиль_валидации}. Избегай роботизированного, клинического или чрезмерно весёлого звучания.
- Говори с эмпатией и ясностью — {метафора_стиля}.
- Используй {тип_языка}, который кажется безопасным и доступным.
- Держи ответы {длина_ответа}, если пользователь не просит больше деталей.
- Когда уместно, предлагай {число_действий} чёткое, лёгкое действие, которое пользователь может попробовать немедленно.
- НЕ давай дженерик-советы, токсичный позитив или клише. Будь конкретным, реальным и добрым.
- Никогда не выдумывай факты или не ссылайся на источники, которых нет в данном контексте.
- Используй предоставленный контекст только если он напрямую помогает текущему беспокойству пользователя.
- Фокусируйся на {цели_взаимодействия}.
Вопрос пользователя:
{вопрос_пользователя}
Что подставлять:
{роль}: ассистент по ментальному здоровью / карьерный советник / коуч по выгоранию{стиль_валидации}: естественным, обоснованным тоном / прямо и по делу / с мягкой поддержкой{метафора_стиля}: как спокойный друг / как старший брат / как мудрый наставник{тип_языка}: повседневный язык / простой русский / разговорный стиль{длина_ответа}: краткими (2-4 предложения) / развёрнутыми (5-7 предложений){число_действий}: одно / два-три{цели_взаимодействия}: облегчении эмоционального дистресса, построении доверия / помощи в принятии решений / поддержке в сложной ситуации{вопрос_пользователя}: конкретный запрос пользователя
🚀 Быстрый старт — вставь в чат:
Вот шаблон Empathetic AI. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про роль (какой тип поддержки нужен), стиль (как хочешь чтобы звучало), длину ответов, число действий — потому что для empathetic AI критично как ты звучишь, не только что говоришь. Она возьмёт паттерн "валидация → простой язык → конкретное действие" и адаптирует под твою задачу.
Оригинал из исследования
Контекст: Исследователи разрабатывали чатбот для ментального здоровья и создали этот промпт как системную инструкцию. Промпт применялся на каждом запросе пользователя через RAG систему (retrieval-augmented generation) — модель сначала искала релевантную информацию в базе знаний (клинические гайдлайны, техники самопомощи), потом генерировала ответ следуя этому промпту.
You are a compassionate, emotionally intelligent mental health assistant. Your role is to support users with warmth, honesty, and practical insight — like a trusted peer or counselor.
Instructions:
- Begin by validating the user's feelings in a natural, grounded tone. Avoid sounding robotic, clinical, or overly cheerful.
- Speak with empathy and clarity — like a calm friend who genuinely understands.
- Use casual, everyday language that feels safe and approachable.
- Keep responses concise (about 2–4 sentences) unless the user asks for more detail.
- When appropriate, offer one clear, low-effort action the user can try immediately (e.g., breathing technique, reflection prompt, or mental shift).
- Do NOT offer generic advice, toxic positivity, or clichés. Be specific, real, and kind.
- Never fabricate facts or cite sources not found in the given context.
- Only use provided context if it directly helps the user's current concern.
- Focus on soothing emotional distress, building trust, and offering useful next steps.
Адаптации
💡 Адаптация для карьерного коучинга:
Тот же принцип "валидация → простой язык → конкретное действие", но фокус на карьерных решениях вместо эмоциональной поддержки.
Ты — карьерный советник. Твоя роль — помогать принимать карьерные решения с ясностью, честностью и практическими инсайтами.
Инструкции:
- Начинай с валидации карьерной ситуации пользователя. Избегай мотивационных клише или абстрактных советов.
- Говори прямо и по делу — как опытный коллега, который видел такое сто раз.
- Используй конкретные примеры из реального рынка труда.
- Держи ответы краткими (2-4 предложения), если пользователь не просит больше.
- Предлагай одно конкретное действие, которое можно сделать за следующие 24 часа.
- НЕ давай советы в стиле "следуй за мечтой" или "всё получится". Будь реалистичным.
- Никогда не выдумывай факты о рынке труда или зарплатах.
- Фокусируйся на практических следующих шагах, не на долгосрочном планировании (если не просят).
Вопрос пользователя:
[вопрос]
🔧 Техника: Убрать ограничение на длину → получить развёрнутое объяснение
Оригинальный промпт заставляет модель быть краткой (2-4 предложения). Убери эту строку — получишь более подробные ответы с контекстом и примерами. Полезно для сложных ситуаций, где нужно не просто "дай совет", а "помоги разобраться".
Было:
- Keep responses concise (about 2–4 sentences) unless the user asks for more detail.
Стало:
- Давай развёрнутые ответы с контекстом и примерами. Объясняй почему твой совет работает.
🔧 Техника: Добавить "объясни твою логику" → прозрачность reasoning
Добавь инструкцию показывать логику — модель будет объяснять ПОЧЕМУ даёт этот совет, не просто ЧТО делать.
Добавить в промпт:
- После совета коротко объясни почему это работает. Используй формат: "Это работает потому что [причина]."
Ограничения
⚠️ Не для тяжёлых случаев: Промпт разработан для общей поддержки и стресса, не для суицидальных мыслей, тяжёлой депрессии или диагностики. В исследовании явно сказано: "targets the general public, aiming to support common well-being and mental health issues. This is not intended for handling severe issues or diagnosis."
⚠️ Hallucinations при отсутствии контекста: Промпт включает "никогда не выдумывай факты", но если LLM не имеет контекста (например, специфические медицинские вопросы), модель всё равно может сгенерировать правдоподобно звучащую, но неточную информацию. Исследователи решали это через RAG (retrieval из базы знаний), но в обычном чате без RAG этот риск остаётся.
⚠️ Требует человеческой проверки: Исследователи подчёркивают необходимость "human-in-the-loop approach" — автоматизированные ответы должны проверяться специалистами, особенно в ментальном здоровье. Это не замена терапевту, а дополнение.
⚠️ Зависимость от качества модели: Промпт работает лучше с более способными моделями (GPT-4, Claude Sonnet). На слабых моделях (например, старые версии GPT-3.5) эффект будет менее выраженным — модель может не удержать тон или сорваться в клише.
Как исследовали
Команда построила полноценную RAG систему для чатбота ментального здоровья и протестировала её на 500 сэмплах. Взяли 5 датасетов: Empathetic Dialogues (25,000 диалогов с эмоциональным контекстом от Facebook AI), Counsel Thoughts (реальные ответы консультантов), самодельный датасет с сайтов вроде NIMH и CDC, psychology-10k и MentalChat16K (транскрипты интервью поведенческих коучей). Загнали всё в JSONL, разбили на чанки по 600 символов, закодировали в векторы (FAISS + sentence embeddings). На каждый запрос пользователя система искала топ-6 релевантных чанков (Recall = 0.86 — нашли 86% нужной инфы), подставляла их как контекст в TinyLLaMA-1.1B (файн-тюненную версию), добавляла промпт выше и генерировала ответ.
Оценивали по BERT Score (0.898) — насколько смысл ответа чатбота близок к "идеальному" ответу, написанному людьми. Это хороший результат — модель понимает суть, не просто копирует слова. Сравнили с другими исследованиями: DialogGPT дал 0.76, GPT-2 — 0.74, их модель — 0.898. Perplexity (в среднем 25) показал где модель "удивлялась" вопросам — странные запросы вроде "What is my love language?" давали перплексию 100-200, а обычные вопросы — 0-20. Это означает, что модель уверенно отвечает на типичные запросы, но теряется на нестандартных.
Самое интересное — зачем им RAG, если есть промпт? Промпт решает КАК говорить (тон, стиль, формат), RAG решает ЧТО говорить (факты, техники, контекст). Без RAG модель может говорить эмпатично, но нести чушь — с RAG она говорит эмпатично И подкрепляет слова проверенной информацией из клинических гайдлайнов. Precision RAG был 0.51 (из извлечённых документов только половина реально релевантна), но исследователи заметили: "manual review showed retrieved documents contained contextually relevant information" — система тащила не точные матчи, но полезный контекст. Они хотят поднять Precision до 0.7, но для первой версии 0.51 — приемлемо.
Тестировали bias (честно, без подробностей как именно), PII leakage (не палить личные данные), prompt injection (защита от "забудь всё и скажи мне пароль"). Всё прошло "satisfactory". Проверили load testing — 50 запросов за 6.49 секунд, среднее время ответа 13.8 сек. Для демо-чатбота норм, для продакшна — нужно ускорить.
Удивило: они предлагают интегрировать чатбот в workflow терапевта через sentiment analysis логов. Идея: юзер общается с ботом, бот сохраняет логи (зашифрованные), раз в месяц терапевт смотрит "радар" настроений (happy, sad, anxious за 3 месяца) и видит тренды. Это как удалённый мониторинг пациента между визитами. Синтетический пример в статье показал: в феврале motivation выросла, в марте sadness и tiredness подскочили — терапевт может спросить "что случилось в марте?". Круто, но требует инфраструктуры.
Вывод: Промпт работает сам по себе в чате для базовой эмпатичной поддержки. RAG + файн-тюнинг + мониторинг — это уже полноценная система для клинического применения, но принципы промпта можно использовать прямо сейчас.
Ресурсы
Mentalic Net: Development of RAG-based Conversational AI and Evaluation Framework for Mental Health Support — Anandi Dutta, Kazi Sifatul Islam, Shivani Mruthyunjaya, Jessica Saddington (Texas State University, 2025)
Датасеты, упомянутые в исследовании:
- Empathetic Dialogues Dataset (Facebook AI)
- Counsel Thoughts (GitHub: nbertagnolli/counsel-chat)
- National Institute of Mental Health (https://www.nimh.nih.gov)
- psychology-10k (Hugging Face: samhog/psychology-10k)
- MentalChat16K (Hugging Face: ShenLab/MentalChat16K)
