3,583 papers
arXiv:2604.08479 74 9 апр. 2026 г. FREE

Формула эмпатии LLM: 10 тактик поддержки и как выйти за пределы шаблона

КЛЮЧЕВАЯ СУТЬ
Парадокс: люди оценивают ответы LLM как более эмпатичные, чем написанные живыми людьми — но 83-90% этих ответов одинаковые. Шаблон один на всех: пожалей → перескажи → посоветуй. Метод позволяет сломать этот шаблон и получить ответ с нужным составом тактик — с вопросами, с живым присутствием, без навязанных советов. Фишка: исследователи выделили 10 конкретных тактик эмпатии — называешь нужные в промпте по порядку, и модель строит ответ как по предзаполненной форме, а не выбирает «что привычно». Результат становится предсказуемым и управляемым.
Адаптировать под запрос

TL;DR

LLM по умолчанию генерирует поддержку по одному и тому же шаблону — пересказывает ситуацию, валидирует чувства, даёт советы — и почти никогда не задаёт вопросов, не делится опытом и не предлагает конкретную помощь. Эту структуру можно назвать «вали-параф-совет»: она покрывает 83–90% всех ответов GPT, Llama, Qwen. Исследователи назвали это empathy template — устойчивый шаблон, который модели выучили из человеческих текстов и воспроизводят снова и снова.

Люди оценивают такие ответы как более эмпатичные, чем написанные людьми — и в этом парадокс. Шаблон работает, потому что он структурно грамотный: сначала показывает понимание, потом помогает. Но именно из-за формульности он звучит «как ChatGPT» — предсказуемо, без личного контакта, без вопросов, без реального присутствия. Человек в кризисе чувствует разницу, даже если не может её назвать.

Исследователи разработали таксономию из 10 тактик эмпатии — конкретных языковых действий, которые создают ощущение поддержки. Зная эти тактики, ты можешь явно управлять тем, какой тип поддержки генерирует модель: стандартный «шаблон», более человечный ответ с вопросами и рефреймингом — или профессиональный формат для конкретного контекста.


🔬

Схема метода

Метод работает в одном промпте — ты задаёшь список нужных тактик и контекст.

БАЗА: 10 тактик эмпатии (таксономия)
├── Эмоциональное выражение (X) → "Мне так жаль это слышать"
├── Валидация (V) → "Твои чувства абсолютно нормальны"
├── Парафраз (P) → пересказ ситуации человека своими словами
├── Расширение возможностей (E) → "Ты справишься с этим"
├── Переосмысление (R) → помочь увидеть ситуацию иначе
├── Совет (A) → конкретные шаги / стратегии
├── Информация (I) → факты, ресурсы
├── Раскрытие себя (S) → "У меня тоже был похожий опыт"
├── Помощь (T) → "Я здесь, если нужна помощь"
└── Вопросы (Q) → уточняющие / открытые вопросы

ШАБЛОН LLM ПО УМОЛЧАНИЮ:
[X?] → [PV]+ → [XE?] → [AIP]+ 
(один-два элемента в начале, затем советы)

ТАКТИКИ, КОТОРЫЕ LLM ПОЧТИ НИКОГДА НЕ ИСПОЛЬЗУЕТ:
├── Раскрытие себя (S) → 0% у всех моделей
├── Вопросы (Q) → 1–11%
└── Предложение помощи (T) → 0–11%

ШАГ 1: Выбери нужные тактики из списка
ШАГ 2: Укажи их явно в промпте
ШАГ 3: Получи ответ с заданным составом тактик

🚀

Пример применения

Задача: Руслан — HR-директор в московской IT-компании. Сотрудник написал в личку: потеря беременности, уходит на больничный. Руслан хочет ответить тепло, но не шаблонно — без «ты справишься» и списка советов.

Промпт:

Напиши ответ на сообщение от сотрудника.

Сообщение: «Руслан, мне нужно уйти на больничный. У нас с женой была потеря 
беременности. Не знаю, сколько времени займёт восстановление.»

Используй только эти тактики эмпатии — строго в таком порядке:
1. Эмоциональное выражение — покажи, что ты тронут и понимаешь серьёзность
2. Валидация — нормализуй желание взять время
3. Вопрос — один открытый вопрос про то, что нужно человеку прямо сейчас
4. Предложение помощи — конкретно: что ты готов сделать

НЕ используй: советы, информацию о процедурах, парафраз, «ты справишься».

Тон: живой, тёплый, коллега — не корпоративный шаблон.
Длина: 4–5 предложений.

Результат: Ответ будет структурно отличаться от стандартного LLM-шаблона. Не будет открываться пересказом ситуации. Не будет советов «возьми время» и ссылок на HR-политику. Модель покажет сочувствие → нормализует → задаст один вопрос → предложит конкретную помощь. Ровно то, что задано — без лишнего.


🧠

Почему это работает

По умолчанию LLM обучена на миллионах текстов поддержки — форумах, терапевтических скриптах, советах психологов. Она выучила самый частый паттерн: сначала покажи понимание (парафраз + валидация), потом помоги (совет + информация). Этот паттерн статистически доминировал в обучающих данных — поэтому модель воспроизводит его почти автоматически.

Тактики, которых в данных было мало, модель и не выучила воспроизводить. Вопросы, раскрытие личного опыта, предложение конкретной помощи — это делают живые люди в реальных разговорах, но редко пишут в текстах о психологии. В результате модель «знает» эти тактики концептуально, но не включает их без явной инструкции.

Когда ты называешь тактики явно, ты задаёшь структуру — модель уже не выбирает «что привычно», а следует заданному плану. Это работает как предзаполненная форма: вместо «напиши что-нибудь тёплое» ты говоришь «напиши вот это, потом вот это». Результат становится предсказуемым и управляемым.

Рычаги управления: - Набор тактик → убери Совет полностью — получишь ответ без советов (часто именно это нужно) - Порядок тактик → поставь Вопрос раньше Валидации — ответ начнётся с присутствия, не с констатации - Запрет тактик → явно напиши «НЕ используй: парафраз, совет» — сломаешь шаблон - Количество тактик → 2–3 тактики = короткий живой ответ; 5–6 = развёрнутая поддержка


📋

Шаблон промпта

Напиши [письмо/сообщение/ответ] для следующей ситуации:

Контекст: {описание ситуации и человека}
Сообщение/запрос: {то, на что нужно ответить}

Используй эти тактики эмпатии в указанном порядке:
{выбери нужные из списка ниже}

Доступные тактики:
— Эмоциональное выражение: покажи свою реакцию ("Мне важно, что ты мне это написал")
— Валидация: нормализуй чувства ("Это абсолютно понятная реакция")
— Парафраз: перескажи ситуацию своими словами, чтобы показать понимание
— Расширение возможностей: скажи что-то укрепляющее о человеке
— Переосмысление: помоги увидеть ситуацию иначе, не обесценивая
— Совет: предложи конкретные шаги или стратегии
— Информация: дай полезные факты или ресурсы
— Раскрытие себя: поделись похожим опытом от первого лица
— Предложение помощи: скажи конкретно, что готов сделать
— Вопрос: задай открытый вопрос про чувства или потребности

НЕ используй: {тактики, которые хочешь исключить}

Тон: {живой/профессиональный/дружеский/и т.д.}
Длина: {количество предложений или слов}

Что подставлять: - {описание ситуации} — кто пишет, кому, какой контекст - выбери 2–5 тактик из списка — меньше = лаконичнее - {тактики для исключения} — особенно полезно убрать Совет, когда человеку не нужны решения


🚀 Быстрый старт — вставь в чат:

Вот шаблон с тактиками эмпатии. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про контекст ситуации и какой тон нужен — потому что без этого она не знает, кто пишет кому и с какой целью. Она возьмёт структуру тактик и подберёт нужные под твой случай.


⚠️

Ограничения

⚠️ Раскрытие себя: LLM не может честно делиться личным опытом — у неё его нет. Если используешь тактику «Раскрытие себя», ответ будет симуляцией. Это ОК для черновика, который ты потом редактируешь от своего имени. Но не для автоматической отправки.

⚠️ Переосмысление требует точности: Тактика «Переосмысление» (помочь увидеть иначе) легко скатывается в обесценивание («зато ты стал сильнее»). Проверяй вручную.

⚠️ Шаблон всё равно виден: Даже с нестандартными тактиками LLM-текст остаётся «причёсанным». Для живого личного тона используй ответ как черновик, а не финальник.

⚠️ Субъективная задача — нет правильного ответа: Нельзя проверить, «сработала» ли эмпатия, без обратной связи от живого человека. Таксономия даёт структуру, но не гарантию.


🔍

Как исследовали

Исследователи поставили простой вопрос: почему люди считают LLM более эмпатичными, чем людей? Чтобы ответить, они разработали таксономию из 10 тактик и вручную разметили тысячи ответов — и от людей, и от моделей.

В первом эксперименте психологи с Upwork и три модели (GPT-4 Turbo, Llama 3.1, Qwen 2.5) отвечали на 101 пост из Reddit про эмоциональные трудности. Живые люди размечали каждую фразу: к какой тактике она относится. Во втором — масштабировали на 1000 постов и три новые модели (GPT-4o, Llama 3.3, Qwen 3), используя LLM как авторазметчика.

Главное открытие удивило чёткостью: исследователи нашли регулярное выражение — буквально математическую формулу — которая описывает 83–90% LLM-ответов. Формула ^X?[PV]+[XE]?[AIP]+ означает: «начни с необязательного сочувствия, потом чередуй парафраз и валидацию, потом советы». Это не метафора — это буквальный паттерн повторяющийся почти в каждом ответе. Для людей та же формула описывает лишь 6–40% ответов. Люди гораздо разнообразнее.

Интересно и то, что паттерн одинаков у GPT, Llama и Qwen — три разные компании, разные обучающие данные, но почти идентичный «стиль эмпатии». Значит, они все выучили этот шаблон из одного источника — человеческих текстов про поддержку.


📄

Оригинал из исследования

Taxonomy of 10 empathy tactics:

X  — Emotional Expression: communicating the responder's feelings/reactions
     ("I'm so sorry to hear that")

V  — Validation: reassures, normalizes, or validates feelings
     ("You're not overreacting")

P  — Paraphrasing: restating what the person said to demonstrate understanding
     ("I'm hearing that you feel overwhelmed")

E  — Empowerment: positive, uplifting statements about the person's capabilities
     ("You are going to get through this")

R  — Reappraisal: helping to engage in cognitive reappraisal
     ("that was out of your control")

A  — Advice: providing ideas for solutions or coping strategies
     ("If I were you I would see a therapist")

I  — Information: offering facts or resources
     ("Flying is the safest form of travel")

S  — Self-Disclosure: sharing personal information or similar past experiences
     ("I've had that happen to me before too")

T  — Assistance: offering aid to the person
     ("I'm here for you if you want to talk")

Q  — Questioning: asking questions to improve understanding
     ("How are you feeling?")

LLM Template (Pattern 5, regex notation):
^X?[PV]+[XE]?[AIP]+[VXER]+[AIP]+[VXER]+[AIP]+

Matches: 83–90% of GPT/Llama/Qwen responses (Study 1)
         60–83% (Study 2, held-out)
Within matched responses covers: 85–92% of content

Human responses matched by same template: 6–40%

Контекст: Это точная таксономия и формула из исследования. Таксономию использовали для разметки 4,555 ответов. Регулярное выражение — буквальная формула, описывающая структуру LLM-ответов.


💡

Адаптации и экстраполяции

📌

💡 Адаптация 1: «Анти-шаблон» — намеренно человечный ответ

Если знаешь стандартный шаблон LLM, можешь его явно сломать. Используй только «редкие» тактики:

Напиши ответ на это сообщение: {сообщение}

Используй ТОЛЬКО эти тактики (в любом порядке):
— Вопрос: 1–2 открытых вопроса про чувства или ситуацию
— Раскрытие себя: поделись похожим опытом (придумай реалистичный, 
  если пишешь от лица персонажа)
— Предложение помощи: конкретно, что можешь сделать

НЕ используй: парафраз, валидацию, советы, информацию.
Длина: 3–4 предложения.

Результат будет звучать нестандартно — живой, немного неловкий, человечный.


📌

🔧 Адаптация 2: Таксономия как чеклист для редактуры

Если пишешь текст поддержки сам и хочешь проверить его:

Вот мой текст: {твой текст}

Проверь его по таксономии из 10 тактик:
Эмоциональное выражение (X), Валидация (V), Парафраз (P), 
Расширение возможностей (E), Переосмысление (R), Совет (A), 
Информация (I), Раскрытие себя (S), Предложение помощи (T), Вопросы (Q)

1. Какие тактики присутствуют?
2. Какие отсутствуют?
3. Не похож ли текст на стандартный LLM-шаблон [PV]+[AIP]+?
4. Что изменить, чтобы он звучал живее?

📌

💡 Адаптация 3: Тактики для обратной связи сотруднику

Та же структура работает не только для эмоциональной поддержки. Если пишешь сложный фидбек — замени тактики:

Напиши обратную связь сотруднику.

Контекст: {ситуация}

Структура (строго по порядку):
1. Эмоциональное выражение — покажи, что ценишь разговор
2. Парафраз — перескажи, как ты понял ситуацию (без оценок)
3. Вопрос — уточни, как сам человек видит проблему
4. Переосмысление — предложи другой угол зрения
5. Совет — один конкретный шаг

НЕ начинай с оценки. НЕ заканчивай мотивационной фразой.

🔗

Ресурсы

Название работы: AI generates well-liked but templatic empathic responses (2025)

Авторы: Emma S. Gueorguieva, Hongli Zhan, Jina Suh, Javier Hernandez, Tatiana Lau, Junyi Jessy Li, Desmond C. Ong

Организации: University of Texas at Austin (Psychology, Linguistics), University of Washington (CS), Microsoft Research, Toyota Research Institute

Контакт: emmagueorguieva@utexas.edu, desmond.c.ong@gmail.com

Упомянутые связанные работы: Lee et al. (2024) — n-gram анализ эмпатии; Sharma et al. (2020) — категории «Emotional Reactions, Explorations, Interpretations»; Welivita & Pu (2020) — empathic response intents


📋 Дайджест исследования

Ключевая суть

Парадокс: люди оценивают ответы LLM как более эмпатичные, чем написанные живыми людьми — но 83-90% этих ответов одинаковые. Шаблон один на всех: пожалей → перескажи → посоветуй. Метод позволяет сломать этот шаблон и получить ответ с нужным составом тактик — с вопросами, с живым присутствием, без навязанных советов. Фишка: исследователи выделили 10 конкретных тактик эмпатии — называешь нужные в промпте по порядку, и модель строит ответ как по предзаполненной форме, а не выбирает «что привычно». Результат становится предсказуемым и управляемым.

Принцип работы

Модель выучила статистически доминирующий паттерн из миллионов текстов о психологии. Советы и валидация есть в каждом форуме, в каждой книге — вот они и воспроизводятся автоматически. А вопросы «что тебе нужно прямо сейчас?» и «могу я что-то сделать конкретно?» — люди говорят вслух, но редко пишут. В обучающих данных их почти нет. Прикол: модель «знает» все 10 тактик — но по умолчанию воспроизводит 3. Остальные 7 спят до явной инструкции. Когда ты называешь нужные тактики — ты убираешь шаг «какой паттерн привычен?» и добавляешь шаг «следуй плану». Это ломает шаблон и включает то, что без подсказки модель никогда не выберет.

Почему работает

Вопросы встречаются в 1-11% ответов GPT, Llama, Qwen. Раскрытие себя — 0% у всех. Конкретное предложение помощи — 0-11%. Это не баг, это статистика обучающих данных. Ключевой инсайт: модель не «понимает» что нужно человеку — она воспроизводит самый частый паттерн из текстов. Меняешь паттерн явно — меняешь ответ. Добавишь «Вопрос» в список тактик — появится вопрос. Уберёшь «Совет» — советов не будет. Это работает потому что модель следует явной структуре сильнее, чем неявным привычкам.

Когда применять

Руководители и HR → ответы на тяжёлые личные сообщения от сотрудников, особенно когда нужно не давать советы, а просто показать что слышишь. Служба поддержки → когда пользователь расстроен и нужен живой отклик, а не инструкция с шагами. Коучи и психологи → черновики писем клиентам, которые потом редактируются от своего имени. НЕ подходит для автоматической отправки без проверки — особенно если используешь тактику «раскрытие себя»: у модели нет личного опыта, это будет симуляция.

Мини-рецепт

1. Выбери 2-5 тактик из таксономии: Эмоциональное выражение / Валидация / Парафраз / Расширение возможностей / Переосмысление / Совет / Информация / Раскрытие себя / Предложение помощи / Вопрос. Меньше тактик — короче и живее. Больше — развёрнутая поддержка.
2. Укажи порядок явно: пронумеруй тактики в промпте. Поставишь Вопрос первым — ответ начнётся с присутствия, а не с констатации.
3. Запрети лишнее: добавь строку «НЕ используй: Совет, Парафраз» — если человеку нужно чтобы его услышали, а не наставили на путь истинный.
4. Добавь контекст и ограничение по длине: кто пишет, кому, какой тон. 4-5 предложений — оптимум для живого ответа.

Примеры

[ПЛОХО] : Напиши тёплый ответ сотруднику, у которого случилась личная трагедия
[ХОРОШО] : Напиши ответ на сообщение от сотрудника. Используй тактики строго в этом порядке: 1) Эмоциональное выражение — покажи что тронут, 2) Валидация — нормализуй желание взять время, 3) Один открытый вопрос — что нужно человеку прямо сейчас, 4) Конкретное предложение помощи — что ты готов сделать. НЕ используй: советы, парафраз, «ты справишься». Тон: живой, тёплый — не корпоративный шаблон. Длина: 4-5 предложений. Разница: в первом случае модель откроется пересказом ситуации и закончится списком советов. Во втором — ровно то что задано: присутствие, вопрос, конкретная помощь.
Источник: AI generates well-liked but templatic empathic responses
ArXiv ID: 2604.08479 | Сгенерировано: 2026-04-10 05:23

Проблемы LLM

ПроблемаСутьКак обойти
Модель всегда пишет поддержку по одному шаблонуПросишь написать тёплое, эмпатичное сообщение. Получаешь одно и то же: пересказ ситуации "твои чувства нормальны" список советов. Всегда. Даже если тебе нужно что-то другое. Вопросов модель почти не задаёт. Конкретную помощь не предлагает. Личным опытом не делится. Это три самых "человечных" типа поддержки — и именно они выпадают по умолчанию. Работает для любого жанра эмпатичного текста: письма, ответы в чате, HR-коммуникацииПеречисли нужные тактики поддержки явно и в нужном порядке. Добавь запрет на ненужные. Вместо "ответь тепло" пиши: "сначала — эмоция, потом — вопрос, потом — предложение помочь. НЕ используй советы и пересказ ситуации"

Методы

МетодСуть
Список тактик поддержки — управление структурой ответаЕсть 10 типов поддержки. Каждый — конкретное языковое действие. Выбери нужные и укажи порядок в запросе. Список тактик: эмоция ("мне важно, что ты написал"), валидация ("это нормально"), пересказ (повтор ситуации своими словами), укрепление ("ты с этим справишься"), переосмысление (помочь увидеть иначе), совет (конкретные шаги), информация (факты и ресурсы), личный опыт (от первого лица), предложение помочь ("скажи, что нужно"), вопрос (открытый, про чувства). Синтаксис: Используй тактики в порядке: 1. Эмоция 2. Вопрос 3. Предложение помочь. НЕ используй: совет, пересказ. Почему работает: Модель не выбирает "что привычно" — она следует заданному плану. Как форма с полями: ты заполняешь структуру, модель подставляет слова. Когда применять: письма с соболезнованиями, HR-коммуникации, поддержка в кризисе, сообщения где советы неуместны. Когда не работает: финальный текст от первого лица — результат всё равно будет "причёсан", используй как черновик

Тезисы

ТезисКомментарий
Редкое поведение модели требует явного запросаМодель воспроизводит то, что встречалось в обучающих данных чаще всего. Задавать вопросы, предлагать конкретную помощь, делиться опытом — люди делают это вживую, но редко пишут об этом в текстах. Модель "знает" эти действия, но не включает их сама. Применяй: если тебе нужно нестандартное поведение — назови его явно. Не "ответь по-человечески", а "задай один открытый вопрос"
📖 Простыми словами

AIgenerates well-liked but templatic empathic responses

arXiv: 2604.08479

LLM не умеют сопереживать, они просто отличные статистики. Когда ты просишь нейронку поддержать человека, она не чувствует его боль, а вычисляет самый вероятный маршрут текста. Исследователи обнаружили, что 90% ответов GPT, Llama и Qwen строятся по жесткому шаблону «вали-параф-совет»: сначала модель пересказывает твою проблему, потом подтверждает, что твои чувства — это ок, и в конце наваливает советов. Это и есть empathy template — стандартная прошивка, которая делает поддержку от AI предсказуемой и плоской.

Это как если бы ты пришел к другу излить душу, а он каждый раз отвечал тебе по методичке корпоративного психолога. «Я слышу, что тебе грустно, это нормальная реакция, вот тебе список из пяти дел, чтобы стало лучше». Формально придраться не к чему, но через три таких разговора тебе захочется швырнуть в него подушкой. Модель ведет себя как вежливый робот-автоответчик, который выучил правила приличия, но напрочь забыл, что живые люди еще умеют задавать вопросы или просто молчать рядом.

Внутри нейронок сидит жесткая статистическая доминанта: они обучались на миллионах форумов и скриптов, где поддержка всегда выглядит как информационная помощь. В итоге модели намертво заучили, что «помочь» — значит дать инструкцию. Они почти никогда не используют тактики, которые реально сближают: не делятся личным опытом, не предлагают конкретную бытовую помощь и, что самое важное, не задают уточняющих вопросов. Вместо живого диалога ты получаешь монолог-инструкцию, упакованную в обертку из вежливости.

Этот принцип универсален для всех популярных моделей, будь то западная GPT или китайская Qwen. Если не пинать их специальными промптами, они всегда будут скатываться в этот безопасный и скучный паттерн. Это работает не только в личной переписке: та же проблема вылезает в клиентском сервисе, HR-коммуникациях и любых интерфейсах, где AI пытается имитировать человеческое тепло. Мы получаем конвейерную эмпатию, которая работает на малых дозах, но начинает бесить при долгом общении.

Короче: AI застрял в образе прилежного ученика курсов психологии, который боится отступить от учебника. Если хочешь от модели человечности, нужно ломать шаблон и запрещать ей давать советы или заниматься парафразом. Без ручного управления ты всегда будешь получать суррогат, который вроде бы всё правильно сказал, но оставил ощущение пустоты. Либо ты сам задаешь тактики общения, либо терпишь бесконечный «вали-параф-совет» до конца времен.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с