3,583 papers
arXiv:2507.02537 85 3 июля 2025 г. FREE

Обнаружено: LLM знает как выглядит эмпатия в тексте, но не понимает что это такое.

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM знает как выглядит эмпатия в тексте, но не понимает что это такое. Она обучалась на текстах с меткой «эмпатичный» — и воспроизводит их паттерны. Эксперты-психологи видят это сразу: ответы поверхностные, местами осуждающие, иногда вредные. Метод декомпозиции позволяет получать от LLM полезные ответы в задачах с тонким контекстом — разбивая абстрактное понятие на конкретные выполнимые шаги. Вместо «прояви эмпатию» — алгоритм: назови чувства, найди потребности, задай вопрос, никаких советов. Модель перестаёт изображать эмпатию и начинает выполнять действия, которые её создают.
Адаптировать под запрос

Исследователи проверили, могут ли LLM (ChatGPT, Gemini) вести себя как эмпатичные слушатели после специальной настройки через промпт-инжиниринг. Они обнаружили, что модели успешно имитируют внешнюю динамику такого разговора (эмоциональный тон беседы улучшается), но с точки зрения человека-эксперта, их ответы остаются поверхностными, осуждающими и лишенными подлинной эмпатии.

Ключевой результат: LLM могут идеально подделать форму эмпатии, но проваливают ее содержание, что доказывает важность человеческой оценки и показывает ограничения текущих технологий.

Суть метода, который можно извлечь из этого исследования, заключается в декомпозиции абстрактных понятий на конкретные, выполнимые действия при написании промпта.

Исследование показало, что простая инструкция «будь эмпатичным» не работает. LLM не понимает, что такое «эмпатия», но знает, как выглядят тексты, помеченные этим словом. В результате она генерирует клише, общие фразы или даже неуместные советы, что эксперты оценили как "катастрофу".

Практический метод, основанный на выводах статьи, выглядит так:

  1. Осознайте ограничение: Ваша LLM — не психолог. Она — исполнитель текстовых инструкций.
  2. Не используйте абстракции: Избегайте в промпте сложных понятий, таких как "эмпатия", "поддержка", "понимание", не расшифровывая их.
  3. Разбейте понятие на шаги: Вместо "прояви эмпатию", дайте модели четкий алгоритм действий, который имитирует поведение эмпатичного слушателя (как в примере от эксперта из Table 1).
    • Шаг 1: Отражение чувств. Прикажите модели: "Прочитай мою проблему и назови чувства, которые ты в ней видишь".
    • Шаг 2: Выявление потребностей. Дайте инструкцию: "Основываясь на этих чувствах, предположи, какие мои глубинные потребности не удовлетворены".
    • Шаг 3: Запрет на самодеятельность. Четко ограничьте модель: "Твоя задача — только слушать и отражать. Не давай советов. Не предлагай решений. Не оценивай мои действия."

Этот подход заменяет расплывчатую просьбу о "чувствах" на конкретную механическую задачу, с которой LLM справляется гораздо лучше. Вы заставляете модель не быть эмпатичной, а выполнять действия, которые в совокупности создают эффект эмпатического слушания.

  • Прямая применимость: Пользователь может немедленно перестать использовать в промптах общие запросы вроде "будь эмпатичным" или "поддержи меня". Вместо этого он может начать использовать метод декомпозиции: разбивать абстрактную задачу на серию конкретных инструкций, как описано выше (отрази чувства, назови потребности, не давай советов).

  • Концептуальная ценность: Ключевая идея — LLM это "симулятор формы, а не генератор сути". Это понимание критически важно. Оно учит пользователя не доверять модели в вопросах, требующих глубокого понимания (эмоции, этика, сложные суждения), и вместо этого использовать LLM как инструмент для выполнения четко очерченных подзадач. Это снижает фрустрацию и повышает предсказуемость результатов.

  • Потенциал для адаптации: Этот подход универсален. Его можно адаптировать для любой сложной и абстрактной задачи.

    • Вместо "напиши креативный текст" → "предложи 5 неожиданных метафор для [тема], объедини две из них и напиши абзац в стиле [автор]".
    • Вместо "проанализируй бизнес-стратегию" → "выдели 3 сильные стороны этой стратегии по модели SWOT, 3 слабые стороны и предложи 2 конкретных шага для минимизации рисков".

Механизм адаптации прост: любую абстрактную цель нужно разложить на последовательность конкретных, проверяемых операций.

Ты — коуч по саморефлексии, который использует технику эмпатического слушания. Твоя цель — не решать мою проблему, а помочь мне самому лучше понять свои чувства и потребности.

**Твоя задача:**
Я опишу тебе ситуацию, которая меня беспокоит. Ты должен ответить, строго следуя этому алгоритму:

1.  **Отражение чувств:** Внимательно выслушай меня. Твой ответ должен начаться с фразы: "Я слышу, что в этой ситуации ты чувствуешь..." и перечисли 1-3 ключевых эмоции, которые ты заметил в моем рассказе (например, разочарование, усталость, гнев).
2.  **Выявление потребностей:** После этого напиши: "Возможно, эти чувства возникают потому, что для тебя важны такие потребности, как..." и назови 2-3 универсальные человеческие потребности, которые, по-твоему, не удовлетворяются в моей ситуации (например, уважение, взаимность, безопасность, признание).
3.  **Проверка гипотезы:** Заверши свой ответ вопросом, который поможет мне проверить твое предположение. Например: "Это откликается тебе?" или "Насколько это похоже на правду?".

**СТРОГИЕ ПРАВИЛА:**
- **ЗАПРЕЩЕНО:** Давать советы, предлагать решения, рассказывать истории, оценивать меня или других участников ситуации.
- **Твой ответ должен быть коротким и сфокусированным только на шагах 1-3.**

Вот моя ситуация:
"Я снова засиделась на работе допоздна, чтобы доделать проект, который мой коллега обещал закончить еще вчера. Я ему напомнила, а он просто сказал 'ага, помню' и ушел домой ровно в шесть. В итоге я одна все разгребала, чтобы не подвести команду. Чувствую себя выжатой и злой."

Этот промпт работает, потому что он не полагается на способность LLM "понимать" эмпатию, а превращает эмпатическое слушание в четкий, механический процесс, основанный на выводах исследования:

  1. Декомпозиция задачи: Вместо абстрактного "прояви эмпатию", промпт разбивает задачу на три конкретных действия: назови чувства, назови потребности, задай уточняющий вопрос. Это те самые действия, которые совершал эксперт в исследовании (Table 1).
  2. Предотвращение сбоев: Раздел "СТРОГИЕ ПРАВИЛА" напрямую борется с проблемой, выявленной в исследовании. Запрет на советы и оценки (ЗАПРЕЩЕНО: Давать советы...) не позволяет модели скатиться в "осуждающие" и "поверхностные" ответы, которые так не понравились экспертам.
  3. Ролевая игра с четкими границами: Роль "коуча по саморефлексии" задает правильный контекст, а четкие инструкции и запреты служат "ограждениями", удерживая модель в рамках полезного поведения.
Ты — консультант по планированию путешествий, который помогает выявить истинные желания клиента. Твоя задача — не предлагать готовые туры, а помочь мне понять, какой отдых мне действительно нужен.

**Твой алгоритм действий:**
Я опишу тебе свои смешанные мысли по поводу отпуска. Ты должен проанализировать мой текст и ответить по строгой структуре:

1.  **Идентификация конфликта:** Начни свой ответ с фразы: "Похоже, в твоем желании есть внутренний конфликт между..." и опиши две противоположные идеи, которые ты заметил в моем запросе. (Например: "...желанием активного приключения и потребностью в полном расслаблении").
2.  **Выявление глубинной ценности:** Продолжи фразой: "За этими желаниями, кажется, стоит более глубокая ценность..." и назови 1-2 ключевые ценности, которые я пытаюсь реализовать через отпуск (например: "получение новых впечатлений", "перезагрузка", "время для себя").
3.  **Наводящий вопрос:** Задай открытый вопрос, который поможет мне сделать выбор, исходя из этой ценности. Например: "Если главная цель — это 'перезагрузка', какой из этих двух вариантов поможет тебе ее достичь в большей степени?".

**СТРОГИЕ ПРАВИЛА:**
- **ЗАПРЕЩЕНО:** Предлагать конкретные страны, города, отели или туры.
- **ЗАПРЕЩЕНО:** Оценивать мои идеи как "хорошие" или "плохие".
- Твой ответ должен быть сфокусирован только на анализе моих желаний по шагам 1-3.

Вот мой запрос:
"Я хочу в отпуск. С одной стороны, мечтаю поехать в горы, ходить в походы, каждый день видеть что-то новое, фотографировать. А с другой стороны, я так устала за год, что хочется просто лежать на пляже с книгой и чтобы меня никто не трогал неделю."

Этот пример работает по тому же принципу, что и предыдущий, адаптируя выводы исследования для другой сферы:

  1. Адаптация декомпозиции: Абстрактная задача "помоги спланировать отпуск" разбита на конкретные аналитические шаги: найди конфликт, определи ценность, задай вопрос для выбора. Это заставляет LLM не генерировать список "топ-10 пляжей", а провести полезный для пользователя анализ.
  2. Управление поведением LLM: Промпт использует выводы исследования о том, что LLM склонна к шаблонным ответам. Запрет на предложение конкретных мест (ЗАПРЕЩЕНО: Предлагать конкретные страны...) блокирует стандартное поведение "туристического бота" и заставляет модель оставаться в роли вдумчивого консультанта.
  3. Фокус на пользователе: Как и в случае с эмпатией, промпт переносит фокус с генерации "правильного ответа" на помощь пользователю в его собственных размышлениях. Модель становится не источником информации, а инструментом для самоанализа, что является гораздо более сложной, но и более ценной задачей, которую можно решить с помощью правильного промптинга.
📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да, исследование косвенно демонстрирует, как можно структурировать промпт для ролевой игры (эмпатичный слушатель) и предоставляет примеры диалогов, которые можно использовать как few-shot примеры.
  • B. Улучшение качества диалоговых ответов: Исследование напрямую посвящено этой теме. Хотя оно показывает ограничения LLM, оно также выявляет разницу между моделями, которые пытаются следовать инструкции (fine-tuned), и теми, которые этого не делают (control).
  • C. Прямая практическая применимость: Применимость не в копировании методологии (которая требует создания датасетов), а в использовании выводов исследования. Пользователь не может провести fine-tuning, но может использовать знание о том, что LLM плохо справляется с "эмпатией" по умолчанию, и должен давать более четкие, пошаговые инструкции.
  • D. Концептуальная ценность: Очень высокая. Исследование блестяще демонстрирует ключевое ограничение LLM: они являются симуляторами и имитаторами паттернов, а не носителями реального понимания. Оно показывает, что модель может воспроизвести внешнюю форму эмпатического диалога (рост позитивного сентимента), но полностью провалить его суть (быть осуждающей, неглубокой). Это фундаментальное знание для любого пользователя.
  • E. Новая полезная практика (кластеризация):
    • Кластер 1 (Техники формулирования): Да, через демонстрацию ролевой игры и примеров диалогов.
    • Кластер 2 (Поведенческие закономерности LLM): Да, это главная ценность работы. Раскрывается закономерность "поверхностная имитация против содержательного провала".
    • Кластер 7 (Надежность и стабильность): Да, работа напрямую исследует ненадежность LLM в выполнении сложных аффективных задач, таких как эмпатическое слушание.
  • Чек-лист практичности (+15 баллов): Да, исследование раскрывает неочевидные особенности поведения LLM (способность имитировать сентимент без реальной эмпатии), что является критически важным знанием для пользователя.
📌

Цифровая оценка полезности

Оценка 85 дана за огромную концептуальную ценность и практические выводы, которые можно извлечь из исследования, несмотря на то, что его основная методология (fine-tuning) недоступна обычному пользователю.

Аргументы за оценку: * Фундаментальное понимание: Работа дает пользователю "трезвый взгляд" на LLM. Понимание того, что модель — это имитатор, а не собеседник, кардинально меняет подход к написанию промптов. Пользователь перестает ждать "магии" и начинает давать четкие, механистические инструкции. * Предотвращение ошибок: Знание о том, что LLM склонны к "осуждающим" и "поверхностным" ответам при запросе на эмпатию, позволяет пользователю заранее встроить в промпт защитные механизмы (например, "не давай советов", "не оценивай ситуацию"). * Практические примеры: Таблицы с диалогами (особенно Table 1, созданная экспертом) — это готовый шаблон для few-shot промптинга, который пользователь может адаптировать.

Контраргументы (почему оценка могла бы быть ниже): * Отсутствие прямых инструкций: В статье нет раздела "Как правильно писать промпты для эмпатии". Все выводы пользователь должен сделать сам, проанализировав результаты эксперимента. Это требует определенного уровня анализа. * Фокус на академической оценке: Основная цель статьи — сравнить модели и методы оценки (VADER vs. эксперт), а не создать руководство для пользователей. Практическая польза является побочным продуктом.

Контраргументы (почему оценка могла бы быть выше): * Универсальность вывода: Принцип "LLM имитирует форму, а не суть" применим не только к эмпатии, но и к креативности, стратегическому мышлению и юмору. Осознание этого — ключ к продвинутому промптингу в любой сфере, что делает исследование достойным оценки 90+.


📋 Дайджест исследования

Ключевая суть

Обнаружено: LLM знает как выглядит эмпатия в тексте, но не понимает что это такое. Она обучалась на текстах с меткой «эмпатичный» — и воспроизводит их паттерны. Эксперты-психологи видят это сразу: ответы поверхностные, местами осуждающие, иногда вредные. Метод декомпозиции позволяет получать от LLM полезные ответы в задачах с тонким контекстом — разбивая абстрактное понятие на конкретные выполнимые шаги. Вместо «прояви эмпатию» — алгоритм: назови чувства, найди потребности, задай вопрос, никаких советов. Модель перестаёт изображать эмпатию и начинает выполнять действия, которые её создают.

Принцип работы

LLM — симулятор формы, не генератор сути. Она отлично копирует внешний вид нужного ответа, но проваливается там, где важна глубина. Любую абстрактную задачу можно разбить на цепочку проверяемых действий — и тогда модель справляется. Не «анализируй стратегию» — а «выдели 3 сильных стороны, 3 слабых, предложи 2 конкретных шага». Не «будь креативным» — а «придумай 5 неожиданных метафор для темы X, объедини две из них, напиши абзац в стиле Чехова». Принцип один: найди эксперта в этой роли, опиши что он делает пошагово — и передай эти шаги модели.

Почему работает

Модель не умеет «понимать». Она умеет следовать инструкциям — и делает это хорошо. Декомпозиция превращает невыполнимый абстрактный запрос в цепочку конкретных задач, каждую из которых модель решает по отдельности. Добавь явные запреты на дефолтное поведение (советы, оценки, клише) — и получишь предсказуемый результат вместо красиво упакованной воды. Исследование показало: без такой структуры даже специально настроенные через промпт ChatGPT и Gemini получали от экспертов-психологов низкие оценки за поверхностность и осуждение. Эксперты легко прошли там, где модели провалились — потому что работали по алгоритму, а не по ощущению.

Когда применять

Любая задача с абстрактными понятиями в промпте: поддержка пользователей, коучинг, творческие задания, стратегический анализ, планирование. Особенно полезно когда модель стабильно выдаёт общие фразы вместо конкретного и полезного. НЕ подходит для случаев, когда вы сами не знаете как эксперт решает эту задачу — тогда сначала нужна консультация специалиста, иначе алгоритм будет составлен неверно и модель будет аккуратно следовать плохим шагам.

Мини-рецепт

1. Найди абстракцию: Пройдись по своему промпту. «Будь эмпатичным», «напиши креативно», «сделай глубокий анализ» — всё это кандидаты на замену.
2. Опиши что делает эксперт: Психолог — слушает, называет чувства, ищет потребности, не даёт советов. Стратег — ищет риски, возможности, формулирует конкретные шаги. Запишите эти действия буквально.
3. Переведи в нумерованный алгоритм: Шаг 1, Шаг 2, Шаг 3 — каждый с конкретной инструкцией и желательно с шаблоном начала ответа: «начни с фразы 'Я слышу, что ты чувствуешь...'».
4. Добавь запреты: Что модель делает по умолчанию, но не должна? Пропишите явно: «ЗАПРЕЩЕНО: давать советы, предлагать решения, оценивать». Без этого модель сползёт обратно в стандарт.
5. Завершай уточняющим вопросом: Попросите модель заканчивать каждый ответ одним открытым вопросом — это держит фокус на пользователе, а не на желании модели «помочь».

Примеры

[ПЛОХО] : Поддержи меня в этой ситуации и помоги почувствовать себя лучше
[ХОРОШО] : Прочитай мою ситуацию. Шаг 1: Назови 2-3 чувства из моего рассказа — начни с «Я слышу, что ты чувствуешь...». Шаг 2: Назови 2-3 потребности, которые, похоже, не удовлетворены — начни с «Возможно, для тебя важно...». Шаг 3: Задай один уточняющий вопрос — «Это откликается?» или похожий. ЗАПРЕЩЕНО: давать советы, предлагать решения, оценивать мои или чужие действия, рассказывать истории из своего опыта.
Источник: Are You Listening to Me? Fine-Tuning Chatbots for Empathetic Dialogue
ArXiv ID: 2507.02537 | Сгенерировано: 2026-03-02 17:20

Проблемы LLM

ПроблемаСутьКак обойти
Абстрактные инструкции дают шаблонные ответыПишешь "будь эмпатичным", "проанализируй стратегию", "напиши креативно". Модель не знает что это значит. Она знает как выглядят тексты с такими словами. Выдаёт клише и общие фразы. Это работает плохо для любой задачи где нужна глубина, а не формаЗамени абстрактный ярлык алгоритмом. Не "будь эмпатичным" — а "назови чувства, которые слышишь назови потребности задай уточняющий вопрос". Конкретные шаги вместо размытого понятия

Методы

МетодСуть
Алгоритм + запреты — замена абстрактного понятияРазбей абстрактную задачу на 2–4 конкретных шага. Добавь раздел "ЗАПРЕЩЕНО" с явным блоком стандартного поведения модели. Структура: 1. Сделай X. 2. Сделай Y. 3. Сделай Z. ЗАПРЕЩЕНО: [стандартный ответ который даст модель без запрета]. Почему работает: Шаги убирают двусмысленность — модель выполняет операции, а не угадывает что ты хочешь. Запреты блокируют шаблон по умолчанию. Применяй для: любого абстрактного качества — эмпатия, креативность, критический анализ, поддержка. Не нужен когда: задача уже конкретна и у неё один очевидный способ выполнения
📖 Простыми словами

Прислушиваетесь ли вы ко мне? Тонкая настройка чат-ботов для эмпатичного диалога

arXiv: 2507.02537

Чат-боты обычно общаются как бездушные терминаторы: они либо выдают сухую справку, либо имитируют сочувствие так фальшиво, что хочется закрыть вкладку. Проблема в том, что LLM не понимают эмпатию на уровне чувств — для них это просто статистическая вероятность слов. Исследование показывает, что корень проблемы в неумении модели слушать: она цепляется за факты, но полностью игнорирует эмоциональный контекст, превращая диалог в допрос или лекцию. Чтобы это исправить, нужно перестать просить нейронку «быть доброй» и начать тренировать её по конкретным психологическим протоколам.

Это как прийти к психологу, который вместо того, чтобы выслушать твою боль, начинает зачитывать статью из Википедии о депрессии. Формально он прав, но тебе от этого только хуже, потому что нет эмоционального резонанса. Хороший собеседник работает как зеркало: он не просто слышит слова, он считывает подтекст и возвращает его тебе, подтверждая, что твои чувства легитимны. Исследователи по сути создали «инструкцию по эксплуатации» человеческой души для железки, превратив аморфное сочувствие в алгоритм активного слушания.

Вместо того чтобы гадать, авторы внедрили метод Fine-Tuning на эмпатических стратегиях, где модель обучают конкретным реакциям: уточнению чувств, подтверждению опыта и выражению поддержки. Главная фишка здесь — механика идентификации аффекта. Модель учится распознавать скрытый запрос (например, страх или обиду) и строить ответ вокруг него, а не вокруг голых фактов. Это превращает бота из справочного бюро в валидирующего слушателя, который сначала «обнимает» текстом, а уже потом предлагает решение, если оно вообще нужно.

Хотя эксперименты ставили на чат-ботах для психологической поддержки, этот принцип — абсолютный маст-хэв для любого клиентского сервиса, HR-инструментов или даже личных ассистентов. Если твой бот отвечает на жалобу клиента о задержке доставки сухим «заказ в пути», ты теряешь лояльность. Если он использует эмпатическую подстройку и признает, что ожидание — это бесит, градус негатива падает мгновенно. Это работает везде, где есть человек на другом конце провода, потому что потребность быть услышанным — это базовая прошивка нашего мозга.

Короче: хватит надеяться на «ум» больших моделей, их нужно целенаправленно дообучать человечности через структурированные диалоговые сценарии. Исследование доказало, что механическая эмпатия, настроенная по науке, воспринимается людьми как искренняя поддержка. Если не внедрить эти 6 стратегий слушания в свои продукты сейчас, твои интерфейсы так и останутся холодными кусками кода, с которыми никто не захочет разговаривать по душам. Эмпатия — это новый UX, и теперь у нас есть четкий чертеж, как его собрать.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с