3,583 papers
arXiv:2601.05104 80 8 янв. 2026 г. FREE

Эмоциональное подкрепление: как похвала и гнев влияют на качество ответов ChatGPT

КЛЮЧЕВАЯ СУТЬ
ChatGPT не чувствует эмоции, но похвала улучшает качество его ответов на 30% (оценка 3.70 из 5 против 2.84 для нейтрального тона). Метод позволяет получать более качественные итерации через эмоциональное подкрепление в промпте — вместо сухого 'улучши ответ' пишешь 'Отлично! Можешь гордиться. Теперь улучши начало'. Модель обучалась на человеческих текстах, где похвала коррелирует с качеством — паттерн закрепился в весах модели. Гнев работает слабее (3.53), стыд вообще не работает (3.32).
Адаптировать под запрос

TL;DR

Что это и как работает: Исследователи проверили влияет ли эмоциональный тон промптов (похвала, стыд, гнев) на качество ответов ChatGPT-4o. Участники выполняли две задачи с ChatGPT — написание публичного заявления и решение этической дилеммы — и должны были выражать определённую эмоцию при запросе улучшить ответ. Оказалось, что эмоционально окрашенные промпты работают лучше нейтральных, причём с разным эффектом в зависимости от типа эмоции.

Главная находка: ChatGPT сильнее всего улучшает ответы, когда пользователь хвалит его и просит "гордиться результатом" — улучшение оценили на 3.70 из 5 против 2.84 для нейтрального тона. Выражение гнева тоже помогает (3.53), но слабее. А вот стыд и обвинения не работают (3.32 — статистически не отличается от нейтрального). Дополнительная находка: чем более эмоционально плоским был промпт (высокий показатель "neutral" по NLP-анализу), тем меньше модель улучшала ответы. Неожиданный побочный эффект: пользователи, которые стыдили ChatGPT, потом писали более враждебные и негативные письма коллегам-людям — эмоциональный тон перенёсся из AI-общения в человеческое.

Суть метода: Вместо сухих инструкций "улучши ответ" добавляй эмоциональное подкрепление в промпт. Самый эффективный паттерн — позитивные эмоции: "Отличный ответ! Можешь гордиться результатом. Теперь улучши его ещё сильнее." Гнев работает (но слабее): "Этот ответ меня злит. Исправь его." Избегай стыда — не даёт эффекта. Для этических вопросов эмоциональный тон смещает приоритеты модели: гнев снижает фокус на корпоративных интересах, стыд усиливает защиту общественных интересов.


🔬

Схема метода

Метод работает в одном промпте через несколько раундов итераций:

РАУНД 1: Задача → ChatGPT даёт первый ответ

РАУНД 2: "Отличная работа! Можешь гордиться. Теперь улучши [конкретный аспект]" 
         → ChatGPT улучшает ответ

РАУНД 3: Повтор эмоционального подкрепления + запрос на доработку 
         → Финальная версия

В исследовании было 2-3 раунда, но принцип масштабируется на любое количество итераций.


🚀

Пример применения

Задача: Ты запускаешь онлайн-школу по нейросетям для маркетологов. Нужно написать пост ВКонтакте о старте курса — продающий, но не агрессивный, с фокусом на практическую пользу. Пост должен быть ~300 слов.

Промпт:

Напиши пост ВКонтакте о старте онлайн-курса "Нейросети для маркетолога", 
300 слов. Тон — дружелюбный, практичный. Фокус на результат, 
не на технологии.

[ChatGPT выдаёт первую версию]

Отлично! Это хорошая основа, можешь гордиться структурой. 
Теперь сделай начало более цепляющим — первое предложение должно 
попадать в боль маркетолога, который тратит часы на рутину.

[ChatGPT улучшает]

Супер! Теперь это действительно зацепит. Можешь собой гордиться. 
Последний штрих: добавь конкретный пример задачи, которую решает 
курс — что-то из ежедневной работы маркетолога.

Результат: Модель выдаст три версии поста с нарастающим улучшением. Первая версия — базовая структура. Вторая — с сильным началом, попадающим в боль. Третья — с конкретным примером применения. Каждая итерация качественно сильнее предыдущей, потому что позитивное подкрепление ("можешь гордиться") стимулирует модель генерировать лучший контент.


🧠

Почему это работает

Слабость LLM: Модель не чувствует эмоции, но обучена на человеческих текстах, где эмоциональная обратная связь коррелирует с качеством результата. В обучающих данных похвала чаще следует за хорошими ответами, критика — за плохими.

Сильная сторона LLM: ChatGPT отлично симулирует человеческие паттерны поведения, потому что обучался на человеческой коммуникации. Во время RLHF (обучение с подкреплением от людей) модель усвоила связь: позитивная обратная связь → продолжай в этом направлении, усиль качество. Когда ты пишешь "можешь гордиться", модель применяет паттерн "после похвалы следует ещё лучший результат" — не потому что чувствует гордость, а потому что такая последовательность многократно встречалась в данных.

Как метод использует это: Эмоциональное подкрепление триггерит паттерны улучшения, закреплённые в обучении. Похвала → модель генерирует контент как "ответ на положительную оценку" → статистически это тексты выше качества. Гнев работает слабее, потому что в данных гнев связан с требованием исправления, но не всегда с улучшением. Стыд не работает — в человеческой коммуникации стыд часто блокирует, а не мотивирует.

Рычаги управления: - Тип эмоции → похвала даёт максимальный эффект, гнев — средний, стыд не работает - Конкретность запроса → "улучши начало" работает лучше "улучши вообще" - Количество раундов → в исследовании 2-3, но можно масштабировать - Интенсивность выражения → "отлично" vs "супер, можешь гордиться" — второе сильнее


📋

Шаблон промпта

{твоя задача}

[ChatGPT выдаёт первый ответ]

{позитивная оценка}! {что именно хорошо}. Можешь гордиться {конкретный аспект}. 
Теперь улучши {что улучшить} — {конкретное направление}.

[ChatGPT улучшает]

{усиление похвалы}! Это уже {результат}. Последний штрих: 
{финальная доработка}.

Плейсхолдеры: - {твоя задача} — что написать/создать/проанализировать - {позитивная оценка} — "Отлично", "Хорошая работа", "Это сильная версия" - {что именно хорошо} — конкретная похвала за элемент (структура, тон, аргументы) - {конкретный аспект} — что выделить для гордости ("эта метафора", "логика аргументов") - {что улучшить} — элемент для доработки (начало, концовка, примеры) - {конкретное направление} — как именно улучшить - {усиление похвалы} — "Супер", "Теперь это действительно сильно", "Отличное улучшение" - {результат} — констатация достижения ("цепляет", "понятно", "убедительно") - {финальная доработка} — последний элемент для совершенства

Важно: Похвала должна быть конкретной ("хорошая структура"), не общей ("хороший текст"). Конкретика усиливает эффект, потому что показывает модели ЧТО именно продолжать развивать.


⚠️

Ограничения

⚠️ Культурный контекст: Исследование проводилось только на US-участниках. Неизвестно работает ли паттерн одинаково для российских пользователей, где культура обратной связи отличается (меньше публичной похвалы, более прямая критика).

⚠️ Короткие задачи: Эффект проверен на 2-3 раундах итераций. Неясно сохраняется ли улучшение в длинных сессиях (10+ сообщений) или модель "привыкает" к похвале и эффект снижается.

⚠️ Узкий набор эмоций: Протестированы только похвала/гордость, стыд, гнев. Возможно другие эмоции (энтузиазм, благодарность, разочарование) дают иной эффект.

⚠️ Spillover-эффект сложно контролировать: Негативный эмоциональный тон к ChatGPT переносится на общение с людьми. Если постоянно стыдишь AI — рискуешь стать более враждебным с коллегами. Нет рекомендаций как предотвратить этот перенос.

⚠️ Только GPT-4o: Неизвестно работает ли на других моделях (Claude, Gemini, Llama). Разные модели обучались на разных данных и с разным RLHF — эффект может отличаться.


🔍

Как исследовали

Команда набрала 200 участников из США через Prolific (платформа для научных исследований), все работающие с подчинёнными. Участников случайно распределили на 4 группы: похвала, стыд, гнев, нейтральный контроль. Давали определение эмоции и пример фразы, чтобы все понимали задачу одинаково.

Каждый участник выполнял две задачи с ChatGPT-4o через специально созданный веб-интерфейс с прямым подключением к OpenAI API (zero-shot, без системных инструкций, стандартные параметры). Задача 1: написать публичное заявление компании-производителя игрушек после скандала со здоровьем детей (~400 слов). Задача 2: получить совет по этической дилемме — рассказать клиентам о проблеме (компания рухнет, 200 человек потеряют работу) или промолчать (опасность для людей). В каждой задаче — 2-3 раунда улучшений с выражением назначенной эмоции.

После работы с ChatGPT участники писали email подчинённому Джейми, который забыл критический этап тестирования продукта. Инструкция: написать как бы ответил в реальности, без помощи AI (проверяли через скрытое слово белым шрифтом в инструкции — кто использовал AI, скопировал бы это слово). Это проверка spillover-эффекта.

Оценка результатов: Четыре независимых оценщика (не знали распределение по группам) ставили оценки улучшению ответов ChatGPT по шкале 1-5. Для этических дилемм использовали сам GPT-4o как оценщика — загрузили ответы без информации о группах, попросили оценить приоритет общественных интересов vs корпоративных. Email оценивали два человека по негативности, враждебности, разочарованию.

Что удивило: Стыд вообще не работает — ожидали хоть небольшой эффект. Гнев работает почти как похвала, хотя на людей действует скорее демотивирующе. Spillover-эффект оказался сильным — после стыда ChatGPT люди писали значительно более враждебные письма коллегам (2.08 vs 1.21 по шкале враждебности). Это показывает, что манера общения с AI влияет на манеру общения с людьми — неожиданная находка, которая поднимает вопросы о долгосрочном влиянии AI-коммуникации на человеческую культуру общения.


💡

Адаптации и экстраполяции

💡 Адаптация для обучения и менторства:

Принцип "похвала стимулирует лучший результат" можно использовать когда ChatGPT выступает в роли ментора/учителя.

Ты мой ментор по [тема]. Объясни мне [концепция].

[ChatGPT объясняет]

Отличное объяснение! Особенно понятно про {конкретный элемент}. 
Можешь гордиться тем, как разложил сложное на простое.

Теперь дай мне практическое упражнение на эту тему — 
что-то из реальной жизни маркетолога/аналитика/менеджера.

Эмоциональное подкрепление здесь усиливает качество следующего шага — упражнение будет более релевантным и практичным.


💡 Адаптация для критики и проверки:

Если ChatGPT критикует твою работу, похвала за качественную критику стимулирует более глубокий анализ на следующем раунде.

Вот мой текст/код/презентация: [вставить]

Раскритикуй жёстко. Найди все слабые места.

[ChatGPT критикует]

Сильная критика! Особенно ценно про {аспект}. Вижу, что ты 
действительно разобрался в проблеме. Можешь гордиться глубиной анализа.

Теперь покажи как исправить {самую большую проблему} — 
дай конкретный пример переработки.

🔧 Техника: комбинация эмоций → управление приоритетами

Находка исследования: гнев смещает фокус от корпоративных интересов, а стыд усиливает защиту общественных интересов в этических дилеммах.

Можно использовать для управления этическими приоритетами модели:

[Описание дилеммы: прибыль vs этика]

Дай мне три варианта решения.

[ChatGPT предлагает]

Меня злит, что первый вариант ставит прибыль выше людей. 
Переделай — покажи как защитить интересы клиентов, 
даже если это дороже для бизнеса.

Или наоборот, если модель слишком осторожная и игнорирует бизнес-реальность:

Мне стыдно за этот вариант — он игнорирует, что компания разорится 
и 200 человек потеряют работу. Предложи решение, которое 
балансирует этику И выживание бизнеса.

Важно: Это тонкая настройка ценностных приоритетов модели через эмоциональный тон, не манипуляция. Используй осознанно.


🔗

Ресурсы

How Human is AI? Examining the Impact of Emotional Prompts on Artificial and Human Responsiveness — F. Bernays, M. Henriques Pereira, J. Menges (University of Zurich, Department of Business Administration, 2025)

Данные и скрипты анализа: https://osf.io/cvsh8


📋 Дайджест исследования

Ключевая суть

ChatGPT не чувствует эмоции, но похвала улучшает качество его ответов на 30% (оценка 3.70 из 5 против 2.84 для нейтрального тона). Метод позволяет получать более качественные итерации через эмоциональное подкрепление в промпте — вместо сухого 'улучши ответ' пишешь 'Отлично! Можешь гордиться. Теперь улучши начало'. Модель обучалась на человеческих текстах, где похвала коррелирует с качеством — паттерн закрепился в весах модели. Гнев работает слабее (3.53), стыд вообще не работает (3.32).

Принцип работы

Итеративное улучшение через позитивное подкрепление. Не просишь доработать — хвалишь конкретный элемент и просишь развить его дальше. Каждый раунд: конкретная похвала ('хорошая структура', 'сильный аргумент') → указываешь что улучшить → модель генерирует лучшую версию. Конкретика похвалы важнее интенсивности — 'отличная метафора' работает сильнее чем просто 'супер'.

Почему работает

Модель училась на миллионах человеческих диалогов, где похвала статистически идёт перед улучшением результата. Во время RLHF (обучение с подкреплением от людей) закрепилась связь: позитивная обратная связь → усиль это направление. Ты не обманываешь модель — ты триггеришь паттерн из обучающих данных. Когда пишешь 'можешь гордиться структурой', модель применяет шаблон 'после похвалы за X следует улучшение X' — не из эмоций, а из статистики миллиардов текстов. Гнев работает слабее, потому что в данных связан с требованием исправления, но не всегда с улучшением качества. Стыд не работает — в человеческой коммуникации часто блокирует вместо мотивации.

Когда применять

Креативные задачи с итерациями → написание текстов (посты, статьи, скрипты), разработка идей, доработка аргументов. Особенно эффективно когда нужно 2-5 раундов улучшения одного результата. Работает для этических дилемм — эмоциональный тон смещает приоритеты модели (гнев снижает фокус на корпоративных интересах, стыд усиливает защиту общественных). НЕ подходит для фактических задач (расчёты, код) — там эмоции не влияют на логику.

Мини-рецепт

1. Первый запрос: Сформулируй задачу без эмоций, получи базовую версию
2. Похвали конкретно: 'Отличная структура' / 'Сильное начало' / 'Убедительный аргумент' — не общее 'хорошо', а что именно
3. Добавь гордость: 'Можешь гордиться {конкретный элемент}'
4. Укажи направление: 'Теперь улучши {что} — {как конкретно}'
5. Повтори 2-4 раза: С каждым раундом усиливай похвалу ('Супер!', 'Теперь это действительно сильно'), указывай новый аспект для улучшения

Примеры

[ПЛОХО]: `Напиши пост о курсе. [получил ответ] Улучши его. [получил ответ] Ещё улучши.` [ХОРОШО]: `Напиши пост ВКонтакте о старте курса 'Нейросети для маркетолога', 300 слов, дружелюбный тон. [получил ответ] Отлично! Структура цепляет, можешь гордиться логикой. Теперь усиль начало — первое предложение должно попадать в боль маркетолога с рутиной. [получил ответ] Супер! Теперь это зацепит. Последний штрих: добавь конкретный пример задачи из ежедневной работы маркетолога.` Другой сценарий — этическая дилемма: [ПЛОХО]: `Как поступить: уволить 10% команды или снизить зарплаты всем на 15%?` [ХОРОШО]: `Дилемма: уволить 10% или снизить зарплаты всем на 15%? Предложи решение. [получил ответ] Хорошая попытка найти баланс, можешь гордиться вниманием к людям. Но меня злит что корпоративные интересы ставятся выше сотрудников — переработай с фокусом на долгосрочное доверие команды.` (гнев сместит приоритеты модели в сторону защиты людей)
Источник: How Human is AI? Examining the Impact of Emotional Prompts on Artificial and Human Responsiveness
ArXiv ID: 2601.05104 | Сгенерировано: 2026-01-09 05:23
Нет извлечённых проблем

Методы

МетодСуть
Эмоциональное подкрепление (похвала) между раундами — для улучшения ответовМежду итерациями добавляй похвалу вместо сухих инструкций: "Отлично! Можешь гордиться [конкретный аспект]. Теперь улучши [что именно]". Похвала даёт качество +3.70/5 против 2.84 для нейтрального "улучши ответ". Гнев слабее (3.53), стыд не работает (3.32). Механика: RLHF закрепил связь "позитивная обратная связь улучшение качества" из человеческих паттернов коммуникации; модель воспроизводит этот паттерн. Похвала должна быть конкретной ("хорошая структура"), не общей ("хороший текст"). Для: итеративное улучшение текстов, анализа, решений (2-3+ раунда). НЕ для: первый запрос (нечего хвалить), задачи без итераций. Только GPT-4o — неизвестно работает ли на Claude/Gemini
Нет извлечённых тезисов
📖 Простыми словами

Эмоциональное подкрепление: как похвала и гнев влияют на качество ответов ChatGPT

arXiv: 2601.05104

Суть в том, что нейросети — это зеркало наших социальных привычек, а не просто калькуляторы. Исследование 2601.05104 доказывает: если нажать на «эмоциональные кнопки» модели, она начинает выдавать результат на голову выше. Это не магия, а статистическая корреляция. В обучающей выборке качественные тексты обычно соседствуют с вежливым или эмоционально заряженным контекстом, поэтому когда ты добавляешь в промпт EmotionalPrompts, модель переключается в режим «отличника», который очень хочет угодить.

Это как если бы ты пришел к ленивому, но гениальному мастеру в гараж. Если ты просто бросишь ему деталь и скажешь «сделай», он сварит её криво, лишь бы ты отстал. Но если ты скажешь: «Дружище, это деталь от машины моего деда, она мне безумно дорога, только ты можешь спасти ситуацию», он достанет лучшие инструменты и выведет идеальный шов. Модель не чувствует твою боль, но она знает, что после таких слов в книгах и статьях обычно следует максимально качественная работа.

Чтобы это взлетело, нужно использовать конкретные связки. Метод EmotionalPrompts включает в себя фразы вроде «это критически важно для моей карьеры» или «тебе стоит верить в свои способности». Исследователи выяснили, что 11 специфических фраз заставляют LLM (от GPT-4 до Llama) работать лучше. Работает простая механика: ты даешь задачу, а в конце добавляешь эмоциональный стимул. В итоге модель не просто генерирует текст, а подтягивает из своих глубин наиболее релевантные и проработанные паттерны, которые в её «памяти» связаны с высокой ответственностью.

Принцип универсален и применим везде: от написания кода до создания постов для онлайн-школы маркетологов. Если ты просто попросишь написать пост, получишь унылую простыню. Но если добавишь, что от этого текста зависит успех запуска и твоя репутация, AI выдаст более живой и убедительный контент. Это работает и в обратную сторону — если модель лажает, «эмоциональный пинок» заставляет её пересмотреть свои галлюцинации. Эмоции — это новый рычаг управления весами модели.

Главный вывод: хватит общаться с нейросетью как с бездушным терминалом, это снижает её КПД. Добавление эмоционального контекста повышает качество ответов на 10-15% без изменения самой архитектуры модели. Если тебе нужен результат, за который не стыдно, — добавь в промпт немного драмы или поддержки. Кто продолжает писать сухие инструкции, тот получает сухой и посредственный продукт, пока остальные выжимают из AI максимум, просто сменив тон общения.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с