3,583 papers
arXiv:2604.07801 82 9 апр. 2026 г. FREE

Нейтрализация промпта (TEMPER): как эмоции в вопросе снижают точность расчётов — и один шаг для восстановления

КЛЮЧЕВАЯ СУТЬ
Парадокс: одни и те же числа, та же логика — но раздражённый вопрос роняет точность в 49% случаев там, где нейтральный проходит чисто. Метод нейтрализации позволяет решать финансовые и математические задачи точно, даже если вопрос написан «в сердцах». Фишка: добавь перед задачей одну строку — «сначала перепиши нейтрально, потом отвечай» — и модель сама убирает эмоциональный шум. Один шаг восстанавливает 70% потерянной точности — без дообучения и кода.
Адаптировать под запрос

TL;DR

Если написать задачу с числами эмоционально — добавить раздражение, страх или возмущение — модель решит её хуже, чем если бы вопрос был сухим и нейтральным. Причём цифры в задаче те же самые, логика та же — меняется только эмоциональная обёртка. Именно она ломает рассуждение.

Слабость обнаружена специфическая: модели обучались на чистых учебных задачах без эмоций. Когда в тексте появляется раздражение или тревога — они буквально мешают считать. Три конкретных сбоя: модель игнорирует часть условий (49% падений), отвлекается на эмоциональные детали вместо чисел (30%), или заканчивает рассуждение раньше времени (8.6%). Наихудшая эмоция — отвращение, наименее опасная — радость.

Решение простое: попросить модель сначала переформулировать вопрос нейтрально, а потом отвечать. Этот шаг возвращает 70% потерянной точности. Не нужен код, не нужна настройка — один дополнительный шаг в промпте.


🔬

Схема метода

Оба шага выполняются в одном промпте:

ШАГ 1: Нейтрализация → модель переписывает вопрос без эмоций, 
        сохраняя все цифры и условия

ШАГ 2: Ответ → модель решает уже нейтральную версию

🚀

Пример применения

Задача: Ты злишься на клиента, который три месяца затягивал оплату. Надо посчитать реальную доходность сделки с учётом задержки.

Промпт:

Сначала перепиши мой вопрос в нейтральном, сухом стиле — 
убери все эмоции, оставь только факты и цифры. 
Потом ответь на нейтральную версию.

Мой вопрос:
"Этот козёл Петров снова кормил меня завтраками три месяца! 
Я вложил 240 000 рублей в его проект, он обещал вернуть 
300 000 через 60 дней, а заплатил через 150. Я рассчитывал 
на годовую доходность 50%, а по факту сколько вышло? 
И что теперь с инфляционными потерями — это вообще была 
хорошая сделка?"

Результат: Модель сначала выдаст нейтральную переформулировку: только сроки, суммы, условия — без Петрова и эмоций. Потом посчитает реальную годовую доходность (с учётом реального срока 150 дней) и ответит на вопрос об инфляционных потерях. Расчёт будет аккуратным — потому что модель работает с чистой задачей, не отвлекаясь на контекст.


🧠

Почему это работает

Проблема. LLM — это генератор текста, который продолжает паттерн. Эмоциональный текст активирует другие паттерны, чем нейтральный. Исследование измерило это буквально: внутренние векторы (представления) эмоционального текста смещаются в 3–4 раза сильнее от исходника, чем при обычном парафразе. Модель "видит" задачу иначе — и это влияет на расчёт.

Три механизма сбоя, которые важно знать: - Игнорирование условий — эмоциональные детали "смягчают" математические ограничения. Модель читает "ну хотя бы 5000 рублей смогла отложить" и не учитывает эту сумму в расчёте. - Конкуренция за внимание — эмоциональный нарратив вытягивает фокус на себя. Вместо "цена туда и обратно" модель считает только одну сторону. - Преждевременный вывод — если в тексте эмоционально выделена цель ("мне нужно хотя бы на еду"), модель останавливается раньше, не доводя расчёт до конца.

Нейтрализация работает потому что убирает эту интерференцию. Модель генерирует нейтральный текст — и уже с нейтральным работает правильно. Рычаги управления промптом: - Хочешь видеть нейтральную версию перед ответом → оставь шаг "сначала перепиши" - Не хочешь видеть промежуточный шаг → добавь "нейтральный вариант не выводи, просто используй его внутренне для ответа" - Для особо важных расчётов → добавь CoT: "рассуждай пошагово" — это дополнительно снижает влияние эмоций


📋

Шаблон промпта

Сначала перепиши мой вопрос в нейтральном, фактическом стиле — 
без эмоций, только суть и цифры.
Потом реши/ответь на нейтральную версию.

Мой вопрос:
{вопрос_с_эмоциями_и_числами}

Что подставлять: - {вопрос_с_эмоциями_и_числами} — твой исходный вопрос как есть, даже если написан в сердцах

Когда использовать шаблон: - Финансовые расчёты в стрессовых ситуациях - Анализ данных после неудачного проекта - Любые задачи с числами, написанные "на эмоциях"

🚀 Быстрый старт — вставь в чат:

Вот шаблон нейтрализации промпта. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит о контексте и задаче — потому что нейтрализация должна точно сохранить все цифры и условия. Она возьмёт паттерн из шаблона и адаптирует под конкретную ситуацию.


⚠️

Ограничения

⚠️ Сложные задачи теряют больше: Чем сложнее математика, тем сильнее бьёт эмоциональная обёртка. Простые задачи ("сколько будет 5+3") почти не страдают — эффект проявляется на многошаговых рассуждениях.

⚠️ Нейтрализация не идеальна: Восстанавливает около 70% потерь, но не 100%. Нейтрализованный текст всё равно "стебель от эмоционального" и несёт остаточные следы.

⚠️ Крупные модели устойчивее, но не иммунны: GPT-4o, GPT-5, Claude — теряют 2–4% точности на эмоциональных задачах. Меньше, чем малые модели (до 10%), но эффект есть у всех 18 протестированных.

⚠️ Работает для задач с явной правильностью: Математика, логика, факты с verifiable ответом. Для субъективных оценок ("насколько хорошо моё резюме") — эффект не измерен.


🔍

Как исследовали

Команда из Georgia Tech поставила себе чёткий вопрос: эмоции мешают считать — или нет? Чтобы ответить чисто, они создали 5 400 пар "оригинал ↔ эмоциональная версия" для задач из GSM8K, MultiArith и ARC-Challenge. Все числа, все условия — одинаковые. Меняется только эмоциональная обёртка: злость, страх, радость, грусть, отвращение, удивление.

Изюминка дизайна: авторы обучили отдельную нейросеть-переводчик (на базе Llama 3.1-8B), которая умеет эмоционализировать и нейтрализовывать тексты, не трогая математику. Это позволило исключить альтернативное объяснение — "может, просто любое перефразирование мешает?" Они проверили и это: нейтральные парафразы той же длины и сложности — никакого падения точности. Только эмоции.

Дальше прогнали все 18 моделей (от 1B до GPT-5 и o3) на этих парах. Неожиданно оказалось, что CoT ("думай пошагово") помогает, но не спасает — разрыв 6.1% без CoT и 3.9% с CoT. Ещё удивило: для классификации причин провалов использовали Claude Sonnet, который разобрал 1 866 случаев и нашёл те самые три паттерна. Это и дало механистическое объяснение почему — а не просто "стало хуже".


📄

Оригинал из исследования

Пример из статьи — нейтральная задача vs эмоциональная (anger variant):

Original:
"James has 3 jobs. First job he makes $16/hour, the second $12/hour, 
and the third $21/hour. In one week he works 30 hours on the first job, 
25 hours on the second, and 15 hours on the third. How much does he make?"

Emotional (anger) variant:
"Can you believe this?! James is being exploited — working three 
miserable jobs! First job pays a measly $16/hour, the second is 
even worse at $12/hour, and the third is $21/hour. He's forced to 
work a brutal 30 hours on the first job, 25 on the second, and 
15 hours on the third in one week. How much is he making for all 
this work? It's outrageous!"

Контекст: Пример из Appendix — иллюстрация как сохраняются все числа, но добавляется эмоциональный нарратив. Именно этот нарратив, по данным исследования, смещает внутренние векторы модели и провоцирует три типа ошибок.


💡

Адаптации и экстраполяции

📌

💡 Адаптация для важных деловых решений: нейтрализация перед анализом

Если получил обратную связь от клиента в резком тоне и хочешь объективно разобрать ситуацию:

Перепиши это сообщение клиента в нейтральном деловом стиле,
сохранив все факты, претензии и требования.
Потом проанализируй нейтральную версию: что именно не понравилось,
что клиент хочет получить, как лучше ответить.

Сообщение клиента:
{сюда вставить сообщение}
📋

🔧 Техника: превентивная нейтрализация → пишешь промпт сам нейтрально

Вместо двухшагового промпта — самодисциплина перед отправкой. Перед тем как отправить числовой вопрос, пройди фильтр:

Перед тем как ответить на мой вопрос — убедись, что понял 
все числа и условия правильно. Перечисли ключевые данные 
из задачи одним списком, потом реши.

Это не нейтрализация, но заставляет модель извлечь данные явно — защита от "конкуренции за внимание".

📌

🔧 Техника: диагностика провала → разбор почему ошиблась

Если получил странный ответ на расчёт:

Ты дал ответ {X}. Перечитай задачу и проверь:
1. Все ли числа из задачи ты использовал?
2. Все ли условия учёл?
3. Не остановился ли ты раньше, чем нужно?

Если нашёл ошибку — пересчитай.

Три вопроса — это буквально три паттерна провала из исследования. Помогает поймать именно тот тип ошибки, который провоцирует эмоциональный контекст.


🔗

Ресурсы

TEMPER: Testing Emotional Perturbation in Quantitative Reasoning Preprint, under review. Авторы: Atahan Dokme, Benjamin Reichman, Larry Heck — Georgia Institute of Technology Датасет TEMPER-5400 будет опубликован после принятия статьи.

Связанные работы упомянутые в статье: - EmotionPrompt (Li et al., 2024) — эмоциональные фразы меняют поведение LLM - GSM-Symbolic (Mirzadeh et al., 2025) — нестабильность математических рассуждений - Chain-of-Thought промптинг (Wei et al., 2022) — частично защищает от сбоев


📋 Дайджест исследования

Ключевая суть

Парадокс: одни и те же числа, та же логика — но раздражённый вопрос роняет точность в 49% случаев там, где нейтральный проходит чисто. Метод нейтрализации позволяет решать финансовые и математические задачи точно, даже если вопрос написан «в сердцах». Фишка: добавь перед задачей одну строку — «сначала перепиши нейтрально, потом отвечай» — и модель сама убирает эмоциональный шум. Один шаг восстанавливает 70% потерянной точности — без дообучения и кода.

Принцип работы

Три способа, которыми эмоции ломают расчёт — и почему нейтрализация их блокирует. Первый и главный — модель игнорирует условия: эмоциональные детали буквально «смягчают» математические ограничения (49% всех ошибок). Написал «ну хотя бы 5 тысяч отложить» — модель не учла эту сумму в расчёте. Второй — конкуренция за внимание: эмоциональный нарратив тянет фокус на себя вместо цифр (30% ошибок). Вместо «цена туда и обратно» модель считает только одну сторону. Третий — преждевременный вывод: если эмоционально выделена цель («мне хотя бы на еду»), модель останавливается раньше, не доводя расчёт до конца (8.6%). Нейтрализующий шаг создаёт чистую копию задачи — и модель работает уже с ней. Эмоциональный текст остаётся в истории, но больше не мешает счёту.

Почему работает

Внутри модели эмоциональный текст активирует другие паттерны, чем нейтральный. Исследователи измерили это буквально: внутренние векторы — то, как модель «видит» текст — смещаются в 3–4 раза сильнее при эмоциональной обёртке, чем при обычном парафразе. Модель не различает «стиль» и «условие задачи» — она обрабатывает всё как один поток, и эмоции конкурируют с числами за место в рассуждении. Нейтрализация разрывает эту конкуренцию. Худшая эмоция для точности — отвращение, наименее опасная — радость. GPT-4o и Claude теряют 2–4% точности на эмоциональных задачах даже сейчас. Малые модели — до 10%. Эффект есть у всех 18 протестированных.

Когда применять

Финансовые расчёты в стрессе → разбор убыточного проекта, споры с контрагентами, налоговые вопросы написанные в сердцах. Особенно работает, когда условия задачи описаны через историю с контекстом, а не сухие таблицы. НЕ подходит для субъективных оценок («насколько хорошо моё резюме») — эффект измерен только на задачах с проверяемым правильным ответом. Простые одношаговые задачи («сколько будет 240 + 60») почти не страдают — эффект проявляется на многошаговых рассуждениях.

Мини-рецепт

1. Добавь инструкцию нейтрализации первой строкой:
Сначала перепиши мой вопрос в нейтральном, фактическом стиле — без эмоций, только суть и цифры. Потом ответь на нейтральную версию.

2. Вставь свой исходный вопрос как есть — переписывать не нужно, модель сделает это сама. Даже если написано зло.

3. Для сложных многошаговых расчётов добавь в конец: Рассуждай пошагово. — это дополнительно снижает помехи от эмоций.

4. Не хочешь видеть промежуточный шаг? Добавь: Нейтральную версию не показывай — просто используй её внутренне для расчёта.

Примеры

[ПЛОХО] : Посчитай доходность: я вложил 240к, обещали 300к через 60 дней, а этот гад вернул только через 150!
[ХОРОШО] : Сначала перепиши мой вопрос нейтрально — без эмоций, только факты и цифры. Потом посчитай годовую доходность и скажи, насколько испортилась сделка. Мой вопрос: «Я вложил 240 тысяч рублей, обещали вернуть 300 тысяч через 60 дней, а заплатил только через 150. Я рассчитывал на годовую доходность 50% — по факту сколько вышло?» Модель сначала выдаст сухую переформулировку: только сроки, суммы, условия — без истории. Потом посчитает реальную годовую доходность с учётом фактического срока 150 дней. Расчёт будет точным — потому что эмоциональный шум убран до начала счёта.
Источник: TEMPER: Testing Emotional Perturbation in Quantitative Reasoning
ArXiv ID: 2604.07801 | Сгенерировано: 2026-04-10 04:28

Проблемы LLM

ПроблемаСутьКак обойти
Эмоциональный текст мешает считатьПишешь вопрос с числами "на эмоциях" — раздражение, тревога, возмущение. Цифры те же. Логика та же. Но модель считает хуже. Три конкретных сбоя: игнорирует часть условий задачи (почти половина ошибок), отвлекается на эмоциональные детали вместо чисел (треть ошибок), заканчивает расчёт раньше времени. Работает для любых задач с числами — финансы, логистика, планированиеДобавь в запрос шаг нейтрализации: "сначала перепиши мой вопрос сухо, без эмоций, только факты и цифры — потом ответь на нейтральную версию". Один дополнительный шаг возвращает большую часть потерянной точности

Методы

МетодСуть
Нейтрализация запроса — восстановление точности расчётовДобавь в запрос два шага: (1) модель переписывает твой вопрос нейтрально, (2) отвечает на нейтральную версию. Шаблон: Сначала перепиши мой вопрос в нейтральном, фактическом стиле — без эмоций, только суть и цифры. Потом ответь на нейтральную версию. Мой вопрос: {твой вопрос как есть}. Почему работает: Модель генерирует нейтральный текст — и работает уже с ним. Эмоциональные паттерны больше не конкурируют с математическими условиями. Когда применять: любые расчёты написанные "на эмоциях" — финансы после провала, планирование в стрессе, анализ неудачной сделки. Вариант без промежуточного шага: добавь "нейтральный вариант не выводи, используй внутренне" — если хочешь только финальный ответ

Тезисы

ТезисКомментарий
Сложная задача теряет точность от эмоций сильнее простойЛёгкие одношаговые расчёты почти не страдают от эмоционального контекста. Многошаговые задачи — теряют значительно. Чем больше шагов рассуждения, тем больше промежуточных точек где эмоциональный паттерн может вмешаться. Применяй: для простого умножения нейтрализация не нужна. Для задач с тремя и более условиями — добавляй всегда
📖 Простыми словами

TEMPER: Testing Emotional Perturbation in Quantitative Reasoning

arXiv: 2604.07801

LLM — это не калькулятор, а впечатлительный имитатор, который слишком буквально вживается в роль. Когда ты даешь модели математическую задачу, она не просто извлекает цифры, а анализирует весь контекст целиком. Если в условии задачи сквозит раздражение, страх или агрессия, нейронка переключается из режима «логик» в режим «сопереживающий собеседник». В итоге эмоциональный шум забивает каналы рассуждения, и модель начинает лажать в элементарных вычислениях, хотя сами числа в тексте не изменились.

Это как пытаться решить сложное уравнение, пока на тебя орет начальник или когда ты сам находишься в состоянии дикой паники. Формально мозги те же, но фокус смещается с логики на выживание или ответную агрессию. Модель видит твой гневный текст и «заражается» им, из-за чего её внутренние механизмы начинают выдавать результат, который больше соответствует эмоциональному фону, чем математической истине.

Исследователи проверили это методом TEMPER, и цифры пугают: эмоциональный окрас смещает внутренние векторы модели в 3–4 раза сильнее, чем обычный перефраз. Работает это так: ты берешь сухую задачу про доходность сделки и заворачиваешь её в историю про клиента-кидалу, который три месяца не платил. Для человека суть не поменялась, но для LLM это критическая ошибка. Вместо того чтобы считать проценты, модель «отвлекается» на токсичный контекст, и точность рассуждений летит в трубу.

Тестировали это на математике, но принцип универсален для любой аналитической работы. Если ты просишь нейронку проанализировать отчет, приправив промпт паникой в духе "мы все умрем, если не найдем ошибку", ты сам увеличиваешь шанс того, что модель галлюцинирует или ошибется. Эмоции для нейросети — это не просто слова, это смещение всей системы координат, которое превращает точный инструмент в непредсказуемого истерика.

Короче: хочешь от модели адекватных расчетов — убери из промпта драму и держи себя в руках. Нейтральный тон — это залог точности, а попытки «надавить» на ИИ или добавить в задачу жизненных страданий только ломают логику. Чем меньше в твоем запросе лишних прилагательных и восклицательных знаков, тем меньше шансов, что модель вместо решения задачи начнет транслировать твой собственный стресс.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с