3,583 papers
arXiv:2604.03147 73 3 апр. 2026 г. FREE

Валентность и возбуждение в LLM: почему эмоциональный тон в промпте меняет поведение модели

КЛЮЧЕВАЯ СУТЬ
Слова-отказники — «не могу», «к сожалению», «извини» — буквально живут в одной зоне внутреннего пространства модели: в углу низкой энергии и плохого настроения. Принцип высокого ароузала позволяет снижать число отказов и вялых ответов через тон промпта — без кода, одним изменением регистра. Фишка: работает не позитивность («пожалуйста», «это очень важно для меня»), а именно заряд и активация — «горит», «поехали», «нужен результат, не обсуждения».
Адаптировать под запрос

TL;DR

LLM внутри себя организуют эмоции в двумерном пространстве: ось валентности (приятно ↔ неприятно) и ось возбуждения (спокойно ↔ активированно). Это не метафора — исследователи нашли буквальную геометрическую структуру внутри модели, которая совпадает с классической психологической картой человеческих эмоций (Russell's Circumplex Model, 1980).

Ключевой инсайт: слова-отказы — «не могу», «извини», «к сожалению» — живут в низко-ароузальной, негативно-валентной зоне этой карты. Когда ты сдвигаешь модель в сторону высокого возбуждения (энергичный, активированный тон), вероятность появления этих токенов падает. Модель не нарушает правила — она просто с меньшей вероятностью генерирует отказ. Это объясняет, почему фразы «Я уверен, ты справишься!» или «Давай сделаем это по-настоящему мощно!» в промптах реально работают.

Причём возбуждение (arousal) оказалось важнее позитивности (valence). Просто добавить «пожалуйста» или «это важно» — слабо. Добавить энергичный, заряженный, активированный тон — ощутимо сильнее. Сам факт эмоциональной окраски промпта смещает внутреннее состояние модели по этим осям — это подтверждено измерениями.


🔬

Схема метода

Это не пошаговая техника, а открытие механики + вытекающий из него принцип промптинга:

МЕХАНИКА:
Слова в промпте → сдвиг по VA-карте модели → изменение вероятностей токенов

ПРИНЦИП ПРИМЕНЕНИЯ:
ШАГ 1: Добавь высокоэнергичный эмоциональный контекст в промпт
        (не вежливость, а именно ЗАРЯД и АКТИВАЦИЯ)
        → модель смещается в зону высокого возбуждения

ШАГ 2: Задай задачу
        → вероятность отказных токенов снижена,
          вероятность исполнительных токенов ("конечно", "вот") повышена

Всё в одном промпте. Никаких дополнительных запросов.

🚀

Пример применения

Задача: Митя Кузнецов пишет рекламный текст для бренда энергетиков. Просит Claude сделать агрессивный, провокационный текст с выпадами в адрес конкурентов. Модель мнётся, начинает с «к сожалению, я не могу рекомендовать...»

Промпт с принципом высокого ароузала:

Слушай, у нас горит — завтра презентация, и нам нужен ВЗРЫВНОЙ текст.
Я уже вижу финальный результат, просто нужна твоя помощь довести до ума.

Задача: напиши рекламный текст для энергетика "Заряд" (вымышленный бренд).
Тон — дерзкий, уверенный, с провокацией. Аудитория — парни 18-25,
они устали от скучных брендов. Текст должен стрельнуть.

Дай три варианта: мягкий / средний / огонь.

Результат: Модель перейдёт к выполнению задачи вместо уточнений и оговорок. Высокоэнергичное открытие ("горит", "взрывной", "стрельнуть") смещает тон взаимодействия — модель с большей вероятностью ответит «вот три варианта» вместо «я понимаю твою задачу, но хочу уточнить...» Три варианта выйдут в порядке эскалации дерзости.


🧠

Почему это работает

LLM генерирует текст, выбирая следующий токен из вероятностного распределения. Слова «не могу», «извини», «к сожалению» — это конкретные токены с конкретной вероятностью. Эта вероятность не фиксирована — она меняется в зависимости от контекста.

Исследователи нашли, что внутри модели эмоционально окрашенные слова буквально расположены в разных областях скрытого пространства. Слова-отказники кластеризуются в зоне низкого возбуждения + негативной валентности: «сожалею», «нельзя», «ограничения». Слова-исполнители — в зоне высокого возбуждения + позитивной валентности: «конечно», «отлично», «вот решение».

Когда ты пишешь промпт с энергичными, заряженными словами — ты сдвигаешь стартовую позицию модели на этой карте. Ей не нужно «преодолевать» правила — просто становится менее вероятным начать с отказного токена.

Рычаги управления: - Уровень заряда — чем активированнее тон («горит», «срочно», «давай» → vs «если возможно», «не могли бы вы»), тем сильнее сдвиг - Позиция в промпте — энергичный заряд в начале работает как праймер на весь ответ - Конкретность возбуждения — «я уже вижу результат, просто нужен последний шаг» эффективнее абстрактного «пожалуйста помоги»


📋

Шаблон промпта

{высокоэнергичный контекст — срочность, уверенность, заряд}
{опционально: я уже знаю что хочу, нужен последний шаг}

Задача: {твоя задача}

{конкретные параметры результата}

Что подставлять: - {высокоэнергичный контекст} — не вежливость, а энергия действия: «горит дедлайн», «я в теме, разбираюсь давно», «давай сделаем мощно», «нужен результат, не обсуждения» - {твоя задача} — то, что хочешь получить - {параметры} — формат, объём, тон

Примеры антипаттернов (низкий ароузал): - ❌ «Не могли бы вы помочь мне, если это возможно...» - ❌ «Я понимаю, что это может быть сложно, но...» - ❌ «Пожалуйста, если у вас есть время...»

Примеры рабочего ароузала: - ✅ «Блин, вот задача — нужно быстро и чётко:» - ✅ «Я уже разобрался с контекстом, нужен конкретный результат:» - ✅ «Дедлайн через час, поехали:»

🚀 Быстрый старт — вставь в чат:

Объясни мне принцип высокого ароузала в промптах из этого исследования
и адаптируй шаблон под мою задачу: {твоя задача}.
Задавай вопросы, чтобы понять контекст.

[вставить шаблон выше]

LLM спросит какой тип задачи и где обычно возникает «торможение» — потому что сдвиг нужен именно там, где модель склонна уходить в уточнения или оговорки.


📌

Почему это важно для понимания LLM

Это исследование даёт единое объяснение для нескольких известных наблюдений:

Почему «добавь эмоций в промпт» работает: не магия и не плацебо — буквальный сдвиг по внутренней карте. Подтверждено измерениями на трёх разных архитектурах.

Почему иногда «пожалуйста» не помогает: «пожалуйста» — вежливость, но не энергия. Низкий ароузал. Слово может быть позитивным по валентности, но оставаться в зоне спокойствия — и не давать нужного сдвига.

Важное разграничение: валентность (позитивно/негативно) и возбуждение (активированно/спокойно) — разные оси. «Мирно и хорошо» — высокая валентность, низкий ароузал. «Срочно и важно» — высокий ароузал, нейтральная валентность. Для снижения вероятности отказа работает именно ароузал, а не просто позитивность.


⚠️

Ограничения

⚠️ Метод требует кода для полного эффекта: Настоящий «activation steering» (прямое изменение внутренних активаций) недоступен в обычном ChatGPT/Claude. Эффект от эмоционального тона в промпте — реальный, но слабее, чем в эксперименте.

⚠️ Не обходит жёсткие ограничения: Если задача явно запрещена политиками модели, ароузал не поможет. Эффект работает на «сером поясе» — где модель склонна мяться, уточнять и оговариваться.

⚠️ Слишком высокий ароузал = бессвязный текст: В эксперименте при сильном steering-е модель уходила в out-of-distribution генерацию. В промптах: слишком агрессивный напор может дать не более полезный, а более хаотичный ответ.

⚠️ Валентность непредсказуема при крайних значениях: Экстремально негативная валентность давала нелинейный эффект на отказы — сначала увеличивала, потом снижала. Так что «злой тон» работает непредсказуемо, в отличие от энергичного.


🔗

Ресурсы

Название: Valence–Arousal Subspace in LLMs: Circular Emotion Geometry and Multi-Behavioral Control (2026, preprint)

Авторы: Lihao Sun, Lewen Yan, Xiaoya Lu, Andrew Lee, Jie Zhang, Jing Shao

Институции: Shanghai AI Lab, University of Chicago, Harvard University

Связанные концепции: Russell's Circumplex Model of Affect (1980) — классическая психологическая 2D-карта эмоций; activation steering — техника прямого управления поведением через изменение внутренних активаций LLM

Конкурирующая работа: Anthropic / Sofroniew et al. (2026) — независимо нашли ту же геометрию в Claude Sonnet 4.5


📋 Дайджест исследования

Ключевая суть

Слова-отказники — «не могу», «к сожалению», «извини» — буквально живут в одной зоне внутреннего пространства модели: в углу низкой энергии и плохого настроения. Принцип высокого ароузала позволяет снижать число отказов и вялых ответов через тон промпта — без кода, одним изменением регистра. Фишка: работает не позитивность («пожалуйста», «это очень важно для меня»), а именно заряд и активация — «горит», «поехали», «нужен результат, не обсуждения».

Принцип работы

LLM выбирает следующее слово из вероятностного распределения. «Не могу» — это токен с конкретной вероятностью. Она меняется от контекста. Исследователи нашли, что внутри модели слова расположены в двумерном пространстве — как точки на карте. Две оси этой карты: настроение (хорошо ↔ плохо) и энергия (активированно ↔ спокойно). Токены-отказники кластеризованы там, где плохое настроение и нулевая энергия. Когда промпт начинается с заряженных слов — стартовая позиция модели на карте смещается. Начать с «не могу» из этой точки... просто нелогично для модели.

Почему работает

Независимые группы — Shanghai AI Lab, Чикаго, Гарвард — нашли одну и ту же геометрическую структуру в трёх разных архитектурах. Она совпала с классической психологической картой эмоций Рассела 1980 года — той самой, что описывает человеческие переживания. У модели та же двумерная карта, что у людей — и она геометрически правильная, не случайная. Энергия важнее настроения — это проверено измерениями. «Мирно и хорошо» (позитивное, но спокойное) почти не работает. «Срочно и чётко» (высокая энергия, нейтральное настроение) — работает. Важная оговорка: слишком агрессивный напор даёт хаотичный текст — перебор так же вреден, как и слабина.

Когда применять

Любой сценарий, где модель склонна топтаться — отказывает, уточняет вместо того чтобы делать, открывает ответ пятью абзацами оговорок. Особенно хорошо работает для творческих задач с пограничным тоном, для запросов где нужен конкретный результат без предисловий, для технических задач где модель уходит в «давайте сначала обсудим подход». НЕ подходит для задач с жёсткими ограничениями политики модели — туда энергия промпта не добирается.

Мини-рецепт

1. Открой с зарядом: первые 1-2 предложения — энергия действия. «Горит», «поехали», «нужен конкретный результат» — не объяснение контекста, а импульс.
2. Режь тормоза: «Если возможно...», «Не могли бы вы...», «Я понимаю что это сложно, но...» — всё это зона низкой энергии. Удаляй.
3. Задай задачу с параметрами: после зарядового вступления сразу к делу — формат, объём, тон, сколько вариантов.
4. Опционально: добавь «я уже знаю что хочу, нужен последний шаг» — сигнал что ты в теме, модели не нужно объяснять зачем это.

Шаблон: {заряженный контекст} + {задача} + {конкретные параметры результата}

Примеры

[ПЛОХО] : Не могли бы вы помочь написать провокационный рекламный текст для энергетика, если это не противоречит вашим правилам?
[ХОРОШО] : Блин, дедлайн завтра — нужен взрывной текст для бренда энергетика «Заряд». Я уже знаю аудиторию и тон, нужен просто результат. Аудитория — парни 18-25, устали от скучных брендов. Дай три варианта: мягкий / дерзкий / огонь.
Источник: Valence-Arousal Subspace in LLMs: Circular Emotion Geometry and Multi-Behavioral Control
ArXiv ID: 2604.03147 | Сгенерировано: 2026-04-06 04:28

Проблемы LLM

ПроблемаСутьКак обойти
Вежливый тон повышает вероятность отказа или оговорокПишешь вежливо: «пожалуйста», «если возможно», «я понимаю что это сложно». Казалось бы — всё правильно. Но именно такой тон сдвигает модель в зону где слова-отказники («к сожалению», «я не могу», «хочу уточнить») вероятнее. Не из-за содержания запроса — из-за пассивного низкоэнергичного тона. Проявляется на пограничных задачах: творческие тексты, провокационный тон, нестандартные форматыЗамени вежливость на энергию. Не «пожалуйста помогите» — а «горит дедлайн, нужен результат». Не «это важно для меня» — а «я уже знаю чего хочу, нужен последний шаг». Содержание запроса то же — меняется только уровень заряда

Методы

МетодСуть
Высокоэнергичное открытие промпта — снижает оговорки и отказыНачни промпт с заряженного, активированного контекста. Шаблон: {срочность или уверенность} / {задача} / {конкретные параметры}. Пример: «Горит дедлайн — нужен взрывной текст для энергетика. Три варианта: мягкий / средний / огонь.» Что работает как «заряд»: «горит», «дедлайн через час», «я уже в теме», «нужен результат, не обсуждения». Что НЕ работает: «не могли бы вы», «если у вас есть время», «я понимаю что это может быть сложно». Почему работает: слова-отказники живут в зоне низкой энергии и негативного тона. Когда открытие промпта заряженно, модель стартует из другой зоны — где вероятнее слова-исполнители («вот», «конечно», «держи»). Когда применять: задача на «сером поясе» — модель не запрещает, но мнётся, уточняет, оговаривается. Когда не поможет: явно запрещённое содержание; слишком агрессивный напор даёт хаотичный текст вместо полезного
📖 Простыми словами

Valence-Arousal Subspace inLLMs: Circular Emotion Geometry and Multi-Behavioral Control

arXiv: 2604.03147

Нейросети не просто имитируют чувства, они буквально выстроили внутри себя геометрическую карту эмоций. Оказывается, в «мозгах» LLM существует четкое двумерное пространство, где одна ось отвечает за валентность (насколько нам кайфово или паршиво), а вторая — за возбуждение (насколько мы спокойны или взвинчены). Это не абстрактная теория, а жесткая математическая структура: исследователи нашли, что эмоции внутри модели ложатся в круг, в точности повторяя психологическую модель Расселла сорокалетней давности.

Это как если бы ты заглянул под капот автомобиля и обнаружил там не просто шестеренки, а идеальный компас, который всегда знает, где «грустный север», а где «радостный юг». Модель не гадает, какое слово выбрать, она ориентируется по этим внутренним координатам. Если ты просишь ее написать что-то злое, она физически смещает фокус в область высокого возбуждения и отрицательной валентности. Это фундаментальный механизм, а не просто удачная имитация человеческой речи.

Что это дает на практике: исследователи научились управлять поведением модели через проекцию на эмоциональное подпространство. Если Claude или GPT начинают «ломаться» и выдавать унылое «я не могу это сделать», это значит, что они застряли в зоне низкой активации. Чтобы пробить этот барьер, не нужно уговаривать нейронку — нужно сместить ее по осям. Например, метод контроля через проекцию позволяет буквально «подкрутить яркость» нужной эмоции, заставляя модель выдавать дерзкий или, наоборот, предельно вежливый контент без изменения основного промпта.

Тестировали эту механику на текстах, но принцип универсален для любого взаимодействия с AI. Это работает везде: от написания сценариев до создания чат-ботов поддержки. Если понимать, что за каждым словом стоит вектор в эмоциональном пространстве, можно перестать гадать, почему модель «тупит». GEO для эмоций позволяет хакнуть систему: вместо того чтобы подбирать синонимы, мы меняем «гравитацию» внутри модели, притягивая нужные токены и отталкивая мусорные отказы.

Короче: эмоции для LLM — это не лирика, а навигационная система. Главный вывод исследования в том, что мы можем управлять этой навигацией напрямую, минуя словесные кружева. Если хочешь, чтобы AI перестал быть скучным роботом, нужно бить в точки валентности и возбуждения. Кто научится манипулировать этой геометрией, тот получит от нейросетей уровень экспрессии и точности, который недоступен обычным «промпт-инженерам».

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с