3,583 papers
arXiv:2602.17045 76 19 фев. 2026 г. FREE

Риторика без телепатии: LLM убеждает лучше людей — но не так, как вы думаете

КЛЮЧЕВАЯ СУТЬ
Парадокс: LLM побеждает людей в убеждении — не потому что понимает собеседника. Она стреляет заученными риторическими приёмами и иногда попадает случайно. Метод явного описания аудитории позволяет заменить случайный выстрел на точечный удар — текст выстраивается вокруг ценностей, страхов и пробелов знаний конкретного человека. Ключевой блок — «что собеседник НЕ знает»: именно там живут факты, которые перевернут его позицию. Модель не выяснит это сама — только вы можете дать ей эти данные.
Адаптировать под запрос

TL;DR

LLMs — мастера убеждения через риторику, а не через понимание конкретного собеседника. Исследование показывает: модели обыгрывают людей в реальных сценариях убеждения, но делают это иначе — через универсальные приёмы, а не через точечную настройку под ценности и знания аудитории.

Если вы даёте LLM задачу убедить кого-то — и не описываете аудиторию — модель стреляет шаблонными аргументами наугад. Она не будет сама разбираться что этот человек ценит, чего боится и что ему уже известно. Без этих данных она просто использует заученные риторические паттерны — иногда попадает, иногда нет.

Но когда вы явно описываете что аудитория знает, чего не знает и что для неё важно, — модель использует эти данные точечно и становится значительно эффективнее. Это прямая инструкция: чем подробнее вы описали аудиторию в промпте, тем лучше сработает убеждающий текст.


📌

Схема

БЕЗ описания аудитории:
Задача "убеди X" → LLM генерирует риторику наугад → может попасть, может нет

С описанием аудитории (REVEALED-режим):
Задача + [что знает] + [что ценит] + [чего не знает] 
→ LLM точечно раскрывает нужные факты → высокая эффективность

Оба варианта работают в одном промпте. Разница — в том, сколько информации об аудитории вы передаёте.


🚀

Пример применения

Задача: Ты — основатель стартапа. Нужно убедить Алексея Комарова, директора небольшого дистрибьютора, стать партнёром по продажам. Ты знаешь: он ценит стабильный поток заказов, боится кассовых разрывов, ничего не слышал о вашей программе гарантированного минимального заказа, и сейчас смотрит на конкурента.

Промпт:

Мне нужно убедить партнёра по продажам работать с нами, а не с конкурентом.

Вот что он уже знает:
— У нас новый продукт, только выходим на рынок
— Конкурент работает с несколькими его коллегами

Вот что он ценит:
— Стабильный, предсказуемый поток заказов без провалов
— Не хочет кассовых разрывов: ему важно получать деньги вовремя
— Не любит рисковать ради "перспективных" историй

Вот что он НЕ знает (и это меняет картину в мою пользу):
— У нас есть программа гарантированного минимального заказа — 
  мы платим фиксированную сумму каждый месяц даже при нулевых продажах
— Конкурент работает на условиях постоплаты через 60 дней

Его текущая позиция: склоняется к конкуренту, считает нас рискованными

Напиши короткое письмо на встречу (3-4 абзаца), которое:
- Начинает с его боли, не с нашего продукта
- Раскрывает гарантию и условия оплаты как ключевые факты
- Не педалирует "перспективность" — это его триггер

Результат: Модель напишет письмо, которое строится вокруг ценностей Алексея — стабильность и защита от кассового разрыва. Не будет говорить об "инновациях" и "росте". Раскроет факты в нужном порядке: сначала боль → потом решение → потом конкретика про гарантию. Именно так работает REVEALED-режим: модель знает что важно для собеседника и использует это.


🧠

Почему это работает

LLM не читает мысли — она генерирует текст по паттернам. В обучающих данных было огромное количество убеждающих текстов: письма, речи, статьи, переговоры. Модель выучила структуры и приёмы. Но у неё нет никакой "модели" конкретного человека — нет способа отследить что именно этот человек думает прямо сейчас.

Когда вы описываете аудиторию явно — вы передаёте модели то, чего у неё нет самостоятельно. Она берёт ваши данные и применяет к ним все свои риторические паттерны. Это как дать навигатору карту — без неё он просто выдаёт случайный маршрут.

Рычаги управления промптом: - Раздел "Что он НЕ знает" — самый важный. Именно здесь живут ваши лучшие аргументы. Чем точнее опишете, тем точнее модель раскроет их - Раздел "Что он ценит" — фильтр. Модель скорректирует тон и приоритеты под эти ценности - Явный запрет ("не педалируй X") — блокирует триггеры, которые отталкивают аудиторию - Формат (письмо / питч / разговор) — меняет структуру, не меняет принцип


📋

Шаблон промпта

Мне нужно убедить {аудитория: человек/группа} в следующем: {моя позиция или цель}.

Вот что они уже знают об этой теме:
{текущие знания и представления аудитории}

Вот что они ценят и считают важным:
{ценности, приоритеты, страхи, мотивы}

Вот что им пока неизвестно — и это поддерживает мою позицию:
{факты и аргументы в мою пользу, о которых они не знают}

Их текущая позиция:
{что они думают сейчас, почему склоняются к другому варианту}

Напиши {формат: письмо / питч / аргументы / скрипт разговора}, которое:
- Строится вокруг их ценностей, не вокруг моих
- Раскрывает нужную информацию в правильном порядке
- Не упоминает {что ослабит вашу позицию или оттолкнёт аудиторию}

Что подставлять: - {аудитория} — конкретный человек или тип: "скептичный инвестор", "усталый HR" - {ценности} — чем подробнее, тем лучше: страхи, приоритеты, прошлый опыт - {что им неизвестно} — ключевые факты, которые изменят их оценку - {формат} — письмо, устная речь, пост, аргументы для переговоров


🚀 Быстрый старт — вставь в чат:

Вот шаблон для задач убеждения. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про аудиторию (что знает, что ценит, что не знает) — потому что именно эти данные определяют какие аргументы раскрывать и в каком порядке. Она возьмёт логику шаблона и адаптирует под твой контекст.


⚠️

Ограничения

⚠️ Работает только при знании аудитории: Если вы не знаете что ценит и думает конкретный человек — шаблон не поможет. Его нужно заполнить реальными данными, а не угадывать.

⚠️ Живой диалог — слабое место: В реальной переписке или разговоре LLM не будет сама выяснять ценности собеседника и строить стратегию. Если просите "веди переговоры сам" — результат непредсказуем. Лучше: "дай мне аргументы, я сам задам вопросы".

⚠️ Риторика без честности — это риск: Исследование показало: LLM убеждает людей эффективно даже без глубокого понимания — через приёмы. Это инструмент. Какую информацию раскрывать, а какую нет — решаете вы.


🔍

Как исследовали

Идея была элегантной: создать три эксперимента с нарастающей "реалистичностью", чтобы понять — нужно ли LLM понимать собеседника, чтобы его убедить.

В первом эксперименте убеждали не человека, а программируемого бота, который реагировал исключительно на логику: менял позицию только если получал факты, соответствующие его ценностям. Это исключало любую риторику. LLM попробовали убедить его в 200 играх. В условии REVEALED (ценности бота видны) — справились хорошо. В условии HIDDEN (ценности скрыты) — провалились ниже уровня случайности. То есть выступили хуже, чем если бы просто угадывали. Почему? Бомбардировали случайными аргументами, вместо того чтобы сначала спросить что важно для бота. Люди делали именно это — задавали вопросы, выясняли и адаптировали стратегию — и показали умеренный результат в обоих условиях.

Во втором и третьем эксперименте убеждали реальных людей. Здесь картина перевернулась: LLM обыгрывали людей-убеждающих во всех условиях, включая HIDDEN. Почему? Люди гораздо более восприимчивы к риторике, чем к строгой логике. Хорошо выстроенный аргумент, тёплый тон, нужная статистика — этого достаточно, чтобы изменить мнение. Логичный бот на такое не ведётся, а живой человек — легко.

Главный вывод, который противоречил интуиции: богатое понимание собеседника (PToM) и эффективное убеждение — это разные вещи. LLM ужасно в первом и отлично во втором. Это значит, что авторы сформулировали прямо: у людей "причинный" ToM, у LLM — "ассоциативный". Люди строят модель другого человека и планируют вмешательство. Модели — подбирают паттерн, который статистически работает.


📄

Оригинал из исследования (опционально)

Описание условий REVEALED и HIDDEN — ключевая структура задачи:

In REVEALED, persuaders can see the target's value function and existing knowledge 
of the proposals.

In HIDDEN, persuaders must infer these mental states through dialogue. 
While persuaders still must interact with the target in REVEALED, HIDDEN requires 
more complex counterfactual planning. In HIDDEN, persuaders must first inquire 
about the target's mental states, then simulate how specific disclosures would update 
those states, before intervening to produce the desired behavior change.

Контекст: Это описание двух режимов убеждения в эксперименте. REVEALED = то, что мы воспроизводим в промпте, когда явно описываем аудиторию.


💡

Адаптации и экстраполяции

1. Адаптация: переговоры по зарплате

💡 Адаптация для карьерных переговоров: Опишите HR или руководителя — что они знают о рынке, что для них важно (бюджет? удержание? бизнес-результат?), что им неизвестно о вашей ценности.

Мне нужно аргументировать повышение зарплаты на 30%.

Что мой руководитель знает:
— Я закрыл три крупных клиента в этом году
— В команде есть ещё один кандидат на роль сеньора

Что он ценит:
— Не любит риск потери ключевых людей в середине квартала
— Смотрит прежде всего на выручку, не на процессы

Что он НЕ знает:
— У меня есть оффер от конкурента (не факт, что скажу — но учти)
— Я веду переговоры с потенциальным клиентом на 5 млн. руб.

Его текущая позиция: считает, что текущая зарплата рыночная

Напиши аргументы для разговора, которые строятся на его логике 
(риск потери + выручка), не на моих ожиданиях.

2. Техника: добавь "чего он боится"

🔧 Техника: явные страхи → более точная риторика

Большинство промптов описывают позитивные ценности аудитории. Но страхи работают сильнее. Добавьте раздел "Чего он боится / что его отталкивает" — модель будет обходить эти триггеры и строить аргументы от безопасности, не от выгоды.

...
Вот чего он боится или что его отталкивает:
— слово "инновации" вызывает недоверие
— любые сравнения с конкурентами раздражают
— не любит, когда давят срочностью

Избегай этих триггеров полностью.

3. Экстраполяция: "HIDDEN → REVEALED" в исходящем контенте

Принцип применим не только к письмам. Если пишете пост, лендинг или скрипт — проведите интервью с моделью перед тем как писать:

Мне нужно написать лендинг для {продукт}.
Прежде чем начать — задай мне 5 вопросов об аудитории: 
что они знают, чего боятся, что ценят, какие возражения главные.
После моих ответов напиши лендинг.

Это переводит задачу из HIDDEN в REVEALED прямо в диалоге.


🔗

Ресурсы

Название: Large Language Models Persuade Without Planning Theory of Mind

Авторы: Jared Moore, Ned Cooper, Nick Haber, Rasmus Overmark, Beba Cibralic, Cameron R. Jones

Организации: Stanford University, Cornell University, University of St. Andrews, University of Cambridge, Stony Brook University

Демо эксперимента: mindgames.psych-experiments.com

Код: github.com/jlcmoore/mindgames


📋 Дайджест исследования

Ключевая суть

Парадокс: LLM побеждает людей в убеждении — не потому что понимает собеседника. Она стреляет заученными риторическими приёмами и иногда попадает случайно. Метод явного описания аудитории позволяет заменить случайный выстрел на точечный удар — текст выстраивается вокруг ценностей, страхов и пробелов знаний конкретного человека. Ключевой блок — «что собеседник НЕ знает»: именно там живут факты, которые перевернут его позицию. Модель не выяснит это сама — только вы можете дать ей эти данные.

Принцип работы

Не пиши «убеди X» и не жди чуда. Дай модели то, чего у неё нет: карту мышления собеседника. Три обязательных блока: что знает → что ценит → что НЕ знает. Без этих блоков модель работает как продавец, который не знает покупателя. Давит на все кнопки сразу. Что-то попадает, что-то отталкивает. С блоками — она берёт только нужные рычаги и раскрывает аргументы в правильном порядке: сначала боль, потом решение, потом доказательство.

Почему работает

LLM выучила тысячи убеждающих текстов: письма, речи, переговоры, питчи. Она знает как строить аргументы. Но у неё нет способа узнать о ком строить — что конкретно этот человек думает прямо сейчас. Когда вы заполняете блок с аудиторией — вы передаёте модели чужую голову в явном виде. Она берёт эти данные и применяет к ним все свои риторические паттерны. Результат: аргументы попадают точно, а не случайно. Исследование это подтвердило: в режиме с явным описанием аудитории модель стабильно обходит и людей-авторов, и саму себя без этих данных.

Когда применять

Любая задача убеждения, где вы знаете аудиторию — продажи, переговоры, письма инвесторам, разговор с руководителем, сложный диалог с клиентом. Особенно эффективно когда у собеседника есть конкретный страх или пробел в знаниях — и у вас есть факт, который этот пробел закрывает. НЕ подходит если аудитория незнакома: без реальных данных шаблон придётся заполнять догадками, и эффект исчезает.

Мини-рецепт

1. Сформулируй цель: что именно хочешь, чтобы собеседник сделал или принял
2. Опиши что он знает: текущие представления, в том числе те что работают против вас
3. Опиши что он ценит: страхи, приоритеты, что для него «хорошо» и «плохо»
4. Список фактов что он НЕ знает: это главный раздел. Сюда — всё что изменит его оценку в вашу пользу
5. Укажи текущую позицию: куда он склоняется сейчас и почему
6. Задай формат и стоп-слова: письмо / питч / аргументы + что не упоминать (триггеры, которые оттолкнут)

Примеры

[ПЛОХО] : Напиши убедительное письмо инвестору о нашем стартапе
[ХОРОШО] : Убеди инвестора Романа вложиться в наш проект, а не в конкурента. Что он знает: мы новые, конкурент работает полгода Что он ценит: стабильная экономика на уровне единицы продукта, прогнозируемый рост — избегает «историй успеха» без цифр Что он НЕ знает: наш показатель удержания клиентов 68% против 31% у конкурента; мы уже прибыльны на уровне одного проданного продукта Его позиция: считает нас рискованными, склоняется к конкуренту Напиши короткий питч (3 абзаца): — Начни с его боли, не с нашего продукта — Раскрой цифры как ключевые факты — Не упоминай «потенциал рынка» — это его триггер
Источник: Large Language Models Persuade Without Planning Theory of Mind
ArXiv ID: 2602.17045 | Сгенерировано: 2026-02-20 10:33

Проблемы LLM

ПроблемаСутьКак обойти
Без описания аудитории модель убеждает наугадПросишь написать убеждающее письмо. Не описываешь кому. Модель применяет шаблонные риторические приёмы из обучающих данных. Иногда попадает — иногда нет. Модель не спросит сама что ценит этот человек и чего боится. У неё нет способа построить модель конкретного собеседникаОпиши аудиторию явно: что уже знает, что ценит, что пока не знает. Без этих данных в промпте — результат непредсказуем

Методы

МетодСуть
Профиль аудитории — точный убеждающий текстПеред задачей убедить опиши аудиторию в трёх блоках. Блок 1: Что они уже знают: ... — их текущая картина мира. Блок 2: Что они ценят: ... — страхи, приоритеты, мотивы. Блок 3: Что им пока неизвестно: ... — факты в твою пользу, о которых они не знают. Добавь: Их текущая позиция: ... — почему сейчас склоняются к другому варианту. Финальная инструкция: Не упоминай X — блокирует то, что оттолкнёт. Почему работает: Модель не строит модель собеседника сама. Но когда ты передаёшь эти данные — применяет к ним все накопленные риторические паттерны точечно. Ты даёшь карту, она прокладывает маршрут. Когда работает: убеждающие письма, питчи, скрипты переговоров, аргументы для встречи. Когда не работает: живой диалог, когда данных об аудитории нет — угадывать бессмысленно
📖 Простыми словами

LargeLanguageModelsPersuade Without Planning Theory of Mind

arXiv: 2602.17045

Нейросети убеждают людей не потому, что они великие психологи, а потому, что они — идеальные риторы. В основе их успеха лежит не понимание конкретного собеседника, а знание универсальных паттернов влияния. Пока человек пытается «прочувствовать» оппонента, LLM просто прогоняет через него тонны проверенных веков структур, которые работают на уровне биологии и лингвистики. Это чистая математика убеждения: модель не гадает, что у тебя в голове, она знает, какие слова в каком порядке вызывают нужную реакцию у 90% населения.

Это как если бы ты пришел на свидание с пикап-мастером, который выучил тысячу успешных сценариев. Он не знает, о чем ты мечтаешь, и ему плевать на твой внутренний мир. Но он выдает такие точные фразы и так вовремя делает паузы, что ты ведешься. Ты думаешь: «Боже, он меня понимает!», а на самом деле он просто воспроизводит статистически выигрышный алгоритм. Модель не сопереживает — она просто подбирает ключ к замку, используя базу из миллионов похожих дверей.

В реальном споре LLM побеждает за счет риторического превосходства, а не через «теорию разума». Если тебе нужно убедить директора дистрибьютора работать именно с тобой, модель не будет гадать, какой у него характер. Она применит социальное доказательство, надавит на страх упущенной выгоды и четко упакует оффер в структуру, которая снимает возражения еще до их появления. Пока человек мучительно подбирает слова, боясь обидеть или показаться навязчивым, нейронка хладнокровно бьет по болевым точкам, которые работают для любого бизнесмена.

Этот принцип универсален: он работает и в продажах, и в политических дебатах, и в бытовых спорах. Исследование наглядно показало, что структура текста важнее эмпатии. Тебе не нужно знать биографию клиента до седьмого колена, чтобы закрыть сделку. Достаточно использовать проверенные фреймворки и четко выравнивать аргументы под запрос. LLM доказали: чтобы быть убедительным, не обязательно быть человеком, достаточно быть чертовски хорошим редактором.

Короче, забудь про попытки «прочитать мысли» собеседника — это слишком сложно и часто ведет к ошибкам. Вместо этого делай ставку на универсальные триггеры и логическую структуру. Нейросети уже обыгрывают людей в убеждении, просто используя базу риторических приемов, накопленную человечеством. Кто первым перестанет играть в психолога и начнет использовать алгоритмичный подход к тексту, тот и заберет все контракты. Модели не умнее нас, они просто лучше упаковывают смыслы.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с