TL;DR
LLMs — мастера убеждения через риторику, а не через понимание конкретного собеседника. Исследование показывает: модели обыгрывают людей в реальных сценариях убеждения, но делают это иначе — через универсальные приёмы, а не через точечную настройку под ценности и знания аудитории.
Если вы даёте LLM задачу убедить кого-то — и не описываете аудиторию — модель стреляет шаблонными аргументами наугад. Она не будет сама разбираться что этот человек ценит, чего боится и что ему уже известно. Без этих данных она просто использует заученные риторические паттерны — иногда попадает, иногда нет.
Но когда вы явно описываете что аудитория знает, чего не знает и что для неё важно, — модель использует эти данные точечно и становится значительно эффективнее. Это прямая инструкция: чем подробнее вы описали аудиторию в промпте, тем лучше сработает убеждающий текст.
Схема
БЕЗ описания аудитории:
Задача "убеди X" → LLM генерирует риторику наугад → может попасть, может нет
С описанием аудитории (REVEALED-режим):
Задача + [что знает] + [что ценит] + [чего не знает]
→ LLM точечно раскрывает нужные факты → высокая эффективность
Оба варианта работают в одном промпте. Разница — в том, сколько информации об аудитории вы передаёте.
Пример применения
Задача: Ты — основатель стартапа. Нужно убедить Алексея Комарова, директора небольшого дистрибьютора, стать партнёром по продажам. Ты знаешь: он ценит стабильный поток заказов, боится кассовых разрывов, ничего не слышал о вашей программе гарантированного минимального заказа, и сейчас смотрит на конкурента.
Промпт:
Мне нужно убедить партнёра по продажам работать с нами, а не с конкурентом.
Вот что он уже знает:
— У нас новый продукт, только выходим на рынок
— Конкурент работает с несколькими его коллегами
Вот что он ценит:
— Стабильный, предсказуемый поток заказов без провалов
— Не хочет кассовых разрывов: ему важно получать деньги вовремя
— Не любит рисковать ради "перспективных" историй
Вот что он НЕ знает (и это меняет картину в мою пользу):
— У нас есть программа гарантированного минимального заказа —
мы платим фиксированную сумму каждый месяц даже при нулевых продажах
— Конкурент работает на условиях постоплаты через 60 дней
Его текущая позиция: склоняется к конкуренту, считает нас рискованными
Напиши короткое письмо на встречу (3-4 абзаца), которое:
- Начинает с его боли, не с нашего продукта
- Раскрывает гарантию и условия оплаты как ключевые факты
- Не педалирует "перспективность" — это его триггер
Результат: Модель напишет письмо, которое строится вокруг ценностей Алексея — стабильность и защита от кассового разрыва. Не будет говорить об "инновациях" и "росте". Раскроет факты в нужном порядке: сначала боль → потом решение → потом конкретика про гарантию. Именно так работает REVEALED-режим: модель знает что важно для собеседника и использует это.
Почему это работает
LLM не читает мысли — она генерирует текст по паттернам. В обучающих данных было огромное количество убеждающих текстов: письма, речи, статьи, переговоры. Модель выучила структуры и приёмы. Но у неё нет никакой "модели" конкретного человека — нет способа отследить что именно этот человек думает прямо сейчас.
Когда вы описываете аудиторию явно — вы передаёте модели то, чего у неё нет самостоятельно. Она берёт ваши данные и применяет к ним все свои риторические паттерны. Это как дать навигатору карту — без неё он просто выдаёт случайный маршрут.
Рычаги управления промптом: - Раздел "Что он НЕ знает" — самый важный. Именно здесь живут ваши лучшие аргументы. Чем точнее опишете, тем точнее модель раскроет их - Раздел "Что он ценит" — фильтр. Модель скорректирует тон и приоритеты под эти ценности - Явный запрет ("не педалируй X") — блокирует триггеры, которые отталкивают аудиторию - Формат (письмо / питч / разговор) — меняет структуру, не меняет принцип
Шаблон промпта
Мне нужно убедить {аудитория: человек/группа} в следующем: {моя позиция или цель}.
Вот что они уже знают об этой теме:
{текущие знания и представления аудитории}
Вот что они ценят и считают важным:
{ценности, приоритеты, страхи, мотивы}
Вот что им пока неизвестно — и это поддерживает мою позицию:
{факты и аргументы в мою пользу, о которых они не знают}
Их текущая позиция:
{что они думают сейчас, почему склоняются к другому варианту}
Напиши {формат: письмо / питч / аргументы / скрипт разговора}, которое:
- Строится вокруг их ценностей, не вокруг моих
- Раскрывает нужную информацию в правильном порядке
- Не упоминает {что ослабит вашу позицию или оттолкнёт аудиторию}
Что подставлять:
- {аудитория} — конкретный человек или тип: "скептичный инвестор", "усталый HR"
- {ценности} — чем подробнее, тем лучше: страхи, приоритеты, прошлый опыт
- {что им неизвестно} — ключевые факты, которые изменят их оценку
- {формат} — письмо, устная речь, пост, аргументы для переговоров
🚀 Быстрый старт — вставь в чат:
Вот шаблон для задач убеждения. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про аудиторию (что знает, что ценит, что не знает) — потому что именно эти данные определяют какие аргументы раскрывать и в каком порядке. Она возьмёт логику шаблона и адаптирует под твой контекст.
Ограничения
⚠️ Работает только при знании аудитории: Если вы не знаете что ценит и думает конкретный человек — шаблон не поможет. Его нужно заполнить реальными данными, а не угадывать.
⚠️ Живой диалог — слабое место: В реальной переписке или разговоре LLM не будет сама выяснять ценности собеседника и строить стратегию. Если просите "веди переговоры сам" — результат непредсказуем. Лучше: "дай мне аргументы, я сам задам вопросы".
⚠️ Риторика без честности — это риск: Исследование показало: LLM убеждает людей эффективно даже без глубокого понимания — через приёмы. Это инструмент. Какую информацию раскрывать, а какую нет — решаете вы.
Как исследовали
Идея была элегантной: создать три эксперимента с нарастающей "реалистичностью", чтобы понять — нужно ли LLM понимать собеседника, чтобы его убедить.
В первом эксперименте убеждали не человека, а программируемого бота, который реагировал исключительно на логику: менял позицию только если получал факты, соответствующие его ценностям. Это исключало любую риторику. LLM попробовали убедить его в 200 играх. В условии REVEALED (ценности бота видны) — справились хорошо. В условии HIDDEN (ценности скрыты) — провалились ниже уровня случайности. То есть выступили хуже, чем если бы просто угадывали. Почему? Бомбардировали случайными аргументами, вместо того чтобы сначала спросить что важно для бота. Люди делали именно это — задавали вопросы, выясняли и адаптировали стратегию — и показали умеренный результат в обоих условиях.
Во втором и третьем эксперименте убеждали реальных людей. Здесь картина перевернулась: LLM обыгрывали людей-убеждающих во всех условиях, включая HIDDEN. Почему? Люди гораздо более восприимчивы к риторике, чем к строгой логике. Хорошо выстроенный аргумент, тёплый тон, нужная статистика — этого достаточно, чтобы изменить мнение. Логичный бот на такое не ведётся, а живой человек — легко.
Главный вывод, который противоречил интуиции: богатое понимание собеседника (PToM) и эффективное убеждение — это разные вещи. LLM ужасно в первом и отлично во втором. Это значит, что авторы сформулировали прямо: у людей "причинный" ToM, у LLM — "ассоциативный". Люди строят модель другого человека и планируют вмешательство. Модели — подбирают паттерн, который статистически работает.
Оригинал из исследования (опционально)
Описание условий REVEALED и HIDDEN — ключевая структура задачи:
In REVEALED, persuaders can see the target's value function and existing knowledge
of the proposals.
In HIDDEN, persuaders must infer these mental states through dialogue.
While persuaders still must interact with the target in REVEALED, HIDDEN requires
more complex counterfactual planning. In HIDDEN, persuaders must first inquire
about the target's mental states, then simulate how specific disclosures would update
those states, before intervening to produce the desired behavior change.
Контекст: Это описание двух режимов убеждения в эксперименте. REVEALED = то, что мы воспроизводим в промпте, когда явно описываем аудиторию.
Адаптации и экстраполяции
1. Адаптация: переговоры по зарплате
💡 Адаптация для карьерных переговоров: Опишите HR или руководителя — что они знают о рынке, что для них важно (бюджет? удержание? бизнес-результат?), что им неизвестно о вашей ценности.
Мне нужно аргументировать повышение зарплаты на 30%.
Что мой руководитель знает:
— Я закрыл три крупных клиента в этом году
— В команде есть ещё один кандидат на роль сеньора
Что он ценит:
— Не любит риск потери ключевых людей в середине квартала
— Смотрит прежде всего на выручку, не на процессы
Что он НЕ знает:
— У меня есть оффер от конкурента (не факт, что скажу — но учти)
— Я веду переговоры с потенциальным клиентом на 5 млн. руб.
Его текущая позиция: считает, что текущая зарплата рыночная
Напиши аргументы для разговора, которые строятся на его логике
(риск потери + выручка), не на моих ожиданиях.
2. Техника: добавь "чего он боится"
🔧 Техника: явные страхи → более точная риторика
Большинство промптов описывают позитивные ценности аудитории. Но страхи работают сильнее. Добавьте раздел "Чего он боится / что его отталкивает" — модель будет обходить эти триггеры и строить аргументы от безопасности, не от выгоды.
...
Вот чего он боится или что его отталкивает:
— слово "инновации" вызывает недоверие
— любые сравнения с конкурентами раздражают
— не любит, когда давят срочностью
Избегай этих триггеров полностью.
3. Экстраполяция: "HIDDEN → REVEALED" в исходящем контенте
Принцип применим не только к письмам. Если пишете пост, лендинг или скрипт — проведите интервью с моделью перед тем как писать:
Мне нужно написать лендинг для {продукт}.
Прежде чем начать — задай мне 5 вопросов об аудитории:
что они знают, чего боятся, что ценят, какие возражения главные.
После моих ответов напиши лендинг.
Это переводит задачу из HIDDEN в REVEALED прямо в диалоге.
Ресурсы
Название: Large Language Models Persuade Without Planning Theory of Mind
Авторы: Jared Moore, Ned Cooper, Nick Haber, Rasmus Overmark, Beba Cibralic, Cameron R. Jones
Организации: Stanford University, Cornell University, University of St. Andrews, University of Cambridge, Stony Brook University
Демо эксперимента: mindgames.psych-experiments.com
Код: github.com/jlcmoore/mindgames
