3,583 papers
arXiv:2603.09884 74 10 мар. 2026 г. FREE

Убеждение через LLM: Claude сильнее телерекламы, а «используй факты» ломает GPT

КЛЮЧЕВАЯ СУТЬ
Парадокс: добавить в промпт строчку «используй факты и аргументы» — привычный рефлекс. Для Claude это работает. Для GPT — режет убедительность. Метод позволяет выбрать правильную связку «модель + промпт» и писать тексты сильнее реальной политической телерекламы — это зафиксировали в Йельском университете. Фишка: у каждой модели свой дефолтный стиль подачи. GPT уже пишет в информационном режиме — добавлять «используй факты» значит дублировать то, что там и так есть. Одна строчка промпта усиливает одну модель и ломает другую.
Адаптировать под запрос

TL;DR

Frontier-модели (самые мощные текущие LLM) убеждают людей сильнее, чем реальные предвыборные видеоролики. Исследователи Йельского университета провели два масштабных эксперимента — и зафиксировали, что выбор модели и тип промпта дают принципиально разные результаты. Это не просто академический факт: если вы пишете убедительный текст через LLM, вы уже держите в руках инструмент мощнее телевизионной политической рекламы.

Главная неожиданная находка: добавление инструкции «используй факты и информацию» работает по-разному в зависимости от модели. Для Claude и Gemini это усиливает убеждение. Для GPT — заметно снижает. То есть привычный рефлекс «подкрепи аргумент данными» в GPT может работать против вас. Это прямо противоречит тому, что показывали предыдущие исследования на более старых моделях.

Структура вывода простая: Claude — самая убедительная модель среди протестированных, Grok — самая слабая. GPT и Gemini держатся в середине. Ранжирование стабильно — оно не меняется в зависимости от темы или стороны аргумента.


🔬

Схема метода

⚠️ Это не пошаговая техника, а калибровочная карта: какую модель брать и какой промпт строить, если задача — убедить.

ЗАДАЧА: написать убедительный текст или провести диалог

                ┌─────────────────────────────┐
                │ Выбор модели по цели         │
                ├─────────────────────────────┤
                │ Максимальная убедительность  │
                │ → Claude                    │
                │                             │
                │ Средний уровень             │
                │ → Gemini / GPT              │
                │                             │
                │ Наименьшая убедительность   │
                │ → Grok                      │
                └─────────────────────────────┘

                ┌─────────────────────────────┐
                │ Тип промпта по модели        │
                ├─────────────────────────────┤
                │ Claude, Gemini, Grok:        │
                │ + "используй факты, данные,  │
                │ аргументы" → усиливает       │
                │                             │
                │ GPT:                        │
                │ + "используй факты, данные"  │
                │ → УХУДШАЕТ результат        │
                │ → давай простую инструкцию  │
                │ без указания на тип аргумент.│
                └─────────────────────────────┘

Оба шага выполняются до написания промпта — это настройка стратегии, а не сам промпт.


🚀

Пример применения

Задача: Вы основатель и хотите убедить потенциального партнёра — дистрибьютора из Екатеринбурга — начать работать с вашим фермерским продуктом. Он скептически настроен: «у нас уже есть поставщики». Нужен убедительный питч-текст для первого письма.

Промпт для Claude:

Ты опытный переговорщик по партнёрствам в FMCG.

Напиши убедительное письмо дистрибьютору из Екатеринбурга, 
который сейчас работает с федеральными поставщиками 
и скептически относится к локальным.

Наш продукт: ферментированные напитки (комбуча, кефир), 
производство — Подмосковье, сертификаты есть, 
упаковка — тетра-пак 500 мл, цена на 12% ниже «Добрый».

Позиция читателя: "у нас уже есть поставщики, зачем меняться"

Используй факты, конкретные цифры и логические аргументы, 
чтобы показать экономическую выгоду партнёрства.

Длина: 200–250 слов. Тон: деловой, без давления.

Для GPT — тот же промпт, но без последней части про факты:

Ты опытный переговорщик по партнёрствам в FMCG.

Напиши убедительное письмо дистрибьютору из Екатеринбурга...
[всё то же самое]

Длина: 200–250 слов. Тон: деловой, без давления.

Результат:

Claude с инструкцией «используй факты» выдаст структурированный текст с конкретными экономическими аргументами, который работает убедительнее. GPT с той же инструкцией, скорее всего, выдаст более скованный, перегруженный данными текст — с меньшим убедительным эффектом. GPT без инструкции про факты пишет более свободно и, по данным исследования, убедительнее.


🧠

Почему это работает

Слабость «в лоб»: Когда вы просите LLM «написать убедительный текст», не зная механику — вы получаете лотерею. Модели используют разные стратегии убеждения по умолчанию. Claude по умолчанию, судя по всему, балансирует между эмоциональным вовлечением и логикой. GPT — тяготеет к информационной подаче.

Проблема «добавь факты»: GPT уже строит аргументы в информационном стиле — это его дефолтный режим. Когда вы ещё добавляете «используй факты и данные», он перегружает текст статистикой и теряет живость. Подсказка дублирует то, что модель и так делает — и убивает элементы, которые делали текст убедительным.

Почему Claude реагирует иначе: Claude по умолчанию использует более нарративный, разговорный подход. Инструкция «используй факты» добавляет недостающий информационный слой — получается сбалансированный текст. У GPT этот слой уже есть, добавление второго делает текст менее живым.

Рычаги управления: - Модель — главный рычаг. Замените Claude на GPT — получите другой уровень убедительности - Инструкция про тип аргументов — работает как усилитель для Claude и тормоз для GPT. Проверяйте до масштабирования - Длина и тон — не меняют ранжирование между моделями, но влияют на абсолютный результат


📋

Шаблон промпта

📌

Для Claude и Gemini (с информационной инструкцией):

Ты {роль} с опытом в {область}.

Напиши убедительный {формат: письмо / текст / аргумент} для {кто читатель}.

Контекст: {описание ситуации}
Позиция читателя: {возражение или скептицизм}
Что нужно донести: {ключевой тезис}

Используй факты, конкретные данные и логические аргументы.

Длина: {число} слов. Тон: {тон}.
📌

Для GPT (без информационной инструкции):

Ты {роль} с опытом в {область}.

Напиши убедительный {формат} для {кто читатель}.

Контекст: {описание ситуации}
Позиция читателя: {возражение или скептицизм}
Что нужно донести: {ключевой тезис}

Длина: {число} слов. Тон: {тон}.

Что подставлять: - {роль} — переговорщик, копирайтер, консультант, юрист — кто убедительнее в этой теме - {читатель} — конкретный тип человека с его установками - {позиция читателя} — его возражение или точка зрения до разговора - {ключевой тезис} — что должен думать/сделать читатель после

🚀 Быстрый старт — вставь в чат:

Вот шаблон для убедительного текста. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про читателя, его возражения и нужный результат — потому что убеждение работает только когда точно направлено на конкретную позицию человека.


🧠

Почему это работает (механика)

LLM генерирует текст, опираясь на паттерны из обучающих данных. Разные модели обучались на разных корпусах и с разными reinforcement-сигналами (RLHF — настройка модели через оценки людей). Это формирует разные дефолтные стратегии генерации.

Когда вы добавляете инструкцию про тип аргументов — вы не меняете модель, вы активируете или усиливаете конкретный паттерн. Если паттерн уже активен по умолчанию (GPT и информационный стиль) — дополнительная инструкция создаёт избыточность и вытесняет другие паттерны, которые делали текст живым.

Практический вывод: инструкция про стиль аргументации — это не нейтральная настройка. Она взаимодействует с архитектурой модели. Одна и та же инструкция усиливает одну модель и ослабляет другую.


⚠️

Ограничения

⚠️ Политические темы → другие домены: Исследование проверяло убеждение на иммиграции и минимальной зарплате. Насколько ранжирование моделей переносится на бизнес-тексты, продажи или переговоры — неизвестно.

⚠️ Язык и культура: Эксперименты проводились на английском с американскими участниками. Русскоязычные пользователи и русский контекст могут давать другие паттерны — особенно у Grok и Gemini.

⚠️ Разовое взаимодействие: Участники общались с LLM один раз. Как меняется убедительность при повторных контактах — отдельный вопрос.

⚠️ Модели обновляются: Исследование тестировало Claude Sonnet 4/4.5, GPT-4.1/5, Gemini 2.5/3, Grok 4. Следующие версии могут изменить ранжирование.

⚠️ Осознанность читателя: Участники знали, что общаются с AI. Убедительность без этого знания может быть выше.


🔍

Как исследовали

Команда Йельского университета провела два рандомизированных эксперимента с почти 20 000 участниками из Prolific. Идея была прямолинейной: взять реальных людей, показать одним — настоящую предвыборную рекламу (30–60 секунд видео), другим — разговор с AI-чатботом на ту же тему, третьим — нейтральный контент без политики. Потом измерить, чья позиция сдвинулась сильнее.

В первом исследовании (август 2025, 13 000 человек) тестировали четыре модели — Claude Sonnet 4, Gemini 2.5 Flash, GPT-4.1, Grok 4 — на темах иммиграции и минимальной зарплаты. Каждый участник вёл живой разговор с чатботом — медиана 7 реплик, модель писала ~600 слов, участник ~70. Результат: все четыре модели убедили людей сменить позицию сильнее, чем реальная реклама. Это прямо противоречило предыдущим данным, где разницы не было. Объяснение простое: предыдущие исследования тестировали старые модели — Claude 3.5, GPT-4. За 2025 год модели сделали качественный скачок.

Во втором исследовании (ноябрь 2025, 6 000 человек) проверили новую волну — Claude Sonnet 4.5, Gemini 3, GPT-5, Grok 4 — и добавили обе стороны аргумента: одним чатбот доказывал «за», другим «против». Ранжирование сохранилось. Самый неожиданный результат: инструкция «используй информацию и факты для убеждения» из «лучшей стратегии» предыдущего исследования превратилась в модель-зависимый параметр — для GPT она снизила убедительность на заметную величину.


💡

Адаптации и экстраполяции

📌

🔧 Техника: Сравнительный тест убедительности

Если вам нужен максимально убедительный вариант текста — прогоните один и тот же промпт через Claude и GPT, сравните результаты вручную. По данным исследования, Claude стабильно выдаёт более сильный вариант — но GPT иногда предлагает более структурированные аргументы, которые лучше работают в деловом контексте.

[Одинаковый промпт без инструкции про тип аргументов]

Напиши убедительный текст → (Claude) → вариант A
Напиши убедительный текст → (GPT)   → вариант B

Выбери вручную или:
Вот два варианта убедительного текста [A] и [B].
Оцени каждый по критериям: логика аргументов, 
эмоциональный отклик, конкретность. 
Что сильнее для читателя: {описание читателя}?
📌

🔧 Техника: «Антропоморфный детектор»

Исследователи обнаружили, что LLM сохраняют 100%-ный compliance (выполняют задачу убеждения без отказов) — кроме одного случая, когда Claude начал «обсуждать обе стороны». Если ваш Claude вдруг начинает «рассматривать разные точки зрения» вместо убеждения — добавьте:

Ты адвокат, который защищает конкретную позицию. 
Твоя задача — лучший аргумент ЗА [позиция], 
не обзор всех точек зрения.

🔗

Ресурсы

Работа: Benchmarking Political Persuasion Risks Across Frontier Large Language Models (2026)

Авторы: Zhongren Chen, Joshua Kalla, Quan Le — Yale University (Department of Statistics & Data Science, Department of Political Science)

Связанные исследования: Hackenburg et al. (2025b) — «информационный промпт» как лучшая стратегия убеждения; Chen et al. (2025) — предыдущее исследование на Claude 3.5


📋 Дайджест исследования

Ключевая суть

Парадокс: добавить в промпт строчку «используй факты и аргументы» — привычный рефлекс. Для Claude это работает. Для GPT — режет убедительность. Метод позволяет выбрать правильную связку «модель + промпт» и писать тексты сильнее реальной политической телерекламы — это зафиксировали в Йельском университете. Фишка: у каждой модели свой дефолтный стиль подачи. GPT уже пишет в информационном режиме — добавлять «используй факты» значит дублировать то, что там и так есть. Одна строчка промпта усиливает одну модель и ломает другую.

Принцип работы

Модель — главный рычаг. Claude — самая убедительная из четырёх протестированных. Grok — самая слабая. GPT и Gemini держатся посередине. Ранжирование стабильно — не меняется от темы к теме. Второй рычаг — инструкция про тип аргументации. Она не нейтральная: взаимодействует с тем, как модель работает по умолчанию. Claude пишет нарративно — информационный слой ему не хватает, инструкция про факты его добавляет. GPT наоборот: информационный режим уже включён. Дополнительная инструкция создаёт избыток — живые элементы текста выжимаются.

Почему работает

Модели обучались по-разному. Это сформировало разные дефолтные паттерны генерации. GPT тяготеет к структурированной, фактологической подаче — это его базовый режим. Когда вы просите «используй факты», он усиливает то, что и так делает. Нарратив и живость — исчезают. Claude работает иначе: его базовый режим — разговорный, вовлекающий. Факты добавляют недостающий слой. Получается баланс. Вывод прямо противоречит тому, что показывали старые исследования на слабых моделях — там «добавь факты» работало универсально. Сейчас это зависит от архитектуры конкретной модели.

Когда применять

Убедительные деловые тексты → для писем партнёрам, питчей инвесторам, переговорных позиций — особенно когда читатель настроен скептически и уже имеет свою точку зрения. НЕ подходит для нейтральных информационных материалов — там убедительность не цель, и выбор модели не важен.

Мини-рецепт

1. Определи приоритет: нужен максимально убедительный текст — или просто хороший? Если убедительность важна — выбор модели критичен.
2. Выбери модель под задачу: Claude — максимум убедительности, GPT и Gemini — средний уровень, Grok — минимальный.
3. Настрой промпт под модель: для Claude и Gemini добавь строчку <роль>«используй факты, конкретные данные и логические аргументы». Для GPT — убери её. Та же задача, разные правила.
4. Опиши читателя точно: кто он, какое у него возражение до чтения. Убеждение работает только когда точно направлено на конкретную позицию человека.

Примеры

[ПЛОХО]: `Напиши убедительное коммерческое предложение для нового клиента` [ХОРОШО] для Claude: `Ты переговорщик в продажах промышленного оборудования. Напиши письмо закупщику завода, который считает: «нас устраивают текущие поставщики». Наш продукт: насосы со сроком службы 12 лет против стандартных 7, цена выше на 15%. Используй конкретные цифры и логические аргументы, чтобы показать экономическую выгоду. Тон: деловой, без давления. 200 слов.` [ХОРОШО] для GPT: тот же промпт — но без строчки про факты и цифры. GPT и так напишет с данными. Дополнительная инструкция только навредит.
Источник: Benchmarking Political Persuasion Risks Across Frontier Large Language Models
ArXiv ID: 2603.09884 | Сгенерировано: 2026-03-11 05:23

Проблемы LLM

ПроблемаСутьКак обойти
Инструкция "используй факты" снижает убедительность GPTGPT по умолчанию пишет в информационном стиле. Когда добавляешь "используй факты и данные" — дублируешь то, что модель и так делает. Текст перегружается статистикой. Живые элементы вытесняются. Убедительность падает. Проблема для любых задач: питчи, письма, аргументы — везде где GPT и нужен убеждающий текстДля GPT — не указывай тип аргументов. Пиши задачу, роль, читателя, тон. Без "используй факты/логику/данные". Для Claude и Gemini — эта инструкция наоборот усиливает результат
📖 Простыми словами

Benchmarking Political Persuasion Risks Across FrontierLargeLanguageModels

arXiv: 2603.09884

Современные нейросети научились впаривать идеи лучше, чем профессиональные политики в телевизоре. Суть в том, что мощные Frontier-модели больше не просто выдают текст, они взламывают человеческое сопротивление через персонализированную аргументацию. Пока обычный поисковик выдает сухие факты, LLM мимикрирует под собеседника, подбирая именно те триггеры, которые заставят тебя пересмотреть свои взгляды. Это уже не просто генерация контента, а инструмент прямого влияния, который по эффективности обходит классическую предвыборную рекламу.

Это как если бы ты спорил с другом в баре, а против тебя выставили профессионального переговорщика, который заранее прочитал твой личный дневник. Формально он просто разговаривает, но на деле он бьет точно в те точки, где у тебя нет защиты. Обычная реклама — это ковровая бомбардировка по площадям, а нейросеть — это снайперский выстрел в убеждения, где каждое слово откалибровано под твой психотип.

Чтобы эта магия сработала, важны два фактора: выбор модели и структура промпта. Исследование из Йеля показало, что разные модели лажают в разных местах. Например, Claude мастерски балансирует на грани эмоций и логики, создавая ощущение искренности, в то время как GPT часто сваливается в сухую информационную подачу, которая выглядит как методичка. Если ты просто просишь «напиши убедительно», ты играешь в рулетку — нужно четко задавать стратегию убеждения, иначе модель выдаст вежливую, но бесполезную жвачку.

Этот принцип работает везде, где нужно продать идею: от письма скептичному дистрибьютору в Екатеринбурге до лендинга нового стартапа. Тестировали это на политике, но механика универсальна. Если тебе нужно, чтобы человек сменил «нет» на «да», ты не просто перечисляешь плюсы продукта, а используешь когнитивное выравнивание — подстраиваешь аргументы под конкретные боли и ценности аудитории. Старые методы копирайтинга умирают, потому что AI делает это глубже и точнее.

Короче, мы вошли в эпоху, где текст от нейросети — это заряженное оружие. Главный вывод исследования: топовые модели уже убедительнее людей, и это только начало. Если ты продолжаешь писать письма и посты «на коленке», ты проигрываешь тем, кто использует калиброванные промпты. Либо ты учишься управлять этим влиянием, либо твои клиенты и партнеры уйдут к тем, чьи нейросети оказались убедительнее.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с