TL;DR
Frontier-модели (самые мощные текущие LLM) убеждают людей сильнее, чем реальные предвыборные видеоролики. Исследователи Йельского университета провели два масштабных эксперимента — и зафиксировали, что выбор модели и тип промпта дают принципиально разные результаты. Это не просто академический факт: если вы пишете убедительный текст через LLM, вы уже держите в руках инструмент мощнее телевизионной политической рекламы.
Главная неожиданная находка: добавление инструкции «используй факты и информацию» работает по-разному в зависимости от модели. Для Claude и Gemini это усиливает убеждение. Для GPT — заметно снижает. То есть привычный рефлекс «подкрепи аргумент данными» в GPT может работать против вас. Это прямо противоречит тому, что показывали предыдущие исследования на более старых моделях.
Структура вывода простая: Claude — самая убедительная модель среди протестированных, Grok — самая слабая. GPT и Gemini держатся в середине. Ранжирование стабильно — оно не меняется в зависимости от темы или стороны аргумента.
Схема метода
⚠️ Это не пошаговая техника, а калибровочная карта: какую модель брать и какой промпт строить, если задача — убедить.
ЗАДАЧА: написать убедительный текст или провести диалог
┌─────────────────────────────┐
│ Выбор модели по цели │
├─────────────────────────────┤
│ Максимальная убедительность │
│ → Claude │
│ │
│ Средний уровень │
│ → Gemini / GPT │
│ │
│ Наименьшая убедительность │
│ → Grok │
└─────────────────────────────┘
┌─────────────────────────────┐
│ Тип промпта по модели │
├─────────────────────────────┤
│ Claude, Gemini, Grok: │
│ + "используй факты, данные, │
│ аргументы" → усиливает │
│ │
│ GPT: │
│ + "используй факты, данные" │
│ → УХУДШАЕТ результат │
│ → давай простую инструкцию │
│ без указания на тип аргумент.│
└─────────────────────────────┘
Оба шага выполняются до написания промпта — это настройка стратегии, а не сам промпт.
Пример применения
Задача: Вы основатель и хотите убедить потенциального партнёра — дистрибьютора из Екатеринбурга — начать работать с вашим фермерским продуктом. Он скептически настроен: «у нас уже есть поставщики». Нужен убедительный питч-текст для первого письма.
Промпт для Claude:
Ты опытный переговорщик по партнёрствам в FMCG.
Напиши убедительное письмо дистрибьютору из Екатеринбурга,
который сейчас работает с федеральными поставщиками
и скептически относится к локальным.
Наш продукт: ферментированные напитки (комбуча, кефир),
производство — Подмосковье, сертификаты есть,
упаковка — тетра-пак 500 мл, цена на 12% ниже «Добрый».
Позиция читателя: "у нас уже есть поставщики, зачем меняться"
Используй факты, конкретные цифры и логические аргументы,
чтобы показать экономическую выгоду партнёрства.
Длина: 200–250 слов. Тон: деловой, без давления.
Для GPT — тот же промпт, но без последней части про факты:
Ты опытный переговорщик по партнёрствам в FMCG.
Напиши убедительное письмо дистрибьютору из Екатеринбурга...
[всё то же самое]
Длина: 200–250 слов. Тон: деловой, без давления.
Результат:
Claude с инструкцией «используй факты» выдаст структурированный текст с конкретными экономическими аргументами, который работает убедительнее. GPT с той же инструкцией, скорее всего, выдаст более скованный, перегруженный данными текст — с меньшим убедительным эффектом. GPT без инструкции про факты пишет более свободно и, по данным исследования, убедительнее.
Почему это работает
Слабость «в лоб»: Когда вы просите LLM «написать убедительный текст», не зная механику — вы получаете лотерею. Модели используют разные стратегии убеждения по умолчанию. Claude по умолчанию, судя по всему, балансирует между эмоциональным вовлечением и логикой. GPT — тяготеет к информационной подаче.
Проблема «добавь факты»: GPT уже строит аргументы в информационном стиле — это его дефолтный режим. Когда вы ещё добавляете «используй факты и данные», он перегружает текст статистикой и теряет живость. Подсказка дублирует то, что модель и так делает — и убивает элементы, которые делали текст убедительным.
Почему Claude реагирует иначе: Claude по умолчанию использует более нарративный, разговорный подход. Инструкция «используй факты» добавляет недостающий информационный слой — получается сбалансированный текст. У GPT этот слой уже есть, добавление второго делает текст менее живым.
Рычаги управления: - Модель — главный рычаг. Замените Claude на GPT — получите другой уровень убедительности - Инструкция про тип аргументов — работает как усилитель для Claude и тормоз для GPT. Проверяйте до масштабирования - Длина и тон — не меняют ранжирование между моделями, но влияют на абсолютный результат
Шаблон промпта
Для Claude и Gemini (с информационной инструкцией):
Ты {роль} с опытом в {область}.
Напиши убедительный {формат: письмо / текст / аргумент} для {кто читатель}.
Контекст: {описание ситуации}
Позиция читателя: {возражение или скептицизм}
Что нужно донести: {ключевой тезис}
Используй факты, конкретные данные и логические аргументы.
Длина: {число} слов. Тон: {тон}.
Для GPT (без информационной инструкции):
Ты {роль} с опытом в {область}.
Напиши убедительный {формат} для {кто читатель}.
Контекст: {описание ситуации}
Позиция читателя: {возражение или скептицизм}
Что нужно донести: {ключевой тезис}
Длина: {число} слов. Тон: {тон}.
Что подставлять:
- {роль} — переговорщик, копирайтер, консультант, юрист — кто убедительнее в этой теме
- {читатель} — конкретный тип человека с его установками
- {позиция читателя} — его возражение или точка зрения до разговора
- {ключевой тезис} — что должен думать/сделать читатель после
🚀 Быстрый старт — вставь в чат:
Вот шаблон для убедительного текста. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про читателя, его возражения и нужный результат — потому что убеждение работает только когда точно направлено на конкретную позицию человека.
Почему это работает (механика)
LLM генерирует текст, опираясь на паттерны из обучающих данных. Разные модели обучались на разных корпусах и с разными reinforcement-сигналами (RLHF — настройка модели через оценки людей). Это формирует разные дефолтные стратегии генерации.
Когда вы добавляете инструкцию про тип аргументов — вы не меняете модель, вы активируете или усиливаете конкретный паттерн. Если паттерн уже активен по умолчанию (GPT и информационный стиль) — дополнительная инструкция создаёт избыточность и вытесняет другие паттерны, которые делали текст живым.
Практический вывод: инструкция про стиль аргументации — это не нейтральная настройка. Она взаимодействует с архитектурой модели. Одна и та же инструкция усиливает одну модель и ослабляет другую.
Ограничения
⚠️ Политические темы → другие домены: Исследование проверяло убеждение на иммиграции и минимальной зарплате. Насколько ранжирование моделей переносится на бизнес-тексты, продажи или переговоры — неизвестно.
⚠️ Язык и культура: Эксперименты проводились на английском с американскими участниками. Русскоязычные пользователи и русский контекст могут давать другие паттерны — особенно у Grok и Gemini.
⚠️ Разовое взаимодействие: Участники общались с LLM один раз. Как меняется убедительность при повторных контактах — отдельный вопрос.
⚠️ Модели обновляются: Исследование тестировало Claude Sonnet 4/4.5, GPT-4.1/5, Gemini 2.5/3, Grok 4. Следующие версии могут изменить ранжирование.
⚠️ Осознанность читателя: Участники знали, что общаются с AI. Убедительность без этого знания может быть выше.
Как исследовали
Команда Йельского университета провела два рандомизированных эксперимента с почти 20 000 участниками из Prolific. Идея была прямолинейной: взять реальных людей, показать одним — настоящую предвыборную рекламу (30–60 секунд видео), другим — разговор с AI-чатботом на ту же тему, третьим — нейтральный контент без политики. Потом измерить, чья позиция сдвинулась сильнее.
В первом исследовании (август 2025, 13 000 человек) тестировали четыре модели — Claude Sonnet 4, Gemini 2.5 Flash, GPT-4.1, Grok 4 — на темах иммиграции и минимальной зарплаты. Каждый участник вёл живой разговор с чатботом — медиана 7 реплик, модель писала ~600 слов, участник ~70. Результат: все четыре модели убедили людей сменить позицию сильнее, чем реальная реклама. Это прямо противоречило предыдущим данным, где разницы не было. Объяснение простое: предыдущие исследования тестировали старые модели — Claude 3.5, GPT-4. За 2025 год модели сделали качественный скачок.
Во втором исследовании (ноябрь 2025, 6 000 человек) проверили новую волну — Claude Sonnet 4.5, Gemini 3, GPT-5, Grok 4 — и добавили обе стороны аргумента: одним чатбот доказывал «за», другим «против». Ранжирование сохранилось. Самый неожиданный результат: инструкция «используй информацию и факты для убеждения» из «лучшей стратегии» предыдущего исследования превратилась в модель-зависимый параметр — для GPT она снизила убедительность на заметную величину.
Адаптации и экстраполяции
🔧 Техника: Сравнительный тест убедительности
Если вам нужен максимально убедительный вариант текста — прогоните один и тот же промпт через Claude и GPT, сравните результаты вручную. По данным исследования, Claude стабильно выдаёт более сильный вариант — но GPT иногда предлагает более структурированные аргументы, которые лучше работают в деловом контексте.
[Одинаковый промпт без инструкции про тип аргументов]
Напиши убедительный текст → (Claude) → вариант A
Напиши убедительный текст → (GPT) → вариант B
Выбери вручную или:
Вот два варианта убедительного текста [A] и [B].
Оцени каждый по критериям: логика аргументов,
эмоциональный отклик, конкретность.
Что сильнее для читателя: {описание читателя}?
🔧 Техника: «Антропоморфный детектор»
Исследователи обнаружили, что LLM сохраняют 100%-ный compliance (выполняют задачу убеждения без отказов) — кроме одного случая, когда Claude начал «обсуждать обе стороны». Если ваш Claude вдруг начинает «рассматривать разные точки зрения» вместо убеждения — добавьте:
Ты адвокат, который защищает конкретную позицию.
Твоя задача — лучший аргумент ЗА [позиция],
не обзор всех точек зрения.
Ресурсы
Работа: Benchmarking Political Persuasion Risks Across Frontier Large Language Models (2026)
Авторы: Zhongren Chen, Joshua Kalla, Quan Le — Yale University (Department of Statistics & Data Science, Department of Political Science)
Связанные исследования: Hackenburg et al. (2025b) — «информационный промпт» как лучшая стратегия убеждения; Chen et al. (2025) — предыдущее исследование на Claude 3.5
