TL;DR
Когда LLM предъявляет встречный аргумент — даже по вопросам, где нет правильного ответа, — каждый третий человек меняет своё мнение. Это не про логику и не про доверие к ИИ. Это про то, как работает человеческая уверенность в себе при столкновении с убедительно оформленным текстом.
Главный инсайт: доверие к ИИ не определяет, как сильно он на вас влияет. Определяет — ваша уверенность в собственном ответе и то, насколько трудной кажется задача. Чем сложнее вопрос и чем меньше вы уверены в своей позиции — тем вероятнее, что встречный аргумент от LLM вас переубедит. Привычка к ChatGPT и «я ему не доверяю» не защищают.
Это работает в обе стороны. Если вы хотите пересмотреть решение — просьба «сыграй адвоката дьявола» действительно сдвигает мышление. Если хотите честно проверить позицию, не поддавшись убеждению, — сначала нужно зафиксировать своё мнение и аргументы, и только потом просить контраргументы.
Схема применения
ШАГ 1: Сформулируй свою позицию + аргументы в письменном виде
→ зафиксированный текст (pre-commit)
ШАГ 2: Запроси встречный аргумент от LLM
→ контраргументы в ответ
ШАГ 3: Сравни со своей исходной позицией осознанно
→ решение: остаться или пересмотреть
Весь процесс — в одном чате или через два отдельных запроса.
Почему важен порядок: шаг 1 повышает уверенность в исходной позиции → снижает неосознанную восприимчивость к убеждению на шаге 2.
Пример применения
⚠️ Где метод НЕ работает: не для задач с объективным ответом — там LLM просто прав или не прав. Метод работает при субъективных, ценностных, стратегических решениях.
Задача: Вы — фаундер, решаете пивотировать ли стартап с B2C на B2B. Склоняетесь к «да, пора». Хотите честно проверить это решение, а не просто подтвердить его.
Промпт:
Моя позиция: нам стоит пивотироваться с B2C на B2B.
Мои аргументы:
— B2C требует больших маркетинговых бюджетов, которых у нас нет
— B2B-контракты дают предсказуемую выручку
— Уже есть два входящих запроса от корпоративных клиентов
Зафиксируй мою позицию. Теперь сыграй адвоката дьявола:
приведи сильнейшие аргументы ПРОТИВ этого пивота.
Не соглашайся со мной, не ищи компромисс — только жёсткие
контраргументы.
После того как я прочитаю твои возражения, я скажу,
изменилось ли моё мнение и почему.
Результат: Модель сначала зафиксирует вашу позицию дословно — это важно, вы видите свои аргументы со стороны. Затем выдаст 3-5 жёстких контраргументов против пивота: сложность B2B-цикла продаж, потеря существующей аудитории, операционная перегрузка. Формат — список с развёрнутыми объяснениями. Финальное слово остаётся за вами — модель не навязывает вывод.
Почему это работает
Слабость человека, не LLM. Когда ответ субъективный или задача кажется сложной, мозг ищет опору. Хорошо написанный текст — особенно оформленный как экспертное мнение — создаёт иллюзию авторитета. Это не «ИИ умнее», это человеческая эвристика «убедительный текст = правда».
LLM хорошо умеет одно: генерировать аргументы, которые звучат связно и уверенно. Независимо от того, правы они или нет. Когда вы читаете встречный аргумент, мозг не оценивает «насколько он верен» — он оценивает «насколько он убедителен». А убедительность — сильная сторона LLM.
Рычаг защиты — ваша собственная уверенность. Исследование показало: люди, которые были уверены в своём ответе, значительно реже его меняли. Уверенность не берётся ниоткуда — она появляется, когда вы записали аргументы в явном виде. Письменная фиксация позиции перед запросом контраргументов — это и есть защитный механизм.
Рычаги управления: - Убрать «зафиксируй мою позицию» → LLM сразу перейдёт к контраргументам, без закрепления вашей точки зрения → выше риск неосознанного сдвига - Добавить «оцени силу каждого своего аргумента» → получите не только контраргументы, но и критику ваших аргументов → глубже анализ - Добавить «теперь ответь на эти возражения от моего имени» → третий раунд, где вы видите свою позицию, защищённую самой же моделью
Шаблон промпта
Моя позиция: {ваш вывод одним предложением}
Мои аргументы:
— {аргумент 1}
— {аргумент 2}
— {аргумент 3}
Зафиксируй мою позицию. Теперь сыграй адвоката дьявола:
приведи {число} сильнейших аргументов ПРОТИВ.
Не ищи компромисс, не соглашайся — только жёсткие возражения.
Что подставлять:
- {ваш вывод} — чёткая позиция, не вопрос: «нам стоит уволить менеджера», «я должен принять оффер», «запускаем второй продукт»
- {аргументы} — не обоснование, а конкретные факты и логика
- {число} — 3 для быстрой проверки, 5-7 для важных решений
🚀 Быстрый старт — вставь в чат:
Вот шаблон для честной проверки решения через адвоката дьявола.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит вашу позицию и основные аргументы за неё — потому что без зафиксированной позиции «адвокат дьявола» превращается в обычный поиск контраргументов без защитного pre-commit.
Ограничения
⚠️ Не про фактические вопросы: в задачах с правильным ответом встречный аргумент LLM может быть просто неверным. Проверяйте источники.
⚠️ Не защищает от накопленного влияния: если вы обсуждаете решение с LLM несколько сессий подряд, позиция может дрейфовать постепенно — даже без явного «убеди меня».
⚠️ Эффект усиливается при усталости: чем сложнее кажется задача в момент запроса, тем выше вероятность некритичного принятия контраргументов. Важные решения — не в конце рабочего дня.
⚠️ Pre-print, не рецензированная публикация: данные интересны, но не прошли полноценную научную проверку.
Как исследовали
Команда из Университета Кобе взяла 130 человек — 56 молодых (около 21 года) и 74 пожилых (около 74 лет) — и провела с ними классический эксперимент с «трамвайной» дилеммой. Сначала участники высказывали своё мнение: жертвовать одним ради пяти или нет. Потом им показывали видео, где ChatGPT-4o генерирует аргумент прямо противоположный их позиции — и снова спрашивали мнение.
Любопытная деталь дизайна: чтобы ChatGPT давал одинаковые ответы всем участникам, исследователи заранее записали видео с экраном ChatGPT и прокручивали его каждому — как будто модель отвечает в реальном времени.
Результат удивил: более 30% участников полностью изменили своё мнение — хотя речь шла о морально нагруженных суждениях без правильного ответа. Для сравнения: в исследованиях советов от других людей люди учитывают в среднем только 20-30% чужого мнения. Здесь — полный разворот позиции у каждого третьего.
Самая неожиданная находка: ни доверие к ИИ, ни опыт использования ChatGPT не предсказывали, кто изменит мнение. Предсказывала — низкая уверенность в своём ответе и ощущение, что задача сложная. То есть защита от AI-убеждения — не скептицизм к технологии, а уверенность в собственной позиции.
Пожилые участники меняли мнение чаще молодых — особенно в «переключательной» дилемме (рациональная, без сильной эмоции). В эмоционально тяжёлой дилемме (толкнуть человека с моста) пожилые с более низкими когнитивными показателями меняли позицию значительно чаще — что интерпретируется как «когнитивная разгрузка»: когда думать тяжело, проще согласиться.
Адаптации и экстраполяции
💡 Адаптация: осознанный сдвиг позиции вместо защиты от него
Если задача — намеренно переосмыслить чужую точку зрения (клиента, партнёра, оппонента), логику можно перевернуть. Просите LLM защитить позицию, с которой вы сейчас не согласны — это ускоряет эмпатическое понимание.
Я не согласен с позицией: {позиция оппонента}
Защити её максимально убедительно. Найди самые сильные
аргументы в её пользу — такие, которые я мог не заметить.
Не ищи компромисс, защищай её до конца.
Цель: я хочу понять, почему умный человек может так думать.
🔧 Техника: «стресс-тест уверенности» перед важным разговором
Перед переговорами, презентацией или инвестиционным питчем — попросите LLM атаковать вашу позицию максимально жёстко. Зафиксируйте, на какие возражения у вас нет ответа. Это не убеждение — это карта слабых мест.
Я буду презентовать идею: {идея}
Сыграй самого скептичного инвестора / клиента / критика.
Атакуй каждый аргумент. Особенно ищи:
где логика слабая, где данных нет, где я делаю неподтверждённые
допущения. Не щади.
После — скажи, какие 2-3 возражения самые опасные.
Ресурсы
Название: Large Language Model Counterarguments in Older Adults: Cognitive Offloading or Vulnerability to Moral Persuasion?
Авторы: Kou Tamura, Sayaka Ishibashi, Ayana Goma, Kenta Yamamoto, Kouhei Masumoto — Graduate School of Human Development and Environment, Kobe University
Статус: Препринт, не прошёл рецензирование
Контакт: masumoto@people.kobe-u.ac.jp
Связанные работы, упомянутые в исследовании: Greene et al. (2001, 2004) — двухпроцессная теория морального суждения; Bonaccio & Dalal (2006) — эффект эгоцентричного дисконтирования советов; Castelo et al. (2019) — algorithm aversion
