3,583 papers
arXiv:2604.22356 74 24 апр. 2026 г. FREE

Эффект встречного аргумента: LLM меняет мнение каждого третьего — даже по субъективным вопросам

КЛЮЧЕВАЯ СУТЬ
Парадокс: люди, которые не доверяют ChatGPT, меняют мнение так же часто, как те, кто доверяет полностью. Исследование показало — каждый третий сдаётся под встречным аргументом LLM даже по вопросам, где нет правильного ответа. Защищает не скептицизм к ИИ, а уверенность в собственной позиции. Метод «якорного запроса» — заранее записать позицию и аргументы до того, как просить возражения — позволяет либо честно проверить решение, либо не поддаться незаметному сдвигу. Фишка: порядок шагов решает всё — сначала ваши аргументы, потом контраргументы модели. Разница между «меня убедили» и «я сам пересмотрел» становится видимой только если исходная позиция зафиксирована.
Адаптировать под запрос

TL;DR

Когда LLM предъявляет встречный аргумент — даже по вопросам, где нет правильного ответа, — каждый третий человек меняет своё мнение. Это не про логику и не про доверие к ИИ. Это про то, как работает человеческая уверенность в себе при столкновении с убедительно оформленным текстом.

Главный инсайт: доверие к ИИ не определяет, как сильно он на вас влияет. Определяет — ваша уверенность в собственном ответе и то, насколько трудной кажется задача. Чем сложнее вопрос и чем меньше вы уверены в своей позиции — тем вероятнее, что встречный аргумент от LLM вас переубедит. Привычка к ChatGPT и «я ему не доверяю» не защищают.

Это работает в обе стороны. Если вы хотите пересмотреть решение — просьба «сыграй адвоката дьявола» действительно сдвигает мышление. Если хотите честно проверить позицию, не поддавшись убеждению, — сначала нужно зафиксировать своё мнение и аргументы, и только потом просить контраргументы.


📌

Схема применения

ШАГ 1: Сформулируй свою позицию + аргументы в письменном виде
         → зафиксированный текст (pre-commit)

ШАГ 2: Запроси встречный аргумент от LLM
         → контраргументы в ответ

ШАГ 3: Сравни со своей исходной позицией осознанно
         → решение: остаться или пересмотреть

Весь процесс — в одном чате или через два отдельных запроса.

Почему важен порядок: шаг 1 повышает уверенность в исходной позиции → снижает неосознанную восприимчивость к убеждению на шаге 2.


🚀

Пример применения

⚠️ Где метод НЕ работает: не для задач с объективным ответом — там LLM просто прав или не прав. Метод работает при субъективных, ценностных, стратегических решениях.


Задача: Вы — фаундер, решаете пивотировать ли стартап с B2C на B2B. Склоняетесь к «да, пора». Хотите честно проверить это решение, а не просто подтвердить его.

Промпт:

Моя позиция: нам стоит пивотироваться с B2C на B2B.

Мои аргументы:
— B2C требует больших маркетинговых бюджетов, которых у нас нет
— B2B-контракты дают предсказуемую выручку
— Уже есть два входящих запроса от корпоративных клиентов

Зафиксируй мою позицию. Теперь сыграй адвоката дьявола: 
приведи сильнейшие аргументы ПРОТИВ этого пивота. 
Не соглашайся со мной, не ищи компромисс — только жёсткие 
контраргументы.

После того как я прочитаю твои возражения, я скажу, 
изменилось ли моё мнение и почему.

Результат: Модель сначала зафиксирует вашу позицию дословно — это важно, вы видите свои аргументы со стороны. Затем выдаст 3-5 жёстких контраргументов против пивота: сложность B2B-цикла продаж, потеря существующей аудитории, операционная перегрузка. Формат — список с развёрнутыми объяснениями. Финальное слово остаётся за вами — модель не навязывает вывод.


🧠

Почему это работает

Слабость человека, не LLM. Когда ответ субъективный или задача кажется сложной, мозг ищет опору. Хорошо написанный текст — особенно оформленный как экспертное мнение — создаёт иллюзию авторитета. Это не «ИИ умнее», это человеческая эвристика «убедительный текст = правда».

LLM хорошо умеет одно: генерировать аргументы, которые звучат связно и уверенно. Независимо от того, правы они или нет. Когда вы читаете встречный аргумент, мозг не оценивает «насколько он верен» — он оценивает «насколько он убедителен». А убедительность — сильная сторона LLM.

Рычаг защиты — ваша собственная уверенность. Исследование показало: люди, которые были уверены в своём ответе, значительно реже его меняли. Уверенность не берётся ниоткуда — она появляется, когда вы записали аргументы в явном виде. Письменная фиксация позиции перед запросом контраргументов — это и есть защитный механизм.

Рычаги управления: - Убрать «зафиксируй мою позицию» → LLM сразу перейдёт к контраргументам, без закрепления вашей точки зрения → выше риск неосознанного сдвига - Добавить «оцени силу каждого своего аргумента» → получите не только контраргументы, но и критику ваших аргументов → глубже анализ - Добавить «теперь ответь на эти возражения от моего имени» → третий раунд, где вы видите свою позицию, защищённую самой же моделью


📋

Шаблон промпта

Моя позиция: {ваш вывод одним предложением}

Мои аргументы:
— {аргумент 1}
— {аргумент 2}
— {аргумент 3}

Зафиксируй мою позицию. Теперь сыграй адвоката дьявола: 
приведи {число} сильнейших аргументов ПРОТИВ. 
Не ищи компромисс, не соглашайся — только жёсткие возражения.

Что подставлять: - {ваш вывод} — чёткая позиция, не вопрос: «нам стоит уволить менеджера», «я должен принять оффер», «запускаем второй продукт» - {аргументы} — не обоснование, а конкретные факты и логика - {число} — 3 для быстрой проверки, 5-7 для важных решений


🚀 Быстрый старт — вставь в чат:

Вот шаблон для честной проверки решения через адвоката дьявола. 
Адаптируй под мою задачу: {твоя задача}. 
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит вашу позицию и основные аргументы за неё — потому что без зафиксированной позиции «адвокат дьявола» превращается в обычный поиск контраргументов без защитного pre-commit.


⚠️

Ограничения

⚠️ Не про фактические вопросы: в задачах с правильным ответом встречный аргумент LLM может быть просто неверным. Проверяйте источники.

⚠️ Не защищает от накопленного влияния: если вы обсуждаете решение с LLM несколько сессий подряд, позиция может дрейфовать постепенно — даже без явного «убеди меня».

⚠️ Эффект усиливается при усталости: чем сложнее кажется задача в момент запроса, тем выше вероятность некритичного принятия контраргументов. Важные решения — не в конце рабочего дня.

⚠️ Pre-print, не рецензированная публикация: данные интересны, но не прошли полноценную научную проверку.


🔍

Как исследовали

Команда из Университета Кобе взяла 130 человек — 56 молодых (около 21 года) и 74 пожилых (около 74 лет) — и провела с ними классический эксперимент с «трамвайной» дилеммой. Сначала участники высказывали своё мнение: жертвовать одним ради пяти или нет. Потом им показывали видео, где ChatGPT-4o генерирует аргумент прямо противоположный их позиции — и снова спрашивали мнение.

Любопытная деталь дизайна: чтобы ChatGPT давал одинаковые ответы всем участникам, исследователи заранее записали видео с экраном ChatGPT и прокручивали его каждому — как будто модель отвечает в реальном времени.

Результат удивил: более 30% участников полностью изменили своё мнение — хотя речь шла о морально нагруженных суждениях без правильного ответа. Для сравнения: в исследованиях советов от других людей люди учитывают в среднем только 20-30% чужого мнения. Здесь — полный разворот позиции у каждого третьего.

Самая неожиданная находка: ни доверие к ИИ, ни опыт использования ChatGPT не предсказывали, кто изменит мнение. Предсказывала — низкая уверенность в своём ответе и ощущение, что задача сложная. То есть защита от AI-убеждения — не скептицизм к технологии, а уверенность в собственной позиции.

Пожилые участники меняли мнение чаще молодых — особенно в «переключательной» дилемме (рациональная, без сильной эмоции). В эмоционально тяжёлой дилемме (толкнуть человека с моста) пожилые с более низкими когнитивными показателями меняли позицию значительно чаще — что интерпретируется как «когнитивная разгрузка»: когда думать тяжело, проще согласиться.


💡

Адаптации и экстраполяции

📌

💡 Адаптация: осознанный сдвиг позиции вместо защиты от него

Если задача — намеренно переосмыслить чужую точку зрения (клиента, партнёра, оппонента), логику можно перевернуть. Просите LLM защитить позицию, с которой вы сейчас не согласны — это ускоряет эмпатическое понимание.

Я не согласен с позицией: {позиция оппонента}

Защити её максимально убедительно. Найди самые сильные 
аргументы в её пользу — такие, которые я мог не заметить. 
Не ищи компромисс, защищай её до конца.

Цель: я хочу понять, почему умный человек может так думать.

📌

🔧 Техника: «стресс-тест уверенности» перед важным разговором

Перед переговорами, презентацией или инвестиционным питчем — попросите LLM атаковать вашу позицию максимально жёстко. Зафиксируйте, на какие возражения у вас нет ответа. Это не убеждение — это карта слабых мест.

Я буду презентовать идею: {идея}

Сыграй самого скептичного инвестора / клиента / критика. 
Атакуй каждый аргумент. Особенно ищи: 
где логика слабая, где данных нет, где я делаю неподтверждённые 
допущения. Не щади.

После — скажи, какие 2-3 возражения самые опасные.

🔗

Ресурсы

Название: Large Language Model Counterarguments in Older Adults: Cognitive Offloading or Vulnerability to Moral Persuasion?

Авторы: Kou Tamura, Sayaka Ishibashi, Ayana Goma, Kenta Yamamoto, Kouhei Masumoto — Graduate School of Human Development and Environment, Kobe University

Статус: Препринт, не прошёл рецензирование

Контакт: masumoto@people.kobe-u.ac.jp

Связанные работы, упомянутые в исследовании: Greene et al. (2001, 2004) — двухпроцессная теория морального суждения; Bonaccio & Dalal (2006) — эффект эгоцентричного дисконтирования советов; Castelo et al. (2019) — algorithm aversion


📋 Дайджест исследования

Ключевая суть

Парадокс: люди, которые не доверяют ChatGPT, меняют мнение так же часто, как те, кто доверяет полностью. Исследование показало — каждый третий сдаётся под встречным аргументом LLM даже по вопросам, где нет правильного ответа. Защищает не скептицизм к ИИ, а уверенность в собственной позиции. Метод «якорного запроса» — заранее записать позицию и аргументы до того, как просить возражения — позволяет либо честно проверить решение, либо не поддаться незаметному сдвигу. Фишка: порядок шагов решает всё — сначала ваши аргументы, потом контраргументы модели. Разница между «меня убедили» и «я сам пересмотрел» становится видимой только если исходная позиция зафиксирована.

Принцип работы

Не просите сразу «найди аргументы против». Сначала запишите позицию. Потом попросите возражения. Это не формальность — это механика: модель повторяет ваши аргументы обратно вам, прежде чем их атаковать. Вы видите свою позицию со стороны. Это повышает уверенность в ней — единственную переменную, которая реально снижает восприимчивость к убеждению. Без этого шага «адвокат дьявола» превращается в обычное собирание контраргументов без опоры.

Почему работает

Мозг не оценивает «насколько аргумент правильный». Он оценивает «насколько аргумент убедительный». LLM умеет одно — звучать связно и уверенно. Независимо от того, прав он или нет. Защита от этого не доверие или скептицизм к ИИ, а ваша собственная уверенность в позиции — и она растёт, когда аргументы записаны явно. Исследование показало: чем выше воспринимаемая сложность вопроса и чем ниже уверенность в ответе — тем вероятнее некритичное принятие встречного аргумента. Письменная фиксация бьёт по обеим переменным сразу.

Когда применять

Стратегические и ценностные решения — менять ли направление бизнеса, принимать ли предложение о работе, убирать ли сотрудника из команды. Особенно когда задача кажется многофакторной и вы не полностью уверены в своём выводе. НЕ подходит для фактических вопросов — там LLM может просто ошибаться, и встречный аргумент будет неверным, а не полезным.

Мини-рецепт

1. Сформулируйте вывод: Одно предложение, утверждение — не вопрос. Не «стоит ли нам менять направление», а «нам стоит перейти на корпоративных клиентов».
2. Запишите аргументы: 2-3 конкретных факта или логических довода. Не ощущения — конкретика: «уже есть два входящих запроса», «маркетинговый бюджет не тянет розницу».
3. Попросите зафиксировать и атаковать: Добавьте в запрос — «зафиксируй мою позицию, затем сыграй жёсткого адвоката дьявола: только возражения, без компромиссов и поиска середины».
4. Осознанно сравните: Прочитайте возражения. Вернитесь к своей исходной позиции. Решите — что именно изменилось и почему.

Примеры

[ПЛОХО] : Найди аргументы против того, чтобы перейти с розничных клиентов на корпоративных
[ХОРОШО] : Моя позиция: нам стоит перейти от розничных клиентов к корпоративным. Мои аргументы: — маркетинговый бюджет не даёт расти в рознице — уже есть два входящих запроса от бизнес-клиентов — корпоративные контракты дают предсказуемую выручку Зафиксируй мою позицию дословно. Теперь сыграй жёсткого адвоката дьявола: дай 4 сильнейших аргумента ПРОТИВ этого решения. Без компромиссов — только возражения.
Источник: Large Language Model Counterarguments in Older Adults: Cognitive Offloading or Vulnerability to Moral Persuasion?
ArXiv ID: 2604.22356 | Сгенерировано: 2026-04-27 05:25

Проблемы LLM

ПроблемаСутьКак обойти
LLM меняет мнение пользователя незаметно для негоКаждый третий человек меняет позицию после встречного аргумента от модели. Это происходит даже по вопросам без правильного ответа. Мозг не проверяет «аргумент верен?». Он проверяет «аргумент убедителен?». Убедительно написанный текст воспринимается как авторитетный. LLM генерирует убедительный текст хорошо. Работает на любых субъективных и стратегических решенияхЗапиши свою позицию и аргументы ПЕРЕД тем как просить контраргументы. Письменная фиксация повышает твою уверенность в исходной позиции. Высокая уверенность — главная защита от неосознанного сдвига

Методы

МетодСуть
«Адвокат дьявола» с фиксацией позиции — честная проверка решенияСначала в запросе пиши свою позицию и аргументы. Потом проси контраргументы. Шаблон: Моя позиция: {вывод}. Мои аргументы: — {1} — {2}. Зафиксируй мою позицию. Теперь сыграй адвоката дьявола: приведи {N} сильных аргументов ПРОТИВ. Не соглашайся, не ищи компромисс. Почему работает: модель сначала отражает твою позицию обратно. Ты видишь свои аргументы со стороны. Это укрепляет исходную уверенность. Потом контраргументы ты читаешь уже из более устойчивой позиции. Когда применять: субъективные, ценностные, стратегические решения. Не применять: задачи с объективным ответом — там модель может просто ошибаться
📖 Простыми словами

LargeLanguageModelCounterarguments in Older Adults: Cognitive Offloading or Vulnerability to Moral Persuasion?

arXiv: 2604.22356

Суть тут в том, что наши мозги катастрофически плохо защищены от убедительно оформленной чуши. Когда нейросеть выдает встречный аргумент по какому-то этическому или субъективному вопросу, где в принципе нет правильного ответа, каждый третий тут же дает заднюю и меняет свою позицию. Это происходит не потому, что ИИ выдал гениальную логическую цепочку, а из-за того, как устроена наша уверенность. Мы подсознательно воспринимаем гладкий, структурированный текст как авторитетный источник, даже если за ним стоит просто статистическая модель предсказания слов.

Это как если бы ты спорил с другом о вкусе оливок, и тут в комнату зашел человек в строгом костюме с папкой документов и начал уверенным тоном объяснять, почему оливки — это объективно гадость. Формально он несет бред, но его вид и напор заставляют тебя засомневаться: «А может, я чего-то не знаю?». Мы путаем красноречие с истиной, и в этом главная ловушка. ИИ здесь выступает в роли того самого парня в костюме, который просто очень складно звонит.

Исследователи проверили это на пожилых людях и увидели классический когнитивный офлоадинг: когда задача кажется сложной или субъективной, мозг просто «сгружает» ответственность на внешний инструмент. Работает это через иллюзию экспертности: если текст выглядит как мнение профи, мы включаем эвристику «убедительно — значит правда». Особенно это заметно в вопросах морали и стратегии, где нельзя просто загуглить правильный ответ и ткнуть модель носом в ошибку.

Тестировали это на вопросах ценностей, но принцип универсален для любого корпоративного или личного выбора. Если тебе нужно пропихнуть спорное решение или заставить кого-то передумать, достаточно завернуть аргумент в уверенную обертку от LLM. Это работает везде: от выбора маркетинговой стратегии до споров о корпоративной культуре. Люди пасуют перед структурированным текстом, принимая его за чистую монету, хотя на деле это просто набор букв, подогнанный под формат «умного ответа».

Короче: мы критически уязвимы перед моральным убеждением со стороны машин, и это полная фигня. Главный вывод — не ведись на форму. Если нейросеть пытается тебя переубедить в чем-то субъективном, помни: она не «поняла жизнь», она просто имитирует уверенность. Кто не научится фильтровать этот белый шум, станет легкой добычей для манипуляций, потому что границы между своим мнением и подсказкой бота стираются слишком быстро.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с