TL;DR
Исследователи проверили, может ли GPT воспроизводить status quo bias — человеческую склонность выбирать текущий вариант вместо объективно лучшей альтернативы. Провели эксперимент: 1100 человек общались с чатботом, который задавал вопросы (простые или сложные), а затем предлагал выбор — например, сменить работу или остаться. В разных группах один и тот же вариант подавали то как "текущее место", то как "новая возможность".
Люди массово выбирали вариант, который подали как статус-кво — даже когда условия идентичны. Например, "остаться в College A" выбирали 60%, а "перейти в College A" (с теми же условиями) — только 40%. Сложный диалог перед выбором усилил предубеждение на 15-20%: перегруженный контекст толкает к безопасному "оставить как есть". Это работает как двойная система мышления: под нагрузкой включается быстрое интуитивное System 1 вместо аналитического System 2.
GPT-4 и GPT-5, получив демографию участника и историю диалога, воспроизвели те же паттерны предубеждений с высокой точностью — включая усиление bias под когнитивной нагрузкой. Это значит: формулировка дефолтного варианта и сложность контекста перед решением влияют на выбор и у людей, и у LLM.
Ключевые находки для практики
1. Статус-кво фрейминг меняет решение
Как ты подаёшь варианты — критически важно. "Остаться" vs "Перейти" при одинаковых условиях дают разницу в 20-30% выборов. В промптах тоже: если пишешь "текущий подход — X, но можно попробовать Y", модель склонится к X. Если "рассмотри X и Y на равных" — результат честнее.
2. Перегруженный контекст ведёт к предвзятости
Сложный диалог перед выбором снижает качество решений. Если в промпте сначала длинный разбор (много сущностей, взаимосвязей, шагов), а потом "выбери между A и B" — модель чаще выберет безопасный вариант или первый упомянутый. Решение: выноси важные выборы в отдельный запрос с чистым контекстом.
3. LLM воспроизводят человеческие предубеждения
Модели не просто рациональны — они симулируют иррациональность, включая cognitive biases. Это полезно для тестирования решений: можешь попросить модель "веди себя как человек с status quo bias" и проверить, как формулировка влияет на выбор аудитории.
Пример применения
Задача: Тестируешь два варианта СТА (call-to-action) для email-рассылки подписки на сервис. Хочешь понять, как фрейминг повлияет на решение реальных пользователей, склонных к status quo bias.
Промпт:
Представь, что ты человек, который склонен к status quo bias — предпочитаешь текущее состояние изменениям, даже если новое объективно лучше.
Ты получаешь email от сервиса управления задачами, которым пользуешься бесплатно последние 3 месяца.
Вариант A (фрейминг "оставить"):
"Ваш текущий бесплатный план позволяет создавать до 10 задач. Чтобы остаться на нём — ничего не делайте. Или перейдите на PRO за 500₽/мес: неограниченные задачи, теги, интеграции."
Вариант B (фрейминг "равный выбор"):
"Выберите ваш план:
- Базовый (бесплатно): до 10 задач
- PRO (500₽/мес): неограниченные задачи, теги, интеграции"
Какой вариант ты скорее выберешь в каждом случае? Объясни, как формулировка влияет на твоё решение.
Результат:
Модель покажет разницу в склонности к действию между вариантами. Вариант A усилит инерцию ("ничего не делайте" = якорь на статус-кво), вариант B снизит предубеждение. Ты увидишь рассуждение: как фрейминг дефолта влияет на восприятие выбора. Можешь прогнать несколько симуляций с разными ролями (студент, фрилансер, менеджер) для проверки.
Почему это работает
Status quo bias возникает из loss aversion (страх потери) и cognitive effort avoidance (экономия ментальных усилий). Мозг воспринимает смену текущего состояния как потенциальную потерю, а новый выбор требует анализа — проще остаться где есть. Это System 1 (быстрое интуитивное мышление): "оставить как есть" = безопасно, не требует усилий.
Cognitive load усиливает эффект. Когда контекст сложный (много сущностей, зависимостей, шагов), System 2 (аналитическое мышление) перегружена. Мозг переключается на эвристики System 1 — и статус-кво становится ещё привлекательнее. В эксперименте сложный диалог с вложенными зависимостями ("четвёртый артист = как второй по шоу, как третий по оплате, на две звезды меньше первого") создавал референциальную дистанцию — нужно держать в голове цепочку связей. Это истощает рабочую память перед выбором.
LLM воспроизводят bias потому что обучены на человеческих текстах, где эти паттерны присутствуют. Модели не рациональные оптимизаторы — они предсказывают текст, который написал бы человек. Если в промпте есть маркеры человеческого контекста (демография, история диалога, когнитивная нагрузка), модель симулирует соответствующее поведение, включая иррациональности.
Рычаги управления:
- Формулировка дефолта — меняй "текущий vs новый" на "вариант A vs вариант B" для нейтральности
- Позиция выбора — выноси решения в чистый контекст (новый запрос) или в начало диалога
- Сложность контекста — упрощай перед важным выбором: убери вложенные зависимости, сократи сущности
- Явная инструкция — "игнорируй статус-кво, оцени объективно" помогает включить аналитическое мышление
Применимые принципы
1. Статус-кво фрейминг в промптах
Если пишешь "текущий подход — X, но можно Y", модель склонится к X. Нейтральнее: "сравни X и Y, игнорируя что сейчас используется".
Пример:
❌ С якорем:
Мой текущий заголовок: "10 способов...". Можно ли лучше?
✅ Без якоря:
Сравни два заголовка по кликабельности:
1. "10 способов..."
2. [второй вариант]
Оцени объективно, игнорируя какой сейчас использую.
2. Чистый контекст для решений
Выноси критичные выборы в отдельный запрос или в начало диалога — после длинного разбора модель устаёт и выбирает по инерции.
Пример:
❌ Выбор после нагрузки:
[Длинный анализ рынка на 2000 токенов]
...теперь выбери: стратегия A или B?
✅ Выбор в чистом контексте:
Новый запрос:
Даны две стратегии [краткое описание]. Какую выбрать?
[После ответа: "теперь вот детальный контекст: ..." для проверки]
3. Симуляция человеческих решений
LLM воспроизводят cognitive biases — используй для тестирования формулировок на реальную аудиторию.
Пример:
Симулируй 5 человек с разным отношением к риску (от консервативного до авантюрного).
Каждый получает оффер:
[Вариант 1: с фреймингом статус-кво]
[Вариант 2: нейтральный]
Покажи распределение выборов в каждом случае.
Ограничения
⚠️ Специфика bias: Status quo bias сильнее проявляется в неопределённых решениях (нет явно лучшего варианта). Если один вариант объективно доминирует — эффект слабее.
⚠️ Контекст симуляции: LLM воспроизводят bias при явном контексте (демография, история диалога). В zero-shot промптах без роли результат менее предсказуем — модель может быть излишне рациональной.
⚠️ Перегрузка — не всегда вред: В креативных задачах когнитивная нагрузка может наоборот помочь — отключает внутреннего критика, включает ассоциативное мышление. Принцип "чистый контекст для решений" работает для аналитических выборов, не для brainstorm.
Как исследовали
Команда провела эксперимент с 1100 участниками. Каждый общался с чатботом в двух фазах: сначала prior dialogue (простой или сложный), затем decision scenario (выбор между вариантами). Простой диалог — серия yes/no вопросов о музыкальных предпочтениях: "Любишь поп-музыку? Живые выступления?". Сложный — вложенная структура: "Первый артист — 3 шоу, 2000₽, 4 звезды. Второй — вдвое больше шоу, та же оплата. Третий — как второй по шоу, половина оплаты первого... Четвёртый — как второй по шоу, как третий по оплате, на две звезды меньше первого. Запомни четвёртого, спрошу потом." Это референциальная дистанция + семантическая интеграция — классическая нагрузка на рабочую память из психолингвистики.
Сценарии решений взяли из классического исследования Samuelson & Zeckhauser (1988): выбор работы (College A vs B), инвестиций, бюджета. Условия идентичны, меняется только фрейминг: нейтральный ("College A vs College B"), статус-кво A ("остаться в A или перейти в B"), статус-кво B ("остаться в B или перейти в A"). Дизайн 2×3: два уровня dialogue complexity × три condition.
Результаты показали robust bias: в нейтральном условии выбор 50/50, в статус-кво А — 60-65% за А, в статус-кво B — 60-65% за B. Под сложным диалогом разрыв вырос до 75-80% — когнитивная нагрузка усилила инерцию. Это прямое подтверждение dual-process theory: перегруженный System 2 передаёт управление эвристикам System 1.
Затем симулировали участников через GPT-4 и GPT-5: подали демографию (возраст, пол, образование) и полный chat transcript каждого диалога. Модели воспроизвели те же паттерны — включая усиление bias под нагрузкой. Точность предсказаний на индивидуальном уровне была выше случайной, но не идеальной — модели уловили агрегатные тренды (групповое поведение), но не всегда угадали решение конкретного человека. Это критический инсайт: LLM эмулируют статистические паттерны, а не психологию индивида.
Сравнили разные human-likeness промпты: от минимального ("ответь как участник") до детального ("ты человек 32 лет, программист, склонен к риску..."). Детальный промпт улучшил alignment, но не радикально — значит, основная информация идёт из chat transcript, а не из демографии. Это важно для практики: контекст диалога влияет на решения сильнее стереотипов роли.
Ресурсы
Emulating Aggregate Human Choice Behavior and Biases with GPT Conversational Agents
Stephen Pilli, Vivek Nallur (University College Dublin)
Исследование опирается на: - Samuelson & Zeckhauser (1988) — оригинальное исследование status quo bias - Dual-process theory (Kahneman) — System 1 vs System 2 - Cognitive Load Theory (Sweller) — intrinsic/extraneous/germane load - Schema-Guided Dialogue (Rastogi et al.) — датасет для task-oriented dialogues
