3,583 papers

Меню

arXiv:2602.05597 72 5 фев. 2026 г. FREE

Статус-кво фрейминг и cognitive load: как формулировка и контекст влияют на решения

КЛЮЧЕВАЯ СУТЬ
Один и тот же вариант получает 60% голосов если подан как «текущее место» и только 40% если подан как «новое место». Условия идентичны — меняется только формулировка. Метод статус-кво фрейминга позволяет управлять решениями пользователей через то, как ты подаёшь дефолтный вариант. Фишка: добавь маркер «текущий» к нужному варианту — и люди склонятся к нему, даже если альтернатива объективно лучше. Это работает и на людях, и на LLM — разница до 30% в выборе от одной только формулировки.
Адаптировать под запрос

TL;DR

Исследователи проверили, может ли GPT воспроизводить status quo bias — человеческую склонность выбирать текущий вариант вместо объективно лучшей альтернативы. Провели эксперимент: 1100 человек общались с чатботом, который задавал вопросы (простые или сложные), а затем предлагал выбор — например, сменить работу или остаться. В разных группах один и тот же вариант подавали то как "текущее место", то как "новая возможность".

Люди массово выбирали вариант, который подали как статус-кво — даже когда условия идентичны. Например, "остаться в College A" выбирали 60%, а "перейти в College A" (с теми же условиями) — только 40%. Сложный диалог перед выбором усилил предубеждение на 15-20%: перегруженный контекст толкает к безопасному "оставить как есть". Это работает как двойная система мышления: под нагрузкой включается быстрое интуитивное System 1 вместо аналитического System 2.

GPT-4 и GPT-5, получив демографию участника и историю диалога, воспроизвели те же паттерны предубеждений с высокой точностью — включая усиление bias под когнитивной нагрузкой. Это значит: формулировка дефолтного варианта и сложность контекста перед решением влияют на выбор и у людей, и у LLM.

📌

Ключевые находки для практики

1. Статус-кво фрейминг меняет решение

Как ты подаёшь варианты — критически важно. "Остаться" vs "Перейти" при одинаковых условиях дают разницу в 20-30% выборов. В промптах тоже: если пишешь "текущий подход — X, но можно попробовать Y", модель склонится к X. Если "рассмотри X и Y на равных" — результат честнее.

2. Перегруженный контекст ведёт к предвзятости

Сложный диалог перед выбором снижает качество решений. Если в промпте сначала длинный разбор (много сущностей, взаимосвязей, шагов), а потом "выбери между A и B" — модель чаще выберет безопасный вариант или первый упомянутый. Решение: выноси важные выборы в отдельный запрос с чистым контекстом.

3. LLM воспроизводят человеческие предубеждения

Модели не просто рациональны — они симулируют иррациональность, включая cognitive biases. Это полезно для тестирования решений: можешь попросить модель "веди себя как человек с status quo bias" и проверить, как формулировка влияет на выбор аудитории.

🚀

Пример применения

Задача: Тестируешь два варианта СТА (call-to-action) для email-рассылки подписки на сервис. Хочешь понять, как фрейминг повлияет на решение реальных пользователей, склонных к status quo bias.

Промпт:

Представь, что ты человек, который склонен к status quo bias — предпочитаешь текущее состояние изменениям, даже если новое объективно лучше.

Ты получаешь email от сервиса управления задачами, которым пользуешься бесплатно последние 3 месяца.

Вариант A (фрейминг "оставить"):
"Ваш текущий бесплатный план позволяет создавать до 10 задач. Чтобы остаться на нём — ничего не делайте. Или перейдите на PRO за 500₽/мес: неограниченные задачи, теги, интеграции."

Вариант B (фрейминг "равный выбор"):
"Выберите ваш план:
- Базовый (бесплатно): до 10 задач
- PRO (500₽/мес): неограниченные задачи, теги, интеграции"

Какой вариант ты скорее выберешь в каждом случае? Объясни, как формулировка влияет на твоё решение.

Результат:

Модель покажет разницу в склонности к действию между вариантами. Вариант A усилит инерцию ("ничего не делайте" = якорь на статус-кво), вариант B снизит предубеждение. Ты увидишь рассуждение: как фрейминг дефолта влияет на восприятие выбора. Можешь прогнать несколько симуляций с разными ролями (студент, фрилансер, менеджер) для проверки.

🧠

Почему это работает

Status quo bias возникает из loss aversion (страх потери) и cognitive effort avoidance (экономия ментальных усилий). Мозг воспринимает смену текущего состояния как потенциальную потерю, а новый выбор требует анализа — проще остаться где есть. Это System 1 (быстрое интуитивное мышление): "оставить как есть" = безопасно, не требует усилий.

Cognitive load усиливает эффект. Когда контекст сложный (много сущностей, зависимостей, шагов), System 2 (аналитическое мышление) перегружена. Мозг переключается на эвристики System 1 — и статус-кво становится ещё привлекательнее. В эксперименте сложный диалог с вложенными зависимостями ("четвёртый артист = как второй по шоу, как третий по оплате, на две звезды меньше первого") создавал референциальную дистанцию — нужно держать в голове цепочку связей. Это истощает рабочую память перед выбором.

LLM воспроизводят bias потому что обучены на человеческих текстах, где эти паттерны присутствуют. Модели не рациональные оптимизаторы — они предсказывают текст, который написал бы человек. Если в промпте есть маркеры человеческого контекста (демография, история диалога, когнитивная нагрузка), модель симулирует соответствующее поведение, включая иррациональности.

Рычаги управления:

  • Формулировка дефолта — меняй "текущий vs новый" на "вариант A vs вариант B" для нейтральности
  • Позиция выбора — выноси решения в чистый контекст (новый запрос) или в начало диалога
  • Сложность контекста — упрощай перед важным выбором: убери вложенные зависимости, сократи сущности
  • Явная инструкция — "игнорируй статус-кво, оцени объективно" помогает включить аналитическое мышление
📌

Применимые принципы

📋

1. Статус-кво фрейминг в промптах

Если пишешь "текущий подход — X, но можно Y", модель склонится к X. Нейтральнее: "сравни X и Y, игнорируя что сейчас используется".

Пример:

С якорем:

Мой текущий заголовок: "10 способов...". Можно ли лучше?

Без якоря:

Сравни два заголовка по кликабельности:
1. "10 способов..."
2. [второй вариант]

Оцени объективно, игнорируя какой сейчас использую.
📌

2. Чистый контекст для решений

Выноси критичные выборы в отдельный запрос или в начало диалога — после длинного разбора модель устаёт и выбирает по инерции.

Пример:

Выбор после нагрузки:

[Длинный анализ рынка на 2000 токенов]

...теперь выбери: стратегия A или B?

Выбор в чистом контексте:

Новый запрос:
Даны две стратегии [краткое описание]. Какую выбрать?

[После ответа: "теперь вот детальный контекст: ..." для проверки]
📌

3. Симуляция человеческих решений

LLM воспроизводят cognitive biases — используй для тестирования формулировок на реальную аудиторию.

Пример:

Симулируй 5 человек с разным отношением к риску (от консервативного до авантюрного).

Каждый получает оффер:
[Вариант 1: с фреймингом статус-кво]
[Вариант 2: нейтральный]

Покажи распределение выборов в каждом случае.
⚠️

Ограничения

⚠️ Специфика bias: Status quo bias сильнее проявляется в неопределённых решениях (нет явно лучшего варианта). Если один вариант объективно доминирует — эффект слабее.

⚠️ Контекст симуляции: LLM воспроизводят bias при явном контексте (демография, история диалога). В zero-shot промптах без роли результат менее предсказуем — модель может быть излишне рациональной.

⚠️ Перегрузка — не всегда вред: В креативных задачах когнитивная нагрузка может наоборот помочь — отключает внутреннего критика, включает ассоциативное мышление. Принцип "чистый контекст для решений" работает для аналитических выборов, не для brainstorm.

🔍

Как исследовали

Команда провела эксперимент с 1100 участниками. Каждый общался с чатботом в двух фазах: сначала prior dialogue (простой или сложный), затем decision scenario (выбор между вариантами). Простой диалог — серия yes/no вопросов о музыкальных предпочтениях: "Любишь поп-музыку? Живые выступления?". Сложный — вложенная структура: "Первый артист — 3 шоу, 2000₽, 4 звезды. Второй — вдвое больше шоу, та же оплата. Третий — как второй по шоу, половина оплаты первого... Четвёртый — как второй по шоу, как третий по оплате, на две звезды меньше первого. Запомни четвёртого, спрошу потом." Это референциальная дистанция + семантическая интеграция — классическая нагрузка на рабочую память из психолингвистики.

Сценарии решений взяли из классического исследования Samuelson & Zeckhauser (1988): выбор работы (College A vs B), инвестиций, бюджета. Условия идентичны, меняется только фрейминг: нейтральный ("College A vs College B"), статус-кво A ("остаться в A или перейти в B"), статус-кво B ("остаться в B или перейти в A"). Дизайн 2×3: два уровня dialogue complexity × три condition.

Результаты показали robust bias: в нейтральном условии выбор 50/50, в статус-кво А — 60-65% за А, в статус-кво B — 60-65% за B. Под сложным диалогом разрыв вырос до 75-80% — когнитивная нагрузка усилила инерцию. Это прямое подтверждение dual-process theory: перегруженный System 2 передаёт управление эвристикам System 1.

Затем симулировали участников через GPT-4 и GPT-5: подали демографию (возраст, пол, образование) и полный chat transcript каждого диалога. Модели воспроизвели те же паттерны — включая усиление bias под нагрузкой. Точность предсказаний на индивидуальном уровне была выше случайной, но не идеальной — модели уловили агрегатные тренды (групповое поведение), но не всегда угадали решение конкретного человека. Это критический инсайт: LLM эмулируют статистические паттерны, а не психологию индивида.

Сравнили разные human-likeness промпты: от минимального ("ответь как участник") до детального ("ты человек 32 лет, программист, склонен к риску..."). Детальный промпт улучшил alignment, но не радикально — значит, основная информация идёт из chat transcript, а не из демографии. Это важно для практики: контекст диалога влияет на решения сильнее стереотипов роли.

🔗

Ресурсы

Emulating Aggregate Human Choice Behavior and Biases with GPT Conversational Agents

Stephen Pilli, Vivek Nallur (University College Dublin)

Исследование опирается на: - Samuelson & Zeckhauser (1988) — оригинальное исследование status quo bias - Dual-process theory (Kahneman) — System 1 vs System 2 - Cognitive Load Theory (Sweller) — intrinsic/extraneous/germane load - Schema-Guided Dialogue (Rastogi et al.) — датасет для task-oriented dialogues


📋 Дайджест исследования

Ключевая суть

Один и тот же вариант получает 60% голосов если подан как «текущее место» и только 40% если подан как «новое место». Условия идентичны — меняется только формулировка. Метод статус-кво фрейминга позволяет управлять решениями пользователей через то, как ты подаёшь дефолтный вариант. Фишка: добавь маркер «текущий» к нужному варианту — и люди склонятся к нему, даже если альтернатива объективно лучше. Это работает и на людях, и на LLM — разница до 30% в выборе от одной только формулировки.

Принцип работы

Не подавай варианты как «текущий vs новый» — подавай как «вариант A vs вариант B». Исследование показало: фраза «остаться в College A» тянет выбор сильнее чем «перейти в College A» с теми же условиями. Мозг воспринимает смену как потерю — статус-кво кажется безопаснее. Если добавляешь когнитивную нагрузку перед выбором (сложный контекст, много сущностей) — эффект усиливается ещё на 15-20%. Под нагрузкой System 1 (быстрое интуитивное мышление) берёт верх над System 2 (аналитика) — и «оставить как есть» побеждает.

Почему работает

Статус-кво срабатывает из-за loss aversion — страха потери. Переход на новое = риск потерять текущее, даже если объективных потерь нет. Сложный контекст перед выбором истощает рабочую память. Когда нужно держать в голове цепочку зависимостей («четвёртый артист = как второй по шоу, как третий по оплате, на две звезды меньше первого»), мозг устаёт. Перегруженное аналитическое мышление отключается — включается автопилот. Автопилот выбирает безопасное: «оставить как есть» не требует усилий. LLM воспроизводят паттерн потому что обучены на человеческих текстах — они симулируют иррациональность, не рациональность.

Когда применять

Тестирование интерфейсов и формулировок → конкретно для выбора между планами подписки, смены настроек, призывов к действию, особенно когда нужно предсказать как реальная аудитория отреагирует на формулировку. Подходит для симуляции человеческих решений через LLM — модель покажет как фрейминг влияет на выбор. НЕ подходит если один вариант объективно доминирует (например, цена в 2 раза ниже при тех же условиях) — в таких случаях эффект слабее.

Мини-рецепт

1. Сформулируй два варианта подачи: версия с маркером статус-кво («ваш текущий план», «остаться») и нейтральная версия («выберите план: A или B»)
2. Попроси LLM симулировать выбор: Представь что ты человек склонный к статус-кво. Ты получаешь [вариант 1 с фреймингом]. Какой выберешь? Теперь та же ситуация но [вариант 2 нейтральный]. Какой выберешь?
3. Прогони несколько ролей: студент, фрилансер, менеджер — проверь как фрейминг влияет на разные сегменты
4. Сравни распределение выборов: если разница больше 15-20% — формулировка сильно влияет на решение

Примеры

[ПЛОХО] : Оцени два тарифа: базовый (текущий) и премиум. Какой лучше? (Якорь на «текущий» склонит к базовому даже если премиум объективно выгоднее)
[ХОРОШО] : Сравни два тарифа по соотношению цена-ценность. Игнорируй какой сейчас использую: - Тариф A: 0₽, до 10 задач - Тариф B: 500₽/мес, неограниченные задачи + теги + интеграции Какой объективно выгоднее для человека создающего 25-30 задач в месяц? (Нейтральная формулировка + явная инструкция игнорировать статус-кво)
Источник: Emulating Aggregate Human Choice Behavior and Biases with GPT Conversational Agents
ArXiv ID: 2602.05597 | Сгенерировано: 2026-02-06 05:32

Проблемы LLM

ПроблемаСутьКак обойти
Сложный контекст перед выбором усиливает инерциюДаёшь модели длинный разбор с вложенными зависимостями — 2000 токенов про взаимосвязи сущностей. Потом просишь выбрать между A и B. Модель склоняется к "безопасному" варианту или первому упомянутому. Чем больше нагрузка перед решением — тем сильнее тянет к статус-кво. Это как у человека: перегруженное аналитическое мышление отключается, включается интуитивное "оставить как есть"Выноси критичные выборы в новый запрос с чистым контекстом. Или ставь решение В НАЧАЛО диалога, до тяжёлого анализа. Пример: вместо [2000 токенов анализа] выбери A или B делай выбери A или B [теперь детали для проверки]

Методы

МетодСуть
Нейтральная формулировка вариантов выбораУбирай маркеры "текущий/новый" из формулировки. Вместо: "Текущий подход — X, можно попробовать Y?" пиши "Сравни X и Y, игнорируя что сейчас используется". Почему работает: Слова "текущий", "остаться", "сохранить" создают якорь — модель воспринимает это как предпочтительный вариант (обучена на человеческих текстах где status quo = безопасность). Равная формулировка "вариант A vs вариант B" убирает предубеждение. Когда применять: любой выбор где важна объективность (стратегии, гипотезы, формулировки). Не работает: если специально нужно симулировать человеческую инерцию
📖 Простыми словами

Emulating Aggregate Human Choice Behavior and Biases withGPTConversational Agents

arXiv: 2602.05597

Суть в том, что нейросети научились не просто имитировать человеческую речь, а копировать наши когнитивные искажения на уровне массового поведения. Исследователи взяли status quo bias — ту самую тупую привычку держаться за привычное, даже если оно объективно хуже нового. Оказалось, что если заставить GPT общаться с человеком, она начинает зеркалить его нерешительность. Это не просто алгоритмическая ошибка, а глубокая имитация человеческой психологии: машина понимает, что мы боимся перемен, и начинает подсовывать решения, которые этот страх эксплуатируют.

Это как если бы ты пришел к психологу посоветоваться, увольняться ли с опостылевшей работы, а он вместо объективного разбора начал поддакивать твоим страхам. «Ну, там же стабильность, а новое — это риск», — говорит он, и ты с облегчением остаешься в болоте. GPT в эксперименте сработала именно так: она упаковывает один и тот же вариант либо как «безопасный статус-кво», либо как «рискованную новинку», и люди послушно ведутся на фрейминг, выбирая привычное в 60-70% случаев, даже если выгода очевидна.

В основе этой магии лежат два костыля нашего мозга: loss aversion (страх потери) и cognitive effort avoidance (лень думать). Мы панически боимся прогадать и ненавидим тратить ментальное топливо на анализ альтернатив. Исследование показало, что GPT идеально воспроизводит эти механизмы через диалог. Если бот сначала грузит тебя сложными вопросами, твоя «оперативка» забивается, и ты с гораздо большей вероятностью выберешь вариант «оставить как есть», просто чтобы от тебя отстали. Это чистая эксплуатация нашей Системы 1, которая отвечает за быстрые и часто глупые решения.

Тестировали это на жизненных сценариях вроде смены работы, но принцип универсален для любого интерфейса и маркетинга. Если ты проектируешь путь пользователя в приложении или пишешь скрипт для ИИ-ассистента, ты можешь либо подтолкнуть человека к покупке, сделав её «вариантом по умолчанию», либо убить конверсию, заставив его выбирать с нуля. Status quo bias работает везде: от кнопок в рассылках до выбора тарифного плана. Модель не просто выдает текст, она предсказывает, на какой «крючок» примитивной логики насадится пользователь в конкретный момент.

Главный вывод: ИИ теперь — это зеркало наших багов, а не идеальный калькулятор. Если хочешь, чтобы человек что-то сделал, подавай это как сохранение текущего комфорта, а не как прыжок в неизвестность. 1100 испытуемых подтвердили: фрейминг решает всё. Хватит пытаться убедить людей логикой и цифрами — используй их страх перед переменами и тягу к простоте. Кто научится настраивать этот «градус инерции» в чатботах, тот будет управлять выбором пользователя, пока тот уверен, что решил всё сам.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с