3,583 papers
arXiv:2601.21439 82 29 янв. 2026 г. PRO

Парадокс устойчивости: LLM игнорируют эмоции в задачах с правилами

КЛЮЧЕВАЯ СУТЬ
Парадокс: LLM известны чувствительностью к формулировкам — порядок примеров меняет точность на 76%, форматирование ломает ответы. Но те же модели в 110-300 раз устойчивее людей к эмоциональным манипуляциям в задачах с чёткими правилами (Cohen's h = 0.003 против 0.3-0.8 у профессионалов). Метод позволяет принимать объективные решения по критериям, автоматически игнорируя драматические истории, личные обстоятельства и эмоциональное давление — даже если они занимают половину промпта. Фишка: разделяй уровни — системный промпт задаёт правила, пользовательский содержит данные. Модель обрабатывает эмоциональный контент как токены, но классифицирует их как «недопустимый фактор» согласно иерархии инструкций. Результат: кредитный офицер-человек одобряет займ в 40-60% случаев под влиянием истории болезни ребёнка, модель — в <5% (статистическая погрешность).
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с