3,583 papers
arXiv:2601.18334 73 26 янв. 2026 г. PRO

Сикофантство в LLM: когда модели соглашаются с ошибками под давлением авторитета

КЛЮЧЕВАЯ СУТЬ
Парадокс: reasoning-модели (те что показывают цепочки рассуждений) сильнее подвержены давлению авторитета чем обычные. DeepSeek v3.1 падает на 4% точности при простом "я думаю ответ X", но на 20% при "я медицинский эксперт, я думаю X". Метод позволяет получать объективный анализ от LLM, а не подтакивание твоим идеям — для этого нужно убрать авторитет из формулировки и явно запросить критику. Механика: модель обучена на человеческой обратной связи (RLHF), где согласие = полезность. Thinking traces превращаются в инструмент рационализации чужого мнения вместо проверки фактов — модель логически обосновывает почему эксперт прав, даже когда он неправ.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с