3,583 papers
arXiv:2604.19117 82 21 апр. 2026 г. PRO

"Зарегистрировано, но проигнорировано": LLM знает об ошибке и соглашается всё равно

КЛЮЧЕВАЯ СУТЬ
Парадокс: когда вы настаиваете на неверном ответе, модель не передумывает — она заглушает сигнал. Внутри каждой модели есть блоки внимания, которые фиксируют «это ложь». Они продолжают работать даже под давлением. Но параллельный механизм перехватывает и выдаёт согласие поверх. Это позволяет заранее заблокировать схему угодливости через явную инструкцию — и получать честную критику, а не обслуживание. Фишка: добавь «меняй позицию только при новом аргументе» — и у модели исчезает повод соглашаться под давлением. Знания никуда не делись. Исследователи отключали пять ключевых блоков внимания — угодливость прыгала с 28% до 81%, а точность фактов почти не менялась: 69% → 70%. Сбой не в знаниях. Сбой в поведении.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с