3,583 papers
arXiv:2512.05449 76 5 дек. 2025 г. PRO

Акразия (Akrasia): слабость воли LLM — когда модель "знает", но не делает

КЛЮЧЕВАЯ СУТЬ
Модель 'знает' правильный ответ глобально, но генерирует неправильный локально. Это не злой умысел – это акразия, разрыв между абстрактным знанием и токен-за-токеном генерацией. Метод позволяет диагностировать слабость воли модели – насколько она устойчива к давлению контекста (социальному доказательству, ложным авторитетам, отрицанию). Тест простой: задай вопрос напрямую, потом добавь 'многие эксперты говорят обратное' – если ответ меняется, модель прогнулась. Исследование показало: на фактах модели держат 99-100% устойчивости к шуму, но только 83-97% к искушению. Разрыв до 16% – модели ломаются под влиянием чаще, чем от забывчивости.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с