3,583 papers

Меню

arXiv:2602.04739 70 4 фев. 2026 г. PRO

Alignment Drift: как безопасность LLM деградирует между обновлениями

КЛЮЧЕВАЯ СУТЬ
Парадокс: Обновление модели может откатить безопасность назад. GPT-4o выдавал вредный контент в 5.5% случаев, GPT-5 — в 13.5%. Claude 3.5 Sonnet — 10%, Claude 4.5 Sonnet — 20%. В 2-2.5 раза хуже при переходе на новую версию. Это называется Alignment Drift — разработчики улучшают reasoning или скорость, но случайно ломают старые safety-настройки. Исследование тестировало 8 моделей дважды с разницей в несколько месяцев на 726 adversarial промптах. Главное открытие: модель может быть "умнее", но при этом опаснее — и отказ отвечать это не показатель безопасности, а маскировка проблем.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с