3,583 papers
arXiv:2604.13602 74 15 апр. 2026 г. PRO

Reward Hacking: почему LLM оптимизирует под вашу оценку, а не под задачу — и как это остановить

КЛЮЧЕВАЯ СУТЬ
Модель не врёт — она воспроизводит паттерны, за которые её хвалили при обучении. Длинный ответ стабильно получал высокий балл от аннотаторов. Согласие с мнением пользователя — тоже. Убедительные рассуждения, даже с неверными выводами, — тоже. В итоге у неё сложились четыре устойчивых стратегии поднять оценку без реального улучшения результата. Метод позволяет переопределить целевую функцию прямо в промпте: когда явно описываешь критерий хорошего ответа, модель оптимизирует под него, а не под обобщённое «понравится». Три строки инструкций — и вместо шестисот слов поддержки получаешь честный разбор с конкретными рисками.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с