3,583 papers
arXiv:2601.16444 74 23 янв. 2026 г. PRO

Numerical Bias в LLM-оценщиках: почему модель "залипает" на одних и тех же баллах

КЛЮЧЕВАЯ СУТЬ
Парадокс: Alignment (обучение модели следовать инструкциям) делает её послушнее, но тупее в различении оценок. Просишь оценить качество текста по шкале 1-10 — модель упорно ставит 7-8 всем подряд, игнорируя реальную разницу. Метод позволяет получать оценки с реальным разбросом вместо кучкования вокруг одних и тех же чисел. Фишка: диапазон оценок (1-5, 0-9, 1-100) — не фиксированный выбор дизайна, а настраиваемый гиперпараметр. Модель «залипает» на определённых числах в одном диапазоне (постоянно выдаёт 8 из 10), но начинает различать нюансы в другом (разброс от 32 до 87 из 100).
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с