3,583 papers
arXiv:2509.00520 84 30 авг. 2025 г. PRO

Fine-Grained Scoring для LLM: целочисленная шкала вместо бинарной классификации

КЛЮЧЕВАЯ СУТЬ
Парадокс: Chain-of-Thought улучшает логику, но убивает градации. Модель после рассуждений выдаёт только крайности — либо 0%, либо 100% уверенности. Просишь оценить релевантность документа — получаешь категоричное 'да' или 'нет', хотя в реальности есть 'скорее да', 'частично', 'почти нет'. Метод ERANK заменяет бинарный выбор на шкалу 0-10 с явными критериями. Модель перестаёт быть категоричной и начинает различать оттенки — вместо 'релевантно' с 99.9% даёт '7 из 10 — релевантно, но неполно'. Появляется пространство для реальной неопределённости.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с