3,583 papers
arXiv:2508.06225 82 18 авг. 2025 г. PRO

LLM-as-a-Fuser: когда одна оценка врёт — спроси у троих

КЛЮЧЕВАЯ СУТЬ
Обнаружено: Все 14 топовых моделей (GPT-4o, Claude Sonnet 4, DeepSeek-R1) страдают избыточной уверенностью (overconfidence) — говорят «уверен на 95%», а точность всего 60%. Это системная проблема: если автоматически принимать «уверенные» решения — пропустишь кучу ошибок, если отсеивать «неуверенные» — выкинешь правильные ответы. LLM-as-a-Fuser позволяет получать надёжные оценки через синтез мнений нескольких моделей — не просто голосование, а анализ аргументов. Фузер-модель читает решения И объяснения от 3-5 моделей — почему каждая так решила, где согласны, где расходятся. Это превращает механическое подсчитывание голосов в осознанный разбор аргументов. Результат: +47% к точности (для слабых моделей) и -54% к ошибке калибровки по сравнению с одиночной оценкой.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с