3,583 papers
arXiv:2509.06472 72 8 сент. 2025 г. PRO

Оценка уверенности LLM через внутренние состояния: динамический поиск в RAG-системах

КЛЮЧЕВАЯ СУТЬ
Парадокс: Спрашиваешь LLM 'насколько ты уверен?' — она отвечает '70%', но на самом деле может тупить или наоборот знать точно. Модели врут о своей уверенности — словесная самооценка не совпадает с реальным 'знанием'. Метод позволяет выбирать только полезные контексты в RAG-системах — не засовывать всё подряд в промпт, а фильтровать документы по тому, насколько они реально помогают модели. Фишка: смотреть не на слова модели, а на изменение её внутренней уверенности до и после чтения документа. Если скрытые состояния показывают рост уверенности — документ полезен. Падение уверенности — документ мешает или противоречит знаниям модели. 5.6% точности + экономия 7% поисковых запросов — модель не лезет в базу, когда уже знает ответ.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с