3,583 papers
arXiv:2508.14314 82 19 авг. 2025 г. PRO

Обнаружение и смягчение галлюцинаций LLM без предварительных знаний посредством мелкозернистой межмодельной согласованности

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM генерируют фактические ошибки (галлюцинации) с пугающей уверенностью — модель может соврать про дату рождения известного человека и при этом звучать абсолютно убедительно. FINCH-ZK позволяет выявлять и исправлять галлюцинации без обращения к внешним базам данных — только через сравнение ответов разных моделей. Метод работает как перекрёстный допрос свидетелей: один и тот же вопрос задаётся нескольким LLM в разных формулировках, затем их ответы сравниваются по частям — расхождения указывают на ошибку. Результат: снижение галлюцинаций на 40-60% в задачах с проверкой фактов.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с