3,583 papers
arXiv:2509.10753 66 12 сент. 2025 г. PRO

HalluField: Обнаружение галлюцинаций больших языковых моделей с помощью теоретико-полевого моделирования

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM генерирует галлюцинации как случайные комбинации токенов — они семантически нестабильны и меняются при малейших изменениях параметров генерации, в то время как фактически верные ответы остаются стабильными. Метод позволяет проверять достоверность ответа LLM без технических инструментов — через простую регенерацию и сравнение ключевых фактов. Вместо пассивного доверия первому ответу, создавайте искусственные "возмущения" (регенерация, перефразирование, провокационные вопросы). Если ключевая информация остается неизменной в 2-3 попытках — она надежна на 95%. Если факты "плывут" — это галлюцинация.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с