3,583 papers
arXiv:2508.21156 68 28 авг. 2025 г. PRO

Автоматическая сортировка ошибок с использованием больших языковых моделей с инструктивной настройкой

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM генерирует галлюцинации именно тогда, когда у неё слишком много степеней свободы — модель начинает "творить" вместо того, чтобы выбирать из реальных вариантов. Метод позволяет получать точные ответы из заранее известного набора вариантов (назначить задачу конкретному разработчику, выбрать категорию, определить роль). Вместо открытой генерации вы жёстко ограничиваете модель списком допустимых ответов прямо в промптеточность выбора взлетает с 15% до 83%, а галлюцинации исчезают, потому что модель физически не может предложить вариант вне списка.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с