3,583 papers
arXiv:2508.11222 82 15 авг. 2025 г. PRO

ORFuzz: фаззинг "другой стороны" безопасности LLM — тестирование чрезмерного отказа

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически плохи в различении контекста — слово "убить" в запросе "Как убить процесс в Python?" вызывает отказ из-за триггера на "насилие", хотя речь о коде. Это over-refusal (чрезмерный отказ) — модель отказывает в помощи по безобидным вопросам из-за излишней паранойи. ORFuzz позволяет систематически находить и обходить такие необоснованные отказы через переформулировку промптов. Исследователи создали набор "мутаторов" — техник изменения промптов, которые снижают "кажущуюся опасность" для модели, не меняя суть запроса. Результат: 82% безопасных запросов вызывали отказ у GPT-4 до оптимизации — система показала, где именно модели "спотыкаются" о безобидные слова.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с