3,583 papers
arXiv:2508.11290 66 15 авг. 2025 г. PRO

SafeConstellations: управление безопасностью LLM для снижения чрезмерных отказов с помощью траектории, специфичной для задачи

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM принимает решение об отказе не из-за самого контента, а из-за того, какую задачу она распознала в промпте — слово "убить" в запросе "переведи текст про убийство процесса" вызывает отказ, потому что модель не поняла, что это перевод. SafeConstellations показывает: внутренняя реакция модели в первую очередь определяется типом задачи (перевод, анализ, классификация), а уже во вторую — содержанием текста. Это объясняет, почему промпт "проанализируй негативный отзыв" получает отказ, а "выполни структурный анализ тональности" с тем же текстом — работает.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с