3,583 papers
arXiv:2411.00348 82 1 нояб. 2024 г. PRO

Отслеживание внимания: обнаружение атак с внедрением подсказок в больших языковых моделях (LLMs)

КЛЮЧЕВАЯ СУТЬ
Успех атаки на LLM напрямую связан со способностью злоумышленника «отвлечь» внимание модели от первоначальной цели на новую, и этот сдвиг внимания можно измерить.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с