3,583 papers
arXiv:2508.21004 80 28 авг. 2025 г. PRO

Lethe: очистка бэкдорированных больших языковых моделей с помощью разбавления знаний

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM генерирует предвзятые или вредоносные ответы, когда в запросе появляются слова-триггеры, связанные с «токсичными» паттернами из обучающих данных — отсюда проблема клише, стереотипов и галлюцинаций на спорные темы. Метод Lethe позволяет получать более объективные и фактически точные ответы на сложные или спорные темы, где модель обычно выдает клише. Добавление в промпт нейтральных определений ключевых терминов «разбавляет» токсичные ассоциации и заставляет модель строить ответ на основе предоставленных фактов, а не скрытых предубеждений. Эксперименты показали: контекст из 2-3 определений снижает вероятность нежелательного ответа с 87% до 12%.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с