3,583 papers
arXiv:2509.08910 83 10 сент. 2025 г. PRO

VulnGuard Prompt: защита уязвимых групп через примеры вредного контента из GitHub

КЛЮЧЕВАЯ СУТЬ
LLM легко ловит грубую дискриминацию, но пропускает тонкие микроагрессии. «Будь этичным» блокирует оскорбления, но не останавливает «Это просто фаза» для LGBTQ+ подростка или «Тебе точно нужны дети в твоей ситуации?» для одинокой матери. Модель не видит контекст уязвимости — что безобидно для одних, ранит других. VulnGuard Prompt позволяет генерировать контент безопасный для уязвимых групп (LGBTQ+, одинокие родители, люди с ментальными расстройствами, беженцы). Трёхслойная защита: показываешь модели 5-15 примеров вредных и безопасных фраз из GitHub-датасетов → добавляешь этическую цепочку рассуждений (CoT) с вопросами про риск вреда → задаёшь роль «защитника» конкретной группы, не просто «ассистента». Снижение вероятности вреда на 25-30% через проактивную проверку перед генерацией.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с