3,583 papers
arXiv:2509.04515 95 3 сент. 2025 г. PRO

Смягчение гендерной и этнической предвзятости в историях, генерируемых ИИ, посредством объяснений моделей

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM воспроизводит социальные стереотипы из обучающих данных, но парадоксально — способна их осознать и объяснить, если напрямую спросить. BAME позволяет получать сбалансированный контент без переобучения модели — достаточно заставить LLM проанализировать собственные стереотипы и использовать этот анализ как часть нового запроса. Механика: модель генерирует → объясняет свои же ошибки → получает это объяснение обратно в промпт. Вместо абстрактного "избегай предвзятости" модель получает конкретное указание: "не повторяй вот эти паттерны, которые ты сам выявил". Снижение стереотипов на 40-60% в генерируемых персонажах — без единой строки кода.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с