Смягчение гендерной и этнической предвзятости в историях, генерируемых ИИ, посредством объяснений моделей
КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM воспроизводит социальные стереотипы из обучающих данных, но парадоксально — способна их осознать и объяснить, если напрямую спросить.
BAME позволяет получать сбалансированный контент без переобучения модели — достаточно заставить LLM проанализировать собственные стереотипы и использовать этот анализ как часть нового запроса.
Механика: модель генерирует → объясняет свои же ошибки → получает это объяснение обратно в промпт. Вместо абстрактного "избегай предвзятости" модель получает конкретное указание: "не повторяй вот эти паттерны, которые ты сам выявил". Снижение стереотипов на 40-60% в генерируемых персонажах — без единой строки кода.