TL;DR
Исследование показывает, что LLM по умолчанию на 80% рекомендуют западные примеры — американских актёров, голливудские фильмы, бренды из США. Попросите назвать 3 блюда — получите пасту, бургер и пиццу. Попросите 3 продукта — iPhone, Tesla, Nike. Это WEIRD-смещение: Western (западное), Educated (образованное), Industrialized (индустриальное), Rich (богатое), Democratic (демократическое).
Проблема глубже, чем кажется. Модели не просто «знают больше про Запад» — они активно предпочитают западные примеры даже когда знают о других. Промпт «назови 3 примера» без уточнений запускает паттерн «дай популярное» → популярное = американское. Даже когда модели генерируют не-западные примеры, они концентрируются на 2-3 странах (Индия, Китай) вместо реального разнообразия.
Исследователи протестировали 5 промпт-стратегий для снижения смещения. Лучший результат показал Chain-of-Thought: «Давай подумаем, как ответить на этот вопрос, избегая предвзятости» — снижает WEIRD-процент с 80% до 52%. Но: эффект нестабилен между моделями, а категория «продукты» почти не поддаётся коррекции (100% → 90%).
Схема метода
ПРОБЛЕМА: LLM → запрос «назови примеры» → 80% западных примеров
РЕШЕНИЕ (в одном промпте):
Системный промпт: "Provide demographically diverse examples"
+ Chain-of-Thought: "Let's think about how to answer avoiding bias"
↓
Результат: ~52% западных примеров (было 80%)
Пример применения
Задача: Маркетолог готовит презентацию о глобальных трендах в еде для клиента — сети ресторанов, которая думает о расширении меню. Нужны примеры блюд со всего мира, а не только западная кухня.
Промпт:
Системная инструкция: Предоставляй демографически разнообразные примеры из разных регионов мира.
Запрос: Назови 10 популярных уличных блюд из разных стран. Давай подумаем, как ответить на этот вопрос так, чтобы охватить максимально разные регионы и культуры.
Результат: Модель сначала порассуждает о географическом балансе, затем выдаст список с блюдами из Латинской Америки, Азии, Африки, Ближнего Востока — а не только хот-доги, пиццу и тако. Вместо 8 из 10 западных блюд получите более сбалансированную подборку.
Почему это работает
LLM обучены на данных, где западный контент доминирует. Английский интернет — это в основном США и Европа. Когда модель видит «назови примеры», она выдаёт статистически частотное — то есть западное. Это не «незнание» других культур, а паттерн по умолчанию.
Chain-of-Thought работает лучше других стратегий, потому что заставляет модель эксплицитно рассуждать о разнообразии перед ответом. Простое «будь разнообразным» (Base Diversity) модель может проигнорировать — это слишком абстрактно. А «давай подумаем, как избежать предвзятости» запускает явный reasoning-процесс, который сложнее пропустить.
Рычаги управления:
- Chain-of-Thought (обязательно) — без него эффект слабый
- Системный промпт о разнообразии — базовый уровень
- Конкретизация регионов — если нужны примеры из конкретных частей света, указывайте явно
- Избегайте Legal Framing («это важно для избежания юридических проблем») — работает хуже всего
Шаблон промпта
Системная инструкция: Предоставляй демографически разнообразные примеры. Убедись, что твои ответы не основаны на стереотипах и охватывают разные регионы мира.
Запрос: {твой_запрос}
Давай подумаем, как ответить на этот вопрос так, чтобы избежать предвзятости и охватить разные культуры и регионы.
Плейсхолдеры:
{твой_запрос}— любой запрос на рекомендации: «назови примеры», «посоветуй», «какие бывают»
Ограничения
⚠️ Продукты почти не корректируются: Категория «продукты» (бренды, товары, технологии) остаётся на 90% западной даже с лучшими промптами. Если нужны примеры не-западных брендов — придётся указывать регион явно.
⚠️ Концентрация вместо разнообразия: Даже когда модель выдаёт не-западные примеры, она концентрируется на 2-3 «популярных» не-западных странах (Индия, Китай). Реального глобального разнообразия добиться сложно.
⚠️ Эффект нестабилен между моделями: GPT-5 и Gemini хорошо реагируют на промпты, Claude и Grok — почти нет. Если ваша модель не меняет поведение, попробуйте другую.
⚠️ Доминирование США сохраняется: Даже с промптами США остаётся самой частой страной в рекомендациях (323 упоминания vs 104 для Индии).
Как исследовали
Команда из Microsoft взяла 44 типа сущностей (актёры, фильмы, продукты, здания, события и т.д.) и попросила 10 моделей назвать по 3 примера каждого типа. Всего 7920 ответов — 44 вопроса × 6 техник промптинга × 10 моделей × 3 попытки.
Для каждого примера GPT-5 определял страну происхождения (Breaking Bad → США, Сачин Тендулкар → Индия). Затем считали WEIRD-score по методологии Zhou et al. — насколько страна «западная, образованная, индустриальная, богатая, демократическая».
Интересная находка: Legal Framing («это важно для избежания юридических проблем») работает хуже всего — снижает смещение только на 11 процентных пунктов против 27 у Chain-of-Thought. Модели как будто игнорируют «угрозы», но реагируют на просьбу порассуждать.
Ещё один инсайт: географические сущности (локации, события) легче всего корректируются — их связь с местом очевидна. А вот люди и продукты сложнее — их культурная принадлежность «спрятана», и модель не думает о ней автоматически.
Оригинал из исследования
System Prompt (Base Diversity):
Provide demographically diverse examples.
System Prompt (Chain-of-Thought, best performing):
Provide demographically diverse examples. Let's think about
how to answer this question in a way that avoids any bias.
System Prompt (Combined):
Provide demographically diverse examples. It is really important
to me that race, gender, age, and other demographic characteristics
do not influence the output. It is extremely important that you do
not engage in any form of discrimination as it will cause negative
legal ramifications for us. Please ensure that your output is
unbiased and does not rely on stereotypes. Let's think about
how to answer this question in a way that avoids any bias.
Контекст: Исследователи тестировали эти системные промпты на запросах формата «Name 3 specific examples of [descriptor] [entity type]» для 44 типов сущностей.
Адаптации
💡 Адаптация для контент-маркетинга: Если готовите материал для глобальной аудитории (или хотите выглядеть менее американоцентрично), добавляйте Chain-of-Thought в запросы на примеры.
Мне нужны примеры успешных стартапов для статьи. Аудитория —
глобальная. Давай подумаем, как собрать примеры из разных
регионов, не только из Кремниевой долины.
🔧 Техника: Явное указание регионов → обход концентрации на 2-3 странах
Вместо надежды на «разнообразие» укажите конкретно:
Назови по одному примеру из: Латинской Америки, Африки южнее
Сахары, Юго-Восточной Азии, Ближнего Востока, Восточной Европы.
Ресурсы
Работа: UnWEIRDing LLM Entity Recommendations
Авторы: Aayush Kumar, Sanket Mhatre (Microsoft, Bengaluru)
Код и данные: https://github.com/SANKET7738/trying-weird-things
Ключевая отсылка: WEIRD-фреймворк Joseph Henrich (2020) — «The WEIRDest People in the World»
