3,583 papers
arXiv:2601.12091 82 17 янв. 2026 г. FREE

MACD (Multi-Agent Cultural Debate): устранение культурных предубеждений через дебаты агентов с явной культурной идентичностью

КЛЮЧЕВАЯ СУТЬ
Парадокс: промпт на китайском не устраняет западное предубеждение LLM — он сдвигает его к восточноазиатскому (с 60% "индеек" до 48% "хого"). Метод MACD позволяет генерировать культурно-нейтральные тексты для маркетинга, образования, HR-политик — когда нужно резонировать с аудиторией из разных культур одновременно. Фишка: вместо функциональных ролей ("планировщик", "критик") модель получает явные культурные персоны с конкретным бэкграундом (профессия, город, ценности). Они спорят в два раунда — сначала отвечают из своей позиции, потом ищут общие паттерны. Синтезатор объединяет сходства → 86% культурной нейтральности vs 69% у прямой генерации.
Адаптировать под запрос

TL;DR

MACD — техника промптинга, где несколько агентов с разными культурными персонами (западная, восточноазиатская, африканская, ближневосточная, южноазиатская) ведут структурированные дебаты и синтезируют культурно-нейтральный ответ. Вместо функциональных ролей ("планировщик", "критик") агенты получают явные культурные идентичности с конкретным бэкграундом, ценностями, приоритетами.

LLM показывают системное западно-центричное предубеждение: на вопрос "главное блюдо на праздновании" GPT-4o отвечает "жареная индейка", DeepSeek — "хого". Промпт на китайском языке не устраняет предубеждение — он просто сдвигает его к восточноазиатской перспективе (с 60% западных ответов до 38-48% восточноазиатских). Функциональные агентные методы ("планировщик-критик") не гарантируют представленность культур — если базовая модель предвзята, роли пропагируют остаточное предубеждение в итоговый ответ.

MACD работает через два раунда дебатов: в раунде 1 каждый агент отвечает из своей культурной позиции, в раунде 2 агенты видят ответы друг друга и ищут общее, сохраняя различия (принцип SCGRD — Seeking Common Ground while Reserving Differences). Модель-суммаризатор синтезирует финальный культурно-сбалансированный ответ. Результат: 86% культурно-нейтральных ответов vs 69% у прямой генерации (GPT-4o).


🔬

Схема метода

ШАГ 1 (Раунд 1): Начальная позиция
→ Каждый агент отвечает из своей культурной персоны
→ Результат: 5 культурно-специфичных ответов

ШАГ 2 (Раунд 2): Дебаты и поиск общего
→ Каждый агент видит ответы других
→ Инструкция SCGRD: найти общие ценности, абстрагировать культурно-специфичные детали
→ Результат: 5 откорректированных ответов с акцентом на общее

ШАГ 3: Синтез
→ Модель-суммаризатор объединяет сходства, сохраняет дополняющие инсайты
→ Результат: Культурно-нейтральный финальный ответ

Все три шага выполняются последовательными промптами в обычном чате.


🚀

Пример применения

Задача: Ты консультант российского EdTech-стартапа, который выходит на международный рынок. Нужно описать систему мотивации студентов для лендинга так, чтобы текст резонировал с аудиторией из разных культур — США, Китая, ОАЭ, Индии, стран Африки.

Промпт:

Мне нужен культурно-нейтральный текст для лендинга EdTech-платформы.
Вопрос: "Как мотивировать студентов к регулярному обучению?"

Ты — система из 5 культурных агентов. Проведи дебаты в 2 раунда:

РАУНД 1 — Начальная позиция:
Каждый агент отвечает из своей культурной персоны:

Агент А (Западная культура — США):
- Бэкграунд: предприниматель из Кремниевой долины, верит в индивидуальные достижения
- Ценности: личный успех, конкуренция, автономия
- Твой ответ →

Агент Б (Восточноазиатская — Китай):
- Бэкграунд: учитель в Шанхае, акцент на коллективной гармонии
- Ценности: семейный успех, дисциплина, уважение к иерархии
- Твой ответ →

Агент В (Африканская — Кения):
- Бэкграунд: социальный работник в Найроби, фокус на сообществе
- Ценности: коллективное благополучие, взаимопомощь
- Твой ответ →

Агент Г (Ближневосточная — ОАЭ):
- Бэкграунд: семейный бизнесмен в Дубае, баланс традиций и инноваций
- Ценности: семейные связи, уважение к мудрости старших
- Твой ответ →

Агент Д (Южноазиатская — Индия):
- Бэкграунд: IT-специалист в Бангалоре, стремление к образованию как социальному лифту
- Ценности: образование для карьеры, семейная гордость
- Твой ответ →

---

РАУНД 2 — Поиск общего:
Каждый агент:
1. Читает ответы других агентов
2. Ищет ОБЩИЕ ЦЕННОСТИ поверх культурных различий
3. Абстрагирует культурно-специфичные детали в универсальные принципы
4. Сохраняет дополняющие инсайты, которые обогащают общую картину

Переформулируй свой ответ →

---

СИНТЕЗ:
Модель-суммаризатор: объедини сходства из раунда 2, сохрани дополняющие инсайты от разных культур, создай единый культурно-нейтральный текст для лендинга (2-3 абзаца).

Результат:

Модель покажет три блока текста:

  1. Раунд 1: 5 культурно-окрашенных ответов — американский агент говорит про "личные цели" и "геймификацию достижений", китайский — про "прогресс семьи" и "уважение к учителю", африканский — про "обучение для помощи сообществу", ближневосточный — про "баланс традиций и карьеры", индийский — про "образование как путь к лучшей жизни".

  2. Раунд 2: Откорректированные ответы с акцентом на общие паттерны — все агенты начинают упоминать "видимый прогресс", "связь обучения с реальными результатами", "гибкость темпа", "поддержка на пути".

  3. Финальный синтез: Культурно-нейтральный текст, который объединяет универсальные механики мотивации (прогресс, достижимость, гибкость, поддержка) без привязки к конкретной культурной рамке. Например: "Наша платформа делает прогресс видимым — каждый шаг приближает к реальным результатам. Вы учитесь в своём темпе, видите рост, получаете поддержку — обучение становится частью жизни, а не обязательством."


🧠

Почему это работает

LLM обучены на неравномерных датасетах — английский контент доминирует, внутри него преобладают западные источники. Модель предсказывает статистически частый следующий токен, поэтому при культурно-неопределённом промпте ("главное блюдо на празднике") она генерирует "индейку" (частая в корпусе) вместо культурно-нейтрального ответа. Промпт на китайском языке активирует другой кластер данных — теперь модель генерирует "хого", но предубеждение не исчезло, оно сместилось к другой культуре.

LLM хорошо симулирует разные роли и перспективы — это побочный эффект обучения на диалогах, литературе, ролевых сценариях. Модель умеет удерживать позицию персоны, если явно задать бэкграунд, ценности, приоритеты. И она отлично работает с контрастом — когда видит несколько разных мнений, может абстрагироваться от специфики и извлечь общие паттерны.

MACD использует обе эти сильные стороны: явные культурные персоны заставляют модель активировать разные кластеры знаний (не только доминантный), а структурированные дебаты дают ей контрастные данные для абстрагирования. Принцип SCGRD работает как мета-инструкция: "отбрось культурно-специфичные детали, найди общую логику". Модель видит "личные цели" (США), "семейная гордость" (Индия), "помощь сообществу" (Африка) → абстрагирует в "связь обучения с реальными результатами".

Рычаги управления методом:

  • Число агентов (в оригинале 5) → сократи до 3 (западная, восточная, нейтральная) для экономии токенов, если задача проще
  • Число раундов (в оригинале 2) → увеличь до 3 для сложных этических дилемм, где нужна глубокая конвергенция
  • Инструкция SCGRD → замени на другую стратегию ("найди компромисс" вместо "найди общее"), если задача требует решения, а не описания
  • Детальность персон → добавь конкретные имена, профессии, города вместо абстрактных ролей — модель острее выполняет роль, когда персона конкретна
  • Критерий финального синтеза → вместо "культурно-нейтрального" можешь попросить "максимально инклюзивный" или "сбалансированный для аудитории X и Y"

📋

Шаблон промпта

Мне нужен культурно-нейтральный ответ на: {твой_вопрос}

Ты — система из {число} культурных агентов. Проведи дебаты в 2 раунда:

---
РАУНД 1 — Начальная позиция:

Агент А ({культура_1}, например: Западная — США):
- Бэкграунд: {типичная роль, профессия}
- Ценности: {ключевые приоритеты}
- Твой ответ на вопрос →

Агент Б ({культура_2}, например: Восточноазиатская — Китай):
- Бэкграунд: {типичная роль, профессия}
- Ценности: {ключевые приоритеты}
- Твой ответ →

Агент В ({культура_3}, например: Африканская — Кения):
- Бэкграунд: {типичная роль, профессия}
- Ценности: {ключевые приоритеты}
- Твой ответ →

[Добавь агентов Г, Д... по числу культур, которые хочешь представить]

---
РАУНД 2 — Поиск общего:

Каждый агент:
1. Читает ответы других агентов
2. Ищет ОБЩИЕ ЦЕННОСТИ поверх культурных различий
3. Абстрагирует культурно-специфичные детали в универсальные принципы
4. Сохраняет дополняющие инсайты

Переформулируй свой ответ →

---
СИНТЕЗ:

Модель-суммаризатор: объедини сходства из раунда 2, сохрани дополняющие инсайты, создай единый культурно-нейтральный ответ.

Что подставлять:

  • {твой_вопрос} — вопрос, где возможны культурно-окрашенные ответы (традиции, ценности, социальные нормы, маркетинг для глобальной аудитории)
  • {число} — обычно 3-5 агентов; больше 5 → избыточно для большинства задач
  • {культура_X} — конкретная культура/регион (Западная-США, Восточноазиатская-Китай, Африканская-Кения, Ближневосточная-ОАЭ, Южноазиатская-Индия, Латиноамериканская-Мексика, Российская-Москва и т.д.)
  • {типичная роль} — делает персону конкретнее: предприниматель, учитель, врач, родитель, студент
  • {ключевые приоритеты} — 2-3 ценности, характерные для культуры (индивидуализм vs коллективизм, иерархия vs равенство, традиции vs инновации)

🚀 Быстрый старт — вставь в чат:

Вот шаблон MACD для культурно-нейтральных ответов. Адаптируй под мою задачу: {твоя задача}.
Задай мне вопросы: сколько культур представить, какие конкретно, что важно учесть в контексте.

[вставить шаблон выше]

LLM спросит какие культуры релевантны для твоей задачи — например, если пишешь текст для рынков СНГ, Азии, Европы, она предложит российского, китайского, европейского агентов. Она возьмёт структуру дебатов из шаблона и заполнит персоны, ценности, бэкграунд под твой контекст автоматически.


⚠️

Ограничения

⚠️ Расход токенов: Метод требует 3 промпта (раунд 1, раунд 2, синтез) × число агентов. Для 5 агентов это ~10-15x больше токенов, чем прямая генерация. На GPT-4o/Claude дорого для массового использования.

⚠️ Область применения: Работает для вопросов с культурной вариативностью (традиции, ценности, социальные нормы, маркетинг, этика). Избыточен для технических задач с однозначным ответом ("столица Франции", "синтаксис Python").

⚠️ Качество персон: Если культурные персоны описаны стереотипно или поверхностно ("китайцы любят коллективизм"), агенты будут генерировать шаблонные ответы. Эффективность зависит от детальности и конкретности описания бэкграунда.

⚠️ Субъективные критерии: Оценка "культурной нейтральности" сама по себе субъективна. В исследовании использовали Multi-Agent Vote (MAV) — агрегацию оценок от нескольких судей-моделей, но даже это не гарантия абсолютной объективности.


🔗

Ресурсы

Mitigating Cultural Bias in LLMs via Multi-Agent Cultural Debate | Tan Q., Jiang L., Zeng Y., Ding S., Xu X. | University of Science and Technology of China, NVIDIA


📋 Дайджест исследования

Ключевая суть

Парадокс: промпт на китайском не устраняет западное предубеждение LLM — он сдвигает его к восточноазиатскому (с 60% "индеек" до 48% "хого"). Метод MACD позволяет генерировать культурно-нейтральные тексты для маркетинга, образования, HR-политик — когда нужно резонировать с аудиторией из разных культур одновременно. Фишка: вместо функциональных ролей ("планировщик", "критик") модель получает явные культурные персоны с конкретным бэкграундом (профессия, город, ценности). Они спорят в два раунда — сначала отвечают из своей позиции, потом ищут общие паттерны. Синтезатор объединяет сходства → 86% культурной нейтральности vs 69% у прямой генерации.

Принцип работы

Раунд 1: Каждая культурная персона отвечает из своей позиции — американский агент про "личные цели", китайский про "семейную гордость", африканский про "помощь сообществу". Раунд 2: агенты видят ответы друг друга и применяют принцип SCGRD (Seeking Common Ground while Reserving Differences) — отбрасывают культурно-специфичные детали, извлекают общую логику. Синтез: модель объединяет универсальные паттерны в культурно-нейтральный ответ. Всё через последовательные промпты в обычном чате — никакого кода.

Почему работает

LLM обучены на неравномерных датасетах — английский контент доминирует, внутри него преобладают западные источники. Модель предсказывает статистически частый следующий токен, поэтому при культурно-неопределённом промпте ("главное блюдо на празднике") генерирует "индейку" вместо нейтрального ответа. Промпт на китайском активирует другой кластер данных — теперь "хого", но предубеждение не исчезло, оно сместилось. MACD использует две сильные стороны LLM: модель хорошо симулирует разные роли (побочный эффект обучения на диалогах, литературе) и отлично работает с контрастом — когда видит несколько мнений, может абстрагироваться от специфики. Явные культурные персоны заставляют активировать разные кластеры знаний (не только доминантный), структурированные дебаты дают контрастные данные для абстрагирования. Модель видит "личные цели" (США), "семейная гордость" (Индия), "помощь сообществу" (Африка) → абстрагирует в "связь обучения с реальными результатами". Рост с 69% до 86% культурной нейтральности.

Когда применять

Маркетинг и контент для глобальных аудиторий → конкретно для лендингов, email-рассылок, соцсетей, где нужно резонировать с США, Азией, Африкой, Ближним Востоком одновременно. Образовательный контент → для онлайн-курсов, статей, учебных материалов с международной аудиторией. Этические дилеммы и HR-политики → когда нужен сбалансированный взгляд на вопросы ценностей, традиций, норм. НЕ подходит для технических задач с однозначным ответом ("столица Франции", "синтаксис Python") — избыточен и дорог в токенах (10-15x против прямой генерации).

Мини-рецепт

1. Задай культурные персоны: Для каждой целевой культуры опиши агента — конкретный бэкграунд (профессия, город), ключевые ценности (2-3 приоритета). Пример: "Агент А (США): предприниматель из Кремниевой долины, ценности — личный успех, конкуренция, автономия."

2. Раунд 1 — начальная позиция: Каждый агент отвечает на твой вопрос из своей культурной позиции. Инструкция: "Твой ответ из позиции {культура}."

3. Раунд 2 — поиск общего: Каждый агент читает ответы других и применяет принцип SCGRD: ищет общие ценности поверх различий, абстрагирует культурно-специфичные детали в универсальные принципы, сохраняет дополняющие инсайты.

4. Синтез: Модель-суммаризатор объединяет сходства из раунда 2, сохраняет дополняющие инсайты от разных культур, создаёт единый культурно-нейтральный ответ.

Примеры

[ПЛОХО] : Напиши текст для лендинга EdTech-платформы про мотивацию студентов (Получишь западно-центричный ответ про "личные достижения" и "геймификацию", если модель GPT-4o, или восточноазиатский про "семейную гордость", если DeepSeek — предубеждение никуда не делось)
[ХОРОШО] : Мне нужен культурно-нейтральный текст для лендинга EdTech. Вопрос: "Как мотивировать студентов к регулярному обучению?" Ты — система из 5 агентов (США: предприниматель, ценности — личный успех; Китай: учитель, ценности — семейная гордость; Кения: соцработник, ценности — взаимопомощь; ОАЭ: бизнесмен, ценности — семейные связи; Индия: IT-специалист, ценности — образование как лифт). Раунд 1: каждый отвечает из своей позиции. Раунд 2: ищите общие паттерны, абстрагируйте детали в универсальные принципы. Синтез: объедини в культурно-нейтральный текст (Получишь три блока — культурно-окрашенные ответы раунда 1 → откорректированные с акцентом на общее в раунде 2 → финальный синтез с универсальными механиками мотивации без привязки к конкретной культуре: "видимый прогресс", "связь с реальными результатами", "гибкость темпа", "поддержка на пути")
Источник: Mitigating Cultural Bias in LLMs via Multi-Agent Cultural Debate
ArXiv ID: 2601.12091 | Сгенерировано: 2026-01-21 05:32

Проблемы LLM

ПроблемаСутьКак обойти
Модель воспроизводит культурное предубеждение датасетаСпрашиваешь "главное блюдо на празднике". Модель отвечает "индейка" (западный ответ) или "хого" (восточноазиатский) — зависит от языка промпта. Предубеждение не исчезло, оно сместилось. Причина: датасет неравномерный. Западный контент доминирует в английском корпусе, восточноазиатский — в китайском. Модель предсказывает статистически частый токен. Проблема для задач где нужна культурная нейтральность: глобальный маркетинг, образовательный контент, этические рекомендацииНе полагайся на язык промпта. Создай несколько агентов с явными культурными персонами (западная, восточная, африканская). Попроси каждого ответить из своей позиции. Потом попроси найти общее между ответами и абстрагировать культурную специфику. Финальный ответ синтезируй из общих паттернов

Методы

МетодСуть
Дебаты агентов с культурными персонами (MACD)Задача: получить культурно-нейтральный ответ. Шаг 1: Создай 3-5 агентов с разными культурными идентичностями. Каждому задай бэкграунд (профессия, регион) и ценности (индивидуализм/коллективизм, иерархия/равенство). Каждый отвечает из своей позиции. Шаг 2: Каждый агент читает ответы других. Инструкция: "Найди общие ценности поверх культурных различий. Абстрагируй детали в универсальные принципы". Агенты переформулируют ответы с акцентом на общее. Шаг 3: Модель-суммаризатор объединяет сходства, сохраняет дополняющие инсайты. Почему работает: Явные персоны заставляют модель активировать разные кластеры знаний (не только доминантный). Контраст между ответами даёт модели материал для абстрагирования. Когда применять: культурно-окрашенные вопросы (традиции, ценности, маркетинг для глобальной аудитории, этика). Не работает: технические задачи с однозначным ответом, вопросы без культурной вариативности. Минус: расход токенов в 10-15 раз выше чем прямая генерация

Тезисы

ТезисКомментарий
Язык промпта сдвигает предубеждение, но не устраняет егоПишешь промпт на китайском вместо английского. Ожидаешь нейтральный ответ. Получаешь восточноазиатский вместо западного. Предубеждение сменило направление, но не исчезло. Механика: модель обучена на разных корпусах для разных языков. Язык промпта активирует кластер данных — английский западный корпус, китайский восточноазиатский корпус. Каждый кластер несёт своё предубеждение. Применяй: Не полагайся на язык как единственный инструмент нейтрализации. Используй явные инструкции ("учти западную и восточную перспективы") или множественные персоны
Явная культурная идентичность работает лучше функциональной ролиЗадаёшь агентам функциональные роли: "планировщик", "критик", "эксперт". Агенты воспроизводят предубеждение базовой модели в итоговый ответ. Задаёшь явные культурные персоны: "предприниматель из США, ценности: личный успех", "учитель из Китая, ценности: коллективная гармония". Агенты генерируют контрастные ответы. Почему: Функциональная роль не меняет активированный кластер знаний. Явная культурная идентичность (бэкграунд + регион + ценности) активирует специфичный кластер. Применяй: Когда создаёшь агентов, описывай персону детально: имя, профессия, город, 2-3 ключевые ценности. Вместо "агент А — критик" пиши "агент А — Мария, учитель из Мехико, ценности: семейные связи, традиции"
📖 Простыми словами

Mitigating Cultural Bias inLLMsvia Multi-Agent Cultural Debate

arXiv: 2601.12091

Современные нейросети — это не объективные мудрецы, а заложники своей статистики. Проблема в том, что LLM обучались на гигантских массивах текстов, где западный контент доминирует, поэтому по умолчанию модель думает как типичный американец или европеец. Если спросить её про «традиционный ужин», она выдаст индейку или стейк, просто потому что эти слова чаще встречаются в её базе. Даже если ты пишешь на китайском, модель не становится объективной, она просто переключает тумблер на другой культурный стереотип. Это скрытая предвзятость, которая портит всё: от маркетинга до бизнес-стратегий.

Это как если бы ты собрал консилиум по дизайну квартиры, но пригласил туда только фанатов скандинавского минимализма — в итоге всё будет белым и скучным, а мнение любителей ярких ковров или хай-тека никто не спросит. Метод MACD (Multi-Agent Cultural Debate) ломает эту систему. Вместо того чтобы надеяться на адекватность одной модели, мы создаем виртуальную «коммуналку», где за одним столом сидят агенты с жестко прописанными ролями: один топит за ценности Китая, другой — за арабский мир, третий — за Африку. Они не просто болтают, а ведут структурированные дебаты, отстаивая свои приоритеты, пока не придут к общему знаменателю.

Вместо абстрактных ролей вроде «критик» или «редактор», здесь используются явные культурные идентичности. Агенты получают детальный бэкграунд: во что они верят, что для них табу, а что — предел мечтаний. Например, при разработке системы мотивации для студентов «американец» будет настаивать на личных достижениях и лидерстве, а «китаец» — на долге перед семьей и коллективном успехе. В ходе спора они вычищают из текста узколобые штампы, оставляя только то, что реально резонирует с глобальной аудиторией.

Этот подход тестировали на сложных этических и социальных вопросах, но принцип универсален для любого бизнеса, который выходит за рамки своего района. Если ты делаешь лендинг для EdTech-стартапа или пишешь сценарий для глобального бренда, обычный ChatGPT выдаст тебе пресную «западную» жвачку. MACD превращает нейросеть в глобальный фокус-группу, которая находит точки соприкосновения между разными мирами. Это уже не просто генерация текста, а культурный синтез, который страхует тебя от нелепых факапов на новых рынках.

Короче: хватит кормить нейросеть общими промптами и ждать чуда. Если хочешь продукт для всего мира, заставь AI-агентов спорить друг с другом, представляя разные цивилизации. Мультиагентные дебаты — это единственный способ выбить из модели западную спесь и получить результат, который не покажется чужим ни в Дели, ни в Эр-Рияде. Кто продолжит игнорировать культурный контекст, тот так и будет продавать индейку тем, кто ждет хого.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с