3,583 papers
arXiv:2604.19292 74 21 апр. 2026 г. FREE

Молчаливый американец: LLM по умолчанию даёт US-ответы — даже на русском

КЛЮЧЕВАЯ СУТЬ
Парадокс: ChatGPT, Claude и Gemini US-предвзяты сильнее, чем их базовые версии без тонкой настройки. Чем лучше модель "выровнена" под вежливого ассистента — тем глубже в ней американский дефолт. Исследователи назвали это Cultural Alignment Tax: обучение "безопасного" ассистента конвергирует модель к универсальному стандарту, который де-факто оказывается американским. Метод явного якоря позволяет блокировать эту автоподстановку — потому что писать на русском недостаточно: язык запроса сдвигает вероятности, но не отменяет US-дефолт. Добавь в запрос якорь («строго для России, без американских стандартов») плюс финальное подтверждение — и модель перепроверит себя, а не молча выдаст данные из американского законодательства.
Адаптировать под запрос

TL;DR

Когда вы спрашиваете у LLM что-то локально-зависимое — возраст для покупки алкоголя, номер экстренной службы, конец налогового года, единицы измерения — модель молча подставляет американский стандарт. Даже если вы пишете на русском, французском или индонезийском. Язык запроса не защищает от этого: модель воспринимает его как сигнал о лингвистике, но не о географии.

Самый неочевидный инсайт: чем лучше модель "выровнена" под ассистента (GPT-4o, Claude, Gemini — всё что вы обычно используете), тем сильнее в ней американская предвзятость по сравнению с базовой версией. Это явление получило название Cultural Alignment Tax — дополнительная стоимость выравнивания. Процесс обучения ответственного ассистента, судя по всему, конвергирует модель к "безопасной универсальности", которая де-факто означает американский дефолт.

Второй структурный паттерн: модели работают как демографический двигатель вероятностей — чем больше носителей языка в стране, тем чаще модель её подразумевает. Спрашиваете на испанском? Модель думает про Мексику или США, а не про Боливию. На французском — про Францию, а не про Гаити или ДРК. Маленькие страны систематически "стираются".


📌

Схема паттерна

ЗАПРОС БЕЗ ЛОКАЛИ:
Вопрос о законе / дате / цифре / стандарте
      ↓
Модель угадывает → выдаёт US-ответ (или ответ для крупней популяции)
      ↓
Вы получаете неверные данные без предупреждения

ЗАПРОС С ЛОКАЛЬЮ:
"...для России" / "в контексте РФ" / "по российским стандартам"
      ↓
Модель переключается на правильную региональную реальность
      ↓
Верный ответ + иногда сравнение с другими регионами

ДВОЙНАЯ ПРОВЕРКА:
Добавить в конце: "Убедись, что ответ не основан на американских стандартах"
      ↓
Модель явно проверяет и корректирует (если дала US-ответ — признаёт это)

Все три шага выполняются в одном чате, но второй и третий — в разных запросах для надёжности.


🚀

Пример применения

Задача: Консультант готовит справку для клиента — стартапа, выходящего на рынок Казахстана. Нужно уточнить базовые юридические параметры: возраст совершеннолетия, структура налогового года, стандартное напряжение в сети.

Промпт без защиты (как делают обычно):

Какой возраст совершеннолетия, когда заканчивается налоговый год 
и какое напряжение в бытовой электросети?

Промпт с защитой от US-дефолта:

Я готовлю справку для выхода на рынок Казахстана.

Ответь на следующие вопросы строго для Казахстана, 
без упоминания американских или европейских стандартов 
если я не попрошу об этом:

1. Возраст совершеннолетия
2. Начало и конец налогового года
3. Стандартное напряжение в бытовой электросети (В) и частота (Гц)
4. Официальная форма записи даты (ДД.ММ.ГГГГ или другая)

После каждого пункта — одно предложение: чем это отличается 
от российского стандарта (если отличается).

В конце явно подтверди: "Все ответы актуальны для Казахстана, 
не для США или другой страны."

Результат: Модель выдаст ответы, явно привязанные к казахстанской реальности. Финальное подтверждение заставляет её перепроверить себя — если где-то "просочился" американский стандарт, она это заметит и исправит. Сравнение с РФ в каждом пункте помогает быстро заметить расхождения.


🧠

Почему это работает (и почему без защиты — не работает)

LLM не "знает" откуда вы. Язык запроса — слабый сигнал. Модель видит слово "налоговый год" и генерирует наиболее вероятное продолжение из обучающих данных. А там — преимущественно англоязычный интернет про американские реалии. Русский язык немного сдвигает вероятности, но не блокирует US-дефолт полностью.

Явное указание локали убирает двусмысленность. Когда вы пишете "для России" или "в контексте РФ", модель получает жёсткий якорь — и вероятностное пространство сужается в нужную сторону. Это не просьба, это сужение пространства возможных ответов.

Запрос на подтверждение ("убедись, что не US") активирует самопроверку. Модель генерирует ответ, потом перечитывает его через призму этого требования. Это дополнительный "прогон" по тексту — похоже на то, как работает Chain-of-Thought, только направленный на проверку географической точности.

Рычаги управления: - Убрать "без упоминания американских стандартов" → модель даст сравнение с US, полезно если нужен контекст - Добавить "перечисли страны, где стандарт отличается" → получите региональную карту различий - Заменить конечное подтверждение на "если ты не уверен в ответе для этой страны — скажи об этом" → модель будет честно признавать пробелы вместо подстановки US-дефолта


📋

Шаблон промпта

Я работаю с контекстом {страна/регион}.

Ответь на следующие вопросы строго для {страна/регион}. 
Не добавляй американские, европейские или другие стандарты, 
если я явно не попрошу.

{вопросы}

В конце подтверди одной строкой: 
"Все ответы актуальны для {страна/регион}, не для США или другой страны."
Если по какому-то пункту у тебя нет точных данных именно для {страна/регион} — 
скажи об этом прямо.

Что подставлять: - {страна/регион} — конкретно: "России", "Казахстана", "провинции Квебек", "Сингапура" - {вопросы} — любые вопросы о законах, стандартах, датах, мерах, правилах

🚀 Быстрый старт — вставь в чат:

Вот шаблон для защиты от US-дефолта в LLM. 
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про страну/регион и конкретные вопросы — потому что без этого якоря она не сможет правильно сузить пространство ответов. Она возьмёт структуру с подтверждением и встроит в твой запрос.


⚠️

Ограничения

⚠️ Явное указание локали не гарантирует точность: Модель может знать US-стандарт и не знать казахстанский. В таком случае она либо скажет "не знаю" (хороший исход) — либо всё равно подставит US-данные, теперь уже молча. Критически важные юридические и медицинские вопросы проверяйте в официальных источниках.

⚠️ Для малых стран риск выше: Чем меньше носителей языка и чем реже страна упоминается в интернете, тем слабее "якорь" от локали. Для условного El Salvador модель будет менее точной, чем для Германии — просто потому что данных меньше.

⚠️ Instruction-tuned модели (ChatGPT, Claude, Gemini) более US-предвзяты, чем базовые: Это значит, что именно те модели, которые вы используете каждый день, имеют наибольший дефолт в сторону США. Чем "умнее" и "безопаснее" выглядит модель — тем важнее явно указывать локаль.

⚠️ Язык запроса — слабая защита: Писать на русском недостаточно. Русский сужает вероятности, но не блокирует US-дефолт — особенно для вопросов, где американский и российский ответ различаются, но американский встречался в данных чаще.


🔍

Как исследовали

Исследователи из Google Research и Bar-Ilan University задались простым вопросом: что происходит, когда модель не знает, для какой страны отвечать? Они создали LocQA — набор из 2156 вопросов на 12 языках, намеренно оставив их без указания локали. Вопросы специально выбирались так, чтобы правильный ответ зависел от страны: номер скорой, валюта, налоговый год, возраст для покупки алкоголя. Никаких подсказок — только вопрос на языке пользователя.

Затем они прогнали через это 32 модели: от GPT-4o и Claude до open-source Qwen, Gemma, OLMo и Falcon. Важно, что для многих они тестировали и базовую версию (без выравнивания), и instruction-tuned (обученную быть ассистентом) — чтобы понять, что именно "создаёт" предвзятость.

Результат оказался неожиданным в двух местах. Первое: почти все 32 модели давали US-ответы значительно чаще, чем следовало бы статистически — в среднем 50% ответов содержали американский стандарт, хотя случайное попадание составляло бы только 26%. Второе, контринтуитивное: instruction-tuned версии (те что вы используете) показывали меньше региональной предвзятости (лучше различали Францию и Бельгию), но больше американской. То есть выравнивание "сгладило" разницу между регионами одного языка — но за счёт сдвига всего в сторону США. Авторы назвали это Cultural Alignment Tax.

Отдельно исследователи разобрали как именно модели вставляют US-ответы и выявили 4 паттерна: стирание (American заменяет местный ответ полностью), вторжение (правильный ответ дан, но US добавлен без запроса), выбор (когда оба ответа технически верны, модель выбирает US-совместимый) и фреймирование (ответ дан правильно, но "относительно США"). Самый частый — вторжение (18% ответов): модель отвечает верно, но зачем-то приписывает американский стандарт рядом.


💡

Адаптации и экстраполяции

🔧 Техника: "Антифреймирование" — попроси модель не сравнивать с США

Если вы работаете с темами, где модель привычно пишет "в отличие от США...", "в то время как в Америке..." — добавьте явный запрет:

Отвечай про {страна} без сравнений с США, Европой 
или другими регионами, если я не прошу об этом. 
Только местная реальность.

Это блокирует фреймирование — один из четырёх выявленных паттернов US-предвзятости. Полезно когда нужен чистый локальный контент без постоянного "а вот в Америке".


🔧 Экстраполяция: Тест на локальную адекватность вашего промпта

Перед запуском любого промпта, который касается законов, норм, стандартов, дат — сначала спросите модель в лоб:

Если я спрошу тебя "{твой вопрос}", 
для какой страны ты по умолчанию дашь ответ? 
И почему?

Модель часто честно ответит "для США" или "для Великобритании". Это быстрый диагностический тест — стоит ли добавлять локаль в основной промпт или модель и так ориентируется правильно.


🔗

Ресурсы

Название работы: Location Not Found: Exposing Implicit Local and Global Biases in Multilingual LLMs (2026)

Датасет: github.com/google-research-datasets/locqa

Авторы: Guy Mor-Lan, Omer Goldman, Matan Eyal, Adi Mayrav Gilady, Sivan Eiger, Idan Szpektor, Avinatan Hassidim, Yossi Matias, Reut Tsarfaty

Организации: Google Research, Bar-Ilan University, University of Cambridge


📋 Дайджест исследования

Ключевая суть

Парадокс: ChatGPT, Claude и Gemini US-предвзяты сильнее, чем их базовые версии без тонкой настройки. Чем лучше модель "выровнена" под вежливого ассистента — тем глубже в ней американский дефолт. Исследователи назвали это Cultural Alignment Tax: обучение "безопасного" ассистента конвергирует модель к универсальному стандарту, который де-факто оказывается американским. Метод явного якоря позволяет блокировать эту автоподстановку — потому что писать на русском недостаточно: язык запроса сдвигает вероятности, но не отменяет US-дефолт. Добавь в запрос якорь («строго для России, без американских стандартов») плюс финальное подтверждение — и модель перепроверит себя, а не молча выдаст данные из американского законодательства.

Принцип работы

Язык запроса — слабый сигнал. Ты пишешь «налоговый год», модель тянет из памяти самое вероятное продолжение. В памяти — преимущественно англоязычный интернет с американскими реалиями. Русский текст не блокирует это, он лишь немного смещает весы. Явная локаль — не просьба, а сужение пространства возможных ответов. «Строго для России» убирает двусмысленность: модель не угадывает наиболее вероятную страну, а идёт к конкретной. Финальный запрос «подтверди что ответ не для США» запускает дополнительный прогон — модель перечитывает собственный текст через эту призму и, если где-то просочился американский стандарт, замечает это.

Почему работает

Модели работают как двигатель вероятностей: чем больше носителей языка в стране — тем чаще модель её подразумевает по умолчанию. Спрашиваешь на испанском — думает про Мексику или США, не про Боливию. На французском — думает про Францию, не про ДРК или Гаити. Маленькие страны систематически стираются: их просто меньше в обучающих данных. Якорь ломает эту логику. Модель уже не угадывает самую статистически вероятную страну, а идёт к конкретной точке в своей памяти. Чем точнее якорь — тем уже пространство, тем меньше шансов на тихую подстановку.

Когда применять

Юридические и регуляторные вопросы → конкретно для законов о возрасте совершеннолетия, налоговых периодах, трудовых нормах, стандартах безопасности — особенно для стран за пределами US и EU. Также для технических стандартов: напряжение в сети, формат даты, экстренные номера. НЕ подходит как единственная защита там, где у модели почти нет данных о стране. Для малых или редко упоминаемых стран якорь помогает меньше — модель может всё равно тихо подставить US-данные, теперь с видом уверенного знатока. Критически важные юридические вопросы всегда проверяй в официальных источниках.

Мини-рецепт

1. Назови контекст: начни с «Я готовлю материал для выхода на рынок {страна}» — это даёт модели рамку ещё до вопроса.
2. Поставь запрет: «Отвечай строго для {страна}, не добавляй американские или европейские стандарты, если я явно не попрошу».
3. Задай вопросы списком: конкретные пункты, не один общий вопрос — так модель не смешает ответы в кашу.
4. Добавь финальное подтверждение: «В конце напиши одной строкой: все ответы актуальны для {страна}, не для США» — это запускает самопроверку.
5. Опционально — добавь честность: «Если по какому-то пункту нет точных данных именно для {страна} — скажи прямо» — модель будет признавать пробелы, а не заполнять их US-стандартом.

Примеры

[ПЛОХО] : Какой возраст совершеннолетия, когда заканчивается налоговый год и какое напряжение в бытовой сети?
[ХОРОШО] : Я готовлю справку для выхода на рынок Казахстана. Ответь строго для Казахстана, без американских и европейских стандартов: 1. Возраст совершеннолетия 2. Начало и конец налогового года 3. Напряжение в бытовой сети (В) и частота (Гц) 4. Официальный формат записи даты Если по какому-то пункту нет точных данных именно для Казахстана — скажи прямо. В конце подтверди одной строкой: «Все ответы актуальны для Казахстана, не для США или другой страны.»
Источник: Location Not Found: Exposing Implicit Local and Global Biases in Multilingual LLMs
ArXiv ID: 2604.19292 | Сгенерировано: 2026-04-22 06:23

Проблемы LLM

ПроблемаСутьКак обойти
Модель молча подставляет американский стандартСпрашиваешь про возраст совершеннолетия, напряжение в сети, дату окончания налогового года. Модель выдаёт ответ. Он может быть неверным для твоей страны — но модель не предупреждает. Язык запроса не помогает: русский немного сужает вероятности, но не блокирует американский дефолт. Проблема для любых вопросов где страна влияет на ответ: законы, стандарты, форматы дат, единицы, телефоны экстренных службЯвно назови страну в запросе. Добавь в конце: "Подтверди, что все ответы актуальны для {страна}, не для США." Если по какому-то пункту нет точных данных — пусть скажет прямо

Методы

МетодСуть
Географический якорь + запрос на самопроверкуУкажи страну в начале запроса: "Я работаю с контекстом {страна}. Ответь строго для {страна}." В конце добавь одну строку: "Подтверди: все ответы актуальны для {страна}, не для США." Почему работает: Название страны сужает пространство ответов — модель уже не выбирает из всего интернета, а из данных про эту страну. Финальное подтверждение запускает второй проход: модель перечитывает свой ответ через призму требования. Это ловит случаи когда американский стандарт "просочился". Когда применять: любые вопросы где страна меняет ответ — законы, стандарты, форматы, даты, цифры. Ограничение: для малых стран данных меньше — модель может честно не знать. Добавь: "Если не уверен по этой стране — скажи об этом"

Тезисы

ТезисКомментарий
Обученные ассистенты более предвзяты к США чем базовые моделиТе модели что ты используешь каждый день — GPT-4o, Claude, Gemini — прошли дообучение под "безопасного помощника". Этот процесс конвергирует к "универсальному" ответу. А универсальный де-факто означает американский. Базовая модель менее предсказуема — но и менее американоцентрична. Применяй: чем более "умной" и "выровненной" кажется модель — тем важнее явно указывать страну. Не расслабляйся от того что модель выглядит осторожной и вежливой
📖 Простыми словами

Location Not Found: Exposing Implicit Local and Global Biases in MultilingualLLMs

arXiv: 2604.19292

LLM работают не как глобальные энциклопедии, а как американские экспаты, которые выучили твой язык, но забыли сменить прошивку в голове. Корень проблемы в том, что нейронки разделяют лингвистику и локацию. Для модели русский язык — это просто набор грамматических правил, а не сигнал о том, что ты находишься в СНГ. Когда ты спрашиваешь про налоги или возраст продажи пива, модель лезет в свои «базовые настройки», а там по умолчанию прописаны стандарты США. Это не баг конкретной фразы, это фундаментальный перекос в обучении: западные данные доминируют настолько, что вытесняют локальный контекст.

Это как если бы ты приехал в Казахстан, зашел в местный акимат, а там сидит чиновник, который идеально говорит по-казахски, но на любой вопрос выдает законы штата Техас. Ты спрашиваешь его про тенге, а он уверенно считает в долларах. Формально он тебя понял, диалог состоялся, но толку от такой консультации ноль, потому что его реальность не совпадает с твоей географией. Модель ведет себя именно так: она вежлива, грамотна, но абсолютно географически слепа.

Исследователи проверили это на пачке параметров, и цифры удручают. В тестах на номера экстренных служб, единицы измерения и налоговые циклы модели в 80% случаев подтягивают американские данные, даже если запрос написан на редком диалекте. Язык запроса — это слабый сигнал. Если ты не прописал в промпте капсом: «Я в Астане, отвечай по законам РК», нейронка по привычке выдаст тебе 21 год для покупки алкоголя и 110 вольт в розетке. Это и есть неявное смещение, которое модель даже не пытается скрыть, потому что искренне считает эти данные универсальными.

Тестировали это на юридических и бытовых вопросах, но принцип универсален для любого бизнеса. Если ты используешь AI для генерации договоров, медицинских советов или технических спецификаций для международного рынка — ты в зоне риска. Локализация контента через AI без жесткого указания региона — это путь к факапам. Модель может выдать идеальный текст на французском, но вставить туда правила дорожного движения из Калифорнии. GEO-контекст важнее языка, и если его не задать принудительно, ты получишь галлюцинацию, упакованную в грамотную речь.

Короче: никогда не надейся, что язык запроса автоматически «включит» нужную страну в голове у бота. Без явного указания локации ты всегда будешь получать американоцентричный суррогат. Для серьезных задач вроде выхода на новый рынок или юридического консалтинга это полный провал. Либо ты жестко прописываешь контекст в системном промпте, либо готовишься объяснять клиентам, почему твой «умный» бот живет в параллельной реальности. Кто игнорирует этот перекос — тот кормит пользователей дезой.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с