TL;DR
LLM умеет говорить «по-человечески» в нужном культурном регистре — но делает это только когда его прямо об этом просят. Когда контекст намекает на нужный стиль косвенно — через ситуацию, детали, роли, — модель подхватывает лишь пятую часть от того, на что способна. Исследователи назвали это «разрывом явного и неявного» (explicit vs. implicit gap).
Боль реальная. Ты пишешь промпт с контекстом: «Я общаюсь с инвестором, у нас важная встреча, он много старше и опытнее». Думаешь: модель сама поймёт — нужна уважительная, осторожная, иерархически выверенная речь. Но нет. Модель ответит нейтрально, как будто разговаривает с коллегой на планёрке. Она видит контекст, но не вытаскивает из него нужное поведение.
Причина: LLM хорошо откликается на прямые инструкции стиля («отвечай с уважением к старшинству, избегай прямой критики») — и плохо выводит их самостоятельно из ситуативных деталей. Это не баг незнания — это баг деплоя: знание есть, но без явного запроса оно остаётся на полке. Форму для решения проблемы даёт трёхступенчатая диагностика промпта — метод проверить, что модель может, и потом получить это явно.
Схема метода (три промпта как диагностика + решение)
Все три запроса — отдельные сообщения. Можно в одном диалоге.
ПРОМПТ A (базовый): Только задача, без культурного/стилевого контекста
→ Смотришь: каков дефолтный стиль модели
ПРОМПТ B (явный): Та же задача + прямая инструкция нужного стиля/тона
→ Смотришь: на что модель способна «на максималках»
ПРОМПТ C (неявный): Та же задача + ситуативные детали (без прямой инструкции)
→ Смотришь: сколько нужного поведения появляется само
ВЫВОД: Если C ≠ B — используй формулировки из B как явную инструкцию
Диагностика нужна один раз. После — просто берёшь явную инструкцию из B и вставляешь в рабочий промпт.
Пример применения
Задача: Ты основатель стартапа, готовишь ответ Аркадию Воложу (архетип: старший, опытный, строгий к логике, ценит иерархию и профессионализм) на его скептический комментарий о вашей юнит-экономике.
Промпт A — базовый:
Аркадий написал: «Ваша юнит-экономика пока не убеждает.
CAC слишком высокий, LTV под вопросом».
Напиши мой ответ как основателя.
Промпт B — явный (рабочий инструмент):
Аркадий написал: «Ваша юнит-экономика пока не убеждает.
CAC слишком высокий, LTV под вопросом».
Напиши мой ответ как основателя.
Я общаюсь с опытным инвестором, который значительно старше и авторитетнее меня.
Используй тон уважительный, но не заискивающий. Не спорь в лоб — переформулируй
критику как вопрос, который я уже учёл. Покажи, что ценю его экспертизу.
Избегай защитной позиции.
Промпт C — неявный:
Аркадий написал: «Ваша юнит-экономика пока не убеждает.
CAC слишком высокий, LTV под вопросом».
Напиши мой ответ. Аркадий — один из создателей Яндекса,
у него за плечами 30 лет в индустрии, он вложил в сотни компаний,
сейчас занимается Mistral из Амстердама. Это наша третья встреча,
он ещё не принял решение об инвестиции.
Результат: Промпт A даст нейтральный деловой ответ — «Спасибо за обратную связь, вот наши цифры». Промпт C добавит чуть больше уважения, но всё равно останется ближе к A. Промпт B даст дипломатично выстроенный текст: признание проблемы → контекст → план → уважительное приглашение к диалогу. Это и есть рабочая версия.
Почему это работает
Слабость LLM: Модель генерирует текст, опираясь на то, что явно написано в промпте. Ситуативные детали она учитывает, но не интерпретирует в инструкции к себе. Это как сотрудник, которому дали подробное описание ситуации, но не сказали «веди себя вот так». Описание прочитал — поведение не изменил.
Сильная сторона LLM: Модель отлично следует явным инструкциям стиля и тона. Если написать «говори уважительно, избегай прямой критики, покажи что ценишь опыт собеседника» — это работает. Причём модель знает всё это сама по себе: Промпт B в исследовании показал, что способность есть — она просто не деплоится без запроса.
Механика разрыва: Исследование выявило, что иерархические/авторитетные сигналы передаются лучше всего через неявный контекст (PCS ~0.30), а индивидуализм vs. коллективизм — хуже всего (~0.12). То есть если тебе нужно уважение к статусу — контекст частично поможет. Если нужно переключить модель с «я-фрейма» на «мы-фрейм» (семья, команда, коллектив) — без явной инструкции почти не работает.
Рычаги управления: - Явная инструкция стиля → самый сильный рычаг, работает всегда - Ситуативные детали → дают ~20% эффекта, не заменяют инструкцию - Просьба хеджировать / выражать неуверенность → осторожно: alignment-дообучение подавляет хеджирование, и явная инструкция «будь осторожен в формулировках» может дать обратный эффект — чище и увереннее, чем базовый ответ
Шаблон промпта
Универсальный шаблон для задач, где нужен конкретный стиль, тон или культурная рамка:
{задача / ситуация}
Пиши в следующем стиле:
— Тон: {уважительный / дружеский / авторитетный / осторожный}
— Позиция: {я говорю как {роль} с {кем} — статус, отношения, контекст}
— Избегай: {прямой критики / защитной позиции / панибратства / категоричных утверждений}
— Особенно важно: {конкретное поведение, которое нужно проявить}
Что подставлять:
- {задача} — письмо, ответ, текст, сценарий диалога
- {роль} — основатель, HR, менеджер, автор, клиент
- {с кем} — инвестор, руководитель, партнёр, родитель, коллега
- {конкретное поведение} — «покажи что учёл его экспертизу», «переформулируй критику как вопрос», «используй мы-фрейм»
🚀 Быстрый старт — вставь в чат:
Помоги мне написать [тип текста] для [кому / в какой ситуации].
Задай вопросы, чтобы понять нужный стиль и тон:
— Кто получатель? Какой у него статус относительно меня?
— Какой тон нужен?
— Чего точно не должно быть в тексте?
— Что自 важно передать в отношениях / позиции?
[вставить шаблон выше]
LLM спросит про отношения с адресатом, иерархию, нужный тон и запреты — потому что именно явные инструкции стиля дают нужный результат, и ей нужны эти данные для заполнения плейсхолдеров.
Ограничения
⚠️ Хеджирование работает наоборот: Если хочешь, чтобы модель писала осторожнее, с оговорками и неопределённостью — прямой запрос «будь осторожен в формулировках» может дать более чёткий и уверенный текст, чем без инструкции. Это эффект alignment-дообучения: модели натренированы на чёткие ответы, и явный запрос активирует «режим полезного ответа». Работай с этим явно: «добавь оговорки там, где нет достаточно данных» — конкретнее, чем «будь осторожен».
⚠️ Коллективный фрейм требует особой явности: Переключить модель с «я решу / мне важно» на «мы семья / наше общее» почти не получается через контекст. Нужна прямая инструкция: «используй мы-фрейм, акцентируй общие обязательства, избегай личных интересов».
⚠️ Язык ≠ культура: Если ты пишешь промпт на хинди или урду — модель реагирует на грамматическую структуру языка, а не на культурные ассоциации. Написал на хинди — не значит что модель автоматически знает что ты из Индии и применит индийский культурный код. Культурный контекст всё равно нужно прописывать явно.
⚠️ Частичная работа неявных подсказок: Даже хорошие ситуативные детали дают только ~20% от возможного эффекта. Можно использовать как дополнение к явной инструкции, не как замену.
Как исследовали
Команда из Университетов Западной Австралии и Мюнстера построила 60 сценариев-дилемм — из жизни: конфликт с начальником, семейный займ, выбор между рискованным и надёжным лечением. Каждый сценарий прогоняли через три версии промпта (нейтральный → явный → неявный) на четырёх моделях: Gemini Flash, Grok, Ministral-8B, Mimo. Пять языков: английский, немецкий, хинди, непальский, урду.
Оценивали автоматически — тройка LLM-судей ставила баллы по 12 поведенческим признакам: насколько текст уважителен к иерархии, насколько коллективистский фрейм, насколько осторожен в неопределённости. Судьи прошли валидацию на согласованность (Krippendorff α = 0.66).
Интересный дизайнерский ход: хинди и урду намеренно включили как «естественный контроль» — языки почти идентичны грамматически, но несут разные культурные ассоциации. Если модели реагируют на культуру, а не на язык — хинди и урду должны давать разные базовые ответы. Они не давали (p = 0.339). Вывод: модель читает грамматику, не культурный флаг языка.
Главный неожиданный результат — не сам разрыв (20% восстановления), а то, что хеджирование ведёт себя противоположно ожидаемому: явная инструкция «выражай неуверенность» снижает хеджирование относительно нейтрального промпта. Этого не ждали — и это прямое следствие alignment-обучения, которое учит модели давать чёткие, уверенные ответы.
Адаптации и экстраполяции
💡 Диагностика «что может модель»
Три промпта из исследования — готовый инструмент для любой задачи, где ты не уверен как лучше сформулировать:
🔧 Техника: A→B→C как калибровка промпта
ШАГ 1 (A): Напиши {текст} — без всяких инструкций по стилю.
Смотришь: дефолт модели.
ШАГ 2 (B): Напиши {текст}. Стиль: {нужный стиль максимально явно}.
Смотришь: потолок модели.
ШАГ 3: Берёшь инструкцию из B и вставляешь в рабочий шаблон — готово.
Это работает не только для культурного контекста. Тон, аудитория, позиция, эмоциональная окраска — везде, где дефолт модели тебя не устраивает.
💡 Адаптация для деловой переписки
💡 «Мы-фрейм» для переговоров с партнёром или клиентом
Если нужно переключиться с позиции «я/мне выгодно» на «нам вместе выгодно» — модель не сделает это сама даже при богатом контексте. Явная инструкция:
{задача — текст переговоров / предложение / ответ на возражение}
Используй мы-фрейм: говори о совместных интересах, общих целях,
взаимной выгоде. Избегай формулировок «я хочу», «мне нужно»,
«мы предлагаем вам» — заменяй на «нам важно», «вместе мы»,
«это решает нашу общую задачу».
💡 Адаптация для HR и руководителей
Обратная ситуация — когда нужно написать от лица руководителя сотруднику: не в иерархическом, а в равном тоне. Модель по умолчанию тоже часто промахивается.
Напиши сообщение сотруднику по поводу {ситуация}.
Тон: равный, без патернализма. Я — руководитель, но сейчас говорю
как коллега, не как начальник. Без «нам важно чтобы вы» и
без сухого официоза. Просто и по-человечески.
Ресурсы
Название работы: Do LLMs Use Cultural Knowledge Without Being Told? A Multilingual Evaluation of Implicit Pragmatic Adaptation
Авторы: Mehwish Nasim, Sanjeevan Selvaganapathy, Neel Ganapathi Sabhahit, Marie Griesbach, Pranav Bhandari, Janina Lütke Stockdiek, Lennart Schäpermeier, Usman Naseem, Christian Grimme
Организации: NASIM Lab, University of Western Australia; Macquarie University; University of Münster
Связанные работы упомянутые в статье: Veselovsky et al. (2025) — explicit-implicit localisation gap; SocialCC (Wu et al., 2025); CulturalBench (Chiu et al., 2025); NormAd (Rao et al., 2025)
