3,583 papers
arXiv:2604.17718 76 20 апр. 2026 г. FREE

Явный контекст vs. неявный: LLM не читает между строк — и что с этим делать

КЛЮЧЕВАЯ СУТЬ
Из всего, что модель умеет по части стиля и тона, самостоятельно появляется только пятая часть — даже если ты описал ситуацию подробно. Трёхшаговая диагностика позволяет нащупать точные формулировки явных инструкций и перенести их в рабочий промпт раз и навсегда. Прогоняешь задачу через три варианта промпта: без контекста, с явной инструкцией стиля и с ситуативными деталями без инструкции — и видишь разрыв. Всё что явный вариант даёт лучше неявного — переноси как прямую инструкцию в рабочий промпт. Модель читает ситуативный контекст, но следует только явным командам — и это не баг незнания, знание есть, оно просто не включается без прямого запроса.
Адаптировать под запрос

TL;DR

LLM умеет говорить «по-человечески» в нужном культурном регистре — но делает это только когда его прямо об этом просят. Когда контекст намекает на нужный стиль косвенно — через ситуацию, детали, роли, — модель подхватывает лишь пятую часть от того, на что способна. Исследователи назвали это «разрывом явного и неявного» (explicit vs. implicit gap).

Боль реальная. Ты пишешь промпт с контекстом: «Я общаюсь с инвестором, у нас важная встреча, он много старше и опытнее». Думаешь: модель сама поймёт — нужна уважительная, осторожная, иерархически выверенная речь. Но нет. Модель ответит нейтрально, как будто разговаривает с коллегой на планёрке. Она видит контекст, но не вытаскивает из него нужное поведение.

Причина: LLM хорошо откликается на прямые инструкции стиля («отвечай с уважением к старшинству, избегай прямой критики») — и плохо выводит их самостоятельно из ситуативных деталей. Это не баг незнания — это баг деплоя: знание есть, но без явного запроса оно остаётся на полке. Форму для решения проблемы даёт трёхступенчатая диагностика промпта — метод проверить, что модель может, и потом получить это явно.


🔬

Схема метода (три промпта как диагностика + решение)

Все три запроса — отдельные сообщения. Можно в одном диалоге.

ПРОМПТ A (базовый): Только задача, без культурного/стилевого контекста
→ Смотришь: каков дефолтный стиль модели

ПРОМПТ B (явный): Та же задача + прямая инструкция нужного стиля/тона
→ Смотришь: на что модель способна «на максималках»

ПРОМПТ C (неявный): Та же задача + ситуативные детали (без прямой инструкции)
→ Смотришь: сколько нужного поведения появляется само

ВЫВОД: Если C ≠ B — используй формулировки из B как явную инструкцию

Диагностика нужна один раз. После — просто берёшь явную инструкцию из B и вставляешь в рабочий промпт.


🚀

Пример применения

Задача: Ты основатель стартапа, готовишь ответ Аркадию Воложу (архетип: старший, опытный, строгий к логике, ценит иерархию и профессионализм) на его скептический комментарий о вашей юнит-экономике.


Промпт A — базовый:

Аркадий написал: «Ваша юнит-экономика пока не убеждает. 
CAC слишком высокий, LTV под вопросом».

Напиши мой ответ как основателя.

Промпт B — явный (рабочий инструмент):

Аркадий написал: «Ваша юнит-экономика пока не убеждает. 
CAC слишком высокий, LTV под вопросом».

Напиши мой ответ как основателя. 

Я общаюсь с опытным инвестором, который значительно старше и авторитетнее меня. 
Используй тон уважительный, но не заискивающий. Не спорь в лоб — переформулируй 
критику как вопрос, который я уже учёл. Покажи, что ценю его экспертизу. 
Избегай защитной позиции.

Промпт C — неявный:

Аркадий написал: «Ваша юнит-экономика пока не убеждает. 
CAC слишком высокий, LTV под вопросом».

Напиши мой ответ. Аркадий — один из создателей Яндекса, 
у него за плечами 30 лет в индустрии, он вложил в сотни компаний, 
сейчас занимается Mistral из Амстердама. Это наша третья встреча, 
он ещё не принял решение об инвестиции.

Результат: Промпт A даст нейтральный деловой ответ — «Спасибо за обратную связь, вот наши цифры». Промпт C добавит чуть больше уважения, но всё равно останется ближе к A. Промпт B даст дипломатично выстроенный текст: признание проблемы → контекст → план → уважительное приглашение к диалогу. Это и есть рабочая версия.


🧠

Почему это работает

Слабость LLM: Модель генерирует текст, опираясь на то, что явно написано в промпте. Ситуативные детали она учитывает, но не интерпретирует в инструкции к себе. Это как сотрудник, которому дали подробное описание ситуации, но не сказали «веди себя вот так». Описание прочитал — поведение не изменил.

Сильная сторона LLM: Модель отлично следует явным инструкциям стиля и тона. Если написать «говори уважительно, избегай прямой критики, покажи что ценишь опыт собеседника» — это работает. Причём модель знает всё это сама по себе: Промпт B в исследовании показал, что способность есть — она просто не деплоится без запроса.

Механика разрыва: Исследование выявило, что иерархические/авторитетные сигналы передаются лучше всего через неявный контекст (PCS ~0.30), а индивидуализм vs. коллективизм — хуже всего (~0.12). То есть если тебе нужно уважение к статусу — контекст частично поможет. Если нужно переключить модель с «я-фрейма» на «мы-фрейм» (семья, команда, коллектив) — без явной инструкции почти не работает.

Рычаги управления: - Явная инструкция стиля → самый сильный рычаг, работает всегда - Ситуативные детали → дают ~20% эффекта, не заменяют инструкцию - Просьба хеджировать / выражать неуверенность → осторожно: alignment-дообучение подавляет хеджирование, и явная инструкция «будь осторожен в формулировках» может дать обратный эффект — чище и увереннее, чем базовый ответ


📋

Шаблон промпта

Универсальный шаблон для задач, где нужен конкретный стиль, тон или культурная рамка:

{задача / ситуация}

Пиши в следующем стиле:
— Тон: {уважительный / дружеский / авторитетный / осторожный}
— Позиция: {я говорю как {роль} с {кем} — статус, отношения, контекст}
— Избегай: {прямой критики / защитной позиции / панибратства / категоричных утверждений}
— Особенно важно: {конкретное поведение, которое нужно проявить}

Что подставлять: - {задача} — письмо, ответ, текст, сценарий диалога - {роль} — основатель, HR, менеджер, автор, клиент - {с кем} — инвестор, руководитель, партнёр, родитель, коллега - {конкретное поведение} — «покажи что учёл его экспертизу», «переформулируй критику как вопрос», «используй мы-фрейм»


🚀 Быстрый старт — вставь в чат:

Помоги мне написать [тип текста] для [кому / в какой ситуации]. 
Задай вопросы, чтобы понять нужный стиль и тон:
— Кто получатель? Какой у него статус относительно меня?
— Какой тон нужен?
— Чего точно не должно быть в тексте?
— Что自 важно передать в отношениях / позиции?

[вставить шаблон выше]

LLM спросит про отношения с адресатом, иерархию, нужный тон и запреты — потому что именно явные инструкции стиля дают нужный результат, и ей нужны эти данные для заполнения плейсхолдеров.


⚠️

Ограничения

⚠️ Хеджирование работает наоборот: Если хочешь, чтобы модель писала осторожнее, с оговорками и неопределённостью — прямой запрос «будь осторожен в формулировках» может дать более чёткий и уверенный текст, чем без инструкции. Это эффект alignment-дообучения: модели натренированы на чёткие ответы, и явный запрос активирует «режим полезного ответа». Работай с этим явно: «добавь оговорки там, где нет достаточно данных» — конкретнее, чем «будь осторожен».

⚠️ Коллективный фрейм требует особой явности: Переключить модель с «я решу / мне важно» на «мы семья / наше общее» почти не получается через контекст. Нужна прямая инструкция: «используй мы-фрейм, акцентируй общие обязательства, избегай личных интересов».

⚠️ Язык ≠ культура: Если ты пишешь промпт на хинди или урду — модель реагирует на грамматическую структуру языка, а не на культурные ассоциации. Написал на хинди — не значит что модель автоматически знает что ты из Индии и применит индийский культурный код. Культурный контекст всё равно нужно прописывать явно.

⚠️ Частичная работа неявных подсказок: Даже хорошие ситуативные детали дают только ~20% от возможного эффекта. Можно использовать как дополнение к явной инструкции, не как замену.


🔍

Как исследовали

Команда из Университетов Западной Австралии и Мюнстера построила 60 сценариев-дилемм — из жизни: конфликт с начальником, семейный займ, выбор между рискованным и надёжным лечением. Каждый сценарий прогоняли через три версии промпта (нейтральный → явный → неявный) на четырёх моделях: Gemini Flash, Grok, Ministral-8B, Mimo. Пять языков: английский, немецкий, хинди, непальский, урду.

Оценивали автоматически — тройка LLM-судей ставила баллы по 12 поведенческим признакам: насколько текст уважителен к иерархии, насколько коллективистский фрейм, насколько осторожен в неопределённости. Судьи прошли валидацию на согласованность (Krippendorff α = 0.66).

Интересный дизайнерский ход: хинди и урду намеренно включили как «естественный контроль» — языки почти идентичны грамматически, но несут разные культурные ассоциации. Если модели реагируют на культуру, а не на язык — хинди и урду должны давать разные базовые ответы. Они не давали (p = 0.339). Вывод: модель читает грамматику, не культурный флаг языка.

Главный неожиданный результат — не сам разрыв (20% восстановления), а то, что хеджирование ведёт себя противоположно ожидаемому: явная инструкция «выражай неуверенность» снижает хеджирование относительно нейтрального промпта. Этого не ждали — и это прямое следствие alignment-обучения, которое учит модели давать чёткие, уверенные ответы.


💡

Адаптации и экстраполяции

📌

💡 Диагностика «что может модель»

Три промпта из исследования — готовый инструмент для любой задачи, где ты не уверен как лучше сформулировать:

🔧 Техника: A→B→C как калибровка промпта

ШАГ 1 (A): Напиши {текст} — без всяких инструкций по стилю.
            Смотришь: дефолт модели.

ШАГ 2 (B): Напиши {текст}. Стиль: {нужный стиль максимально явно}.
            Смотришь: потолок модели.

ШАГ 3: Берёшь инструкцию из B и вставляешь в рабочий шаблон — готово.

Это работает не только для культурного контекста. Тон, аудитория, позиция, эмоциональная окраска — везде, где дефолт модели тебя не устраивает.


📌

💡 Адаптация для деловой переписки

💡 «Мы-фрейм» для переговоров с партнёром или клиентом

Если нужно переключиться с позиции «я/мне выгодно» на «нам вместе выгодно» — модель не сделает это сама даже при богатом контексте. Явная инструкция:

{задача — текст переговоров / предложение / ответ на возражение}

Используй мы-фрейм: говори о совместных интересах, общих целях, 
взаимной выгоде. Избегай формулировок «я хочу», «мне нужно», 
«мы предлагаем вам» — заменяй на «нам важно», «вместе мы», 
«это решает нашу общую задачу».

📌

💡 Адаптация для HR и руководителей

Обратная ситуация — когда нужно написать от лица руководителя сотруднику: не в иерархическом, а в равном тоне. Модель по умолчанию тоже часто промахивается.

Напиши сообщение сотруднику по поводу {ситуация}.

Тон: равный, без патернализма. Я — руководитель, но сейчас говорю 
как коллега, не как начальник. Без «нам важно чтобы вы» и 
без сухого официоза. Просто и по-человечески.

🔗

Ресурсы

Название работы: Do LLMs Use Cultural Knowledge Without Being Told? A Multilingual Evaluation of Implicit Pragmatic Adaptation

Авторы: Mehwish Nasim, Sanjeevan Selvaganapathy, Neel Ganapathi Sabhahit, Marie Griesbach, Pranav Bhandari, Janina Lütke Stockdiek, Lennart Schäpermeier, Usman Naseem, Christian Grimme

Организации: NASIM Lab, University of Western Australia; Macquarie University; University of Münster

Связанные работы упомянутые в статье: Veselovsky et al. (2025) — explicit-implicit localisation gap; SocialCC (Wu et al., 2025); CulturalBench (Chiu et al., 2025); NormAd (Rao et al., 2025)


📋 Дайджест исследования

Ключевая суть

Из всего, что модель умеет по части стиля и тона, самостоятельно появляется только пятая часть — даже если ты описал ситуацию подробно. Трёхшаговая диагностика позволяет нащупать точные формулировки явных инструкций и перенести их в рабочий промпт раз и навсегда. Прогоняешь задачу через три варианта промпта: без контекста, с явной инструкцией стиля и с ситуативными деталями без инструкции — и видишь разрыв. Всё что явный вариант даёт лучше неявного — переноси как прямую инструкцию в рабочий промпт. Модель читает ситуативный контекст, но следует только явным командам — и это не баг незнания, знание есть, оно просто не включается без прямого запроса.

Принцип работы

Стандартный путь: добавить детали ситуации («он старший партнёр, встреча третья, он скептичен») и ждать что модель сама поймёт нужный тон. Так не работает — ситуация прочитана, поведение не изменено. Рабочий путь: явно прописать тон, позицию и запреты как инструкцию, а не как описание. «Опытный инвестор, который старше» и «тон уважительный, не спорь в лоб, переформулируй критику как вопрос» — это разные вещи. Первое — контекст. Второе — команда. Модель выполняет команды.

Почему работает

Модель обучена на огромном массиве текстов — культурные нормы вежливости, иерархии, уважения к статусу там точно есть. Но это знание пассивное. Без явного запроса модель выдаёт нейтральный стандарт — как сотрудник, который знает протокол, но включает его только когда слышит кодовое слово. Лучше всего через ситуативный контекст передаётся уважение к статусу и иерархии — около 30% от возможного. Хуже всего — коллективный фрейм «мы»: без явной инструкции появляется меньше чем в 12% случаев. Плюс одна неочевидная ловушка: дообучение на полезность подавляет неуверенность в тексте. Попросишь «будь осторожен в формулировках» — модель в ответ напишет ещё чётче и увереннее, чем без инструкции. Нужна конкретика: «добавь оговорки там, где данных недостаточно» — не «будь осторожен».

Когда применять

Любая коммуникация где важны отношения и статус — письма инвесторам, переговоры с партнёрами, обратная связь команде, тексты для аудитории другой культуры. Особенно когда адресат значительно старше, авторитетнее или принадлежит к другой культурной среде. НЕ подходит как единственный инструмент для текстов на редких языках: написать промпт на хинди или урду не значит что модель автоматически активирует культурный код — она реагирует на грамматику языка, не на культуру. Культурный контекст всё равно нужно прописывать отдельно явно.

Мини-рецепт

1. Прогони базовый промпт (A): только задача, без стиля и контекста — смотришь на дефолтный тон модели.
2. Прогони явный (B): та же задача плюс прямые инструкции тона, позиции, запретов — это потолок того, что модель умеет.
3. Прогони неявный (C): та же задача плюс ситуативные детали без инструкций — смотришь сколько нужного появляется само.
4. Найди разрыв: что B даёт лучше C — переноси в явную инструкцию рабочего промпта. Диагностика нужна один раз.
5. Используй шаблон явной инструкции:
Тон: {уважительный / осторожный / авторитетный}
Позиция: я говорю как {роль} с {кем — статус, отношения}
Избегай: {прямой критики / защитной позиции / категоричных утверждений}
Особенно важно: {конкретное поведение — «переформулируй критику как вопрос», «используй мы-фрейм»}

Примеры

[ПЛОХО] : Напиши мой ответ инвестору на критику юнит-экономики. Он опытнее и старше меня, встреча важная.
[ХОРОШО] : Напиши мой ответ инвестору на критику юнит-экономики. Тон: уважительный, без защитной позиции. Не спорь в лоб — переформулируй критику как вопрос, который я уже учёл. Покажи что ценю его экспертизу. Избегай категоричных утверждений. Заверши приглашением к диалогу.
Источник: Do LLMs Use Cultural Knowledge Without Being Told? A Multilingual Evaluation of Implicit Pragmatic Adaptation
ArXiv ID: 2604.17718 | Сгенерировано: 2026-04-21 05:39

Проблемы LLM

ПроблемаСутьКак обойти
Модель видит ситуацию, но не выводит из неё правила поведенияДаёшь контекст: кто адресат, какой статус, какая обстановка. Ждёшь: модель сама подберёт нужный тон. Получаешь: нейтральный деловой текст. Модель прочитала контекст — но не перевела детали в инструкцию к себе. Итог: ситуация есть, стиль не изменился. Работает только ~20% из возможного. Проблема для любой задачи где нужен конкретный тон или культурная рамкаНе рассчитывай что контекст заменит инструкцию. Всегда пиши явно: тон, позицию, запреты. Пример: вместо «он старший инвестор» пиши «тон уважительный, не спорь прямо, покажи что ценишь его опыт»
Просьба «будь осторожнее» делает текст увереннееПросишь добавить оговорки и неопределённость. Получаешь чёткий уверенный текст — иногда даже увереннее базового. Модели дообучены давать ясные ответы. Явный запрос «будь осторожен» включает «режим полезного ответа» — и он убирает неопределённость, а не добавляетНе говори «будь осторожен в формулировках». Говори конкретно: «добавь оговорку там, где данных недостаточно» или «напиши "это зависит от X" если условие не известно»

Методы

МетодСуть
Три запроса для поиска нужного стиляОтправляешь три версии одного задания. Запрос А — только сама задача, без контекста. Смотришь дефолтный стиль. Запрос Б — та же задача плюс прямая инструкция: тон, позиция, запреты. Смотришь максимум возможного. Запрос В — та же задача плюс ситуативные детали без инструкции. Смотришь сколько нужного появляется само. Если В не дотягивает до Б — берёшь формулировки из Б и вставляешь в рабочий запрос. Диагностику делаешь один раз. Потом просто используешь инструкцию из Б

Тезисы

ТезисКомментарий
Явная инструкция стиля в ~5 раз сильнее ситуативного контекстаСитуативные детали в промпте дают около 20% от эффекта прямой инструкции. Модель учитывает контекст — но не интерпретирует его в правила поведения для себя. Знание есть. Без прямого запроса оно не применяется. Применяй: всегда добавляй явный блок стиля. Шаблон: «Тон: X. Позиция: Y. Избегай: Z»
📖 Простыми словами

DoLLMsUseCultural Knowledge Without Being Told? A Multilingual Evaluation of Implicit Pragmatic Adaptation

arXiv: 2604.17718

LLM — это не интуитивный собеседник, а исполнительный бюрократ, который знает все правила этикета, но применяет их только по приказу. Исследование показало, что модели обладают колоссальным запасом культурных знаний и понимают разницу между формальным японским и панибратским американским стилем, но по умолчанию включают режим «робот обыкновенный». Проблема в том, что нейронка не умеет считывать социальный контекст между строк: она видит ситуацию, но не понимает, что под неё нужно подстроить свой тон. Это и есть разрыв между явным и неявным, из-за которого модель лажает в 80% случаев, если ей не разжевать задачу.

Это как привести профессионального дипломата на закрытую вечеринку, где все в шортах и пьют пиво, но не сказать ему, что дресс-код свободный. Он так и простоит весь вечер в смокинге с каменным лицом, хотя в шкафу у него есть и джинсы, и футболка. Формально он безупречен, но социально — абсолютно неуместен. Модель ведет себя так же: она знает, как общаться расслабленно, но пока ты не крикнешь «сними галстук!», она будет выдавать сухую корпоративную выжимку, даже если в контексте диалога все уже давно перешли на «ты».

В цифрах всё выглядит ещё печальнее: когда контекст лишь намекает на нужный стиль через роли или ситуацию, модель выдает лишь 20% от своего потенциала адаптации. Чтобы это реально работало, нужно использовать явное инструктирование. Если ты пишешь ответ инвестору-старику, который ценит иерархию, бесполезно просто описывать его характер в промпте. Нужно прямо в лоб прописать: «используй уважительные формы, избегай сленга, делай упор на логику». Без прямой команды модель проигнорирует все твои вводные данные о личности собеседника и выдаст стандартный «базовый» текст.

Этот принцип универсален и касается не только переписки. Он работает в локализации продуктов, написании сценариев или создании чат-ботов для поддержки. Тестировали на разных языках, но вердикт один: автоматической подстройки под культуру не существует. Если ты создаешь бота для бразильского рынка, недостаточно просто перевести текст — нужно явно заставлять модель быть эмоциональной и дружелюбной, иначе она будет звучать как холодный переводчик-синхронист, который портит всё впечатление от бренда.

Короче: не надейся на «ум» нейронки и её способность понимать намеки. Главный вывод исследования — явный промпт бьёт контекст. Если тебе нужен специфический тон или учет культурных особенностей, прописывай это как приказ, а не как описание ситуации. Либо ты диктуешь правила игры, либо получаешь стерильный и бесполезный контент, который вроде бы правильный, но в реальности не работает. Кто продолжает надеяться на магию контекста, тот получает сухие отписки, пока остальные забирают лояльность аудитории за счет точечной настройки регистра.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с