TL;DR
PPS (Prompt Protocol Specification) — техника структурирования промпта по 8 измерениям: Что, Зачем, Кто, Когда, Где, Как делать, Сколько, Какой тон. Вместо одного расплывчатого запроса ты описываешь все восемь — и получаешь ответ, который сразу попадает в цель, без серии уточнений.
Когда ты пишешь «напиши анализ рынка» — модель не знает: для кого (инвестор? студент? операционный директор?), зачем (войти на рынок? написать диплом?), насколько глубоко, в каком формате und тоне. Она угадывает — и угадывает мимо. Это называется потеря намерения при передаче. Именно поэтому после ответа ты пишешь «нет, не то, сделай более детально, для профессионалов, с данными» — и так несколько раундов.
PPS закрывает все восемь осей неопределённости одним промптом. Ты или заполняешь измерения сам, или просишь LLM расширить твой «Что» до полного набора — и потом правишь. Итог: на 66% меньше уточняющих вопросов и стабильно точные ответы с первого раза.
Схема метода
ШАГ 1 (опционально): Напиши только "Что" → попроси LLM развернуть до всех 8 измерений
→ получи черновик, отредактируй
ШАГ 2: Сформируй промпт-абзац, покрывающий все 8 измерений в естественной речи
→ отправь в один запрос
ШАГ 3: Получи ответ, который сразу попадает в цель
→ итерации нужны редко
Всё выполняется в одном чате. Если используешь Шаг 1 — два запроса: первый для расширения, второй — финальная задача.
⚠️ Важно: Не пиши сырой JSON. Исследование прямо показывает — JSON-формат работает хуже простого промпта. Только естественный язык, покрывающий все 8 измерений.
Пример применения
Задача: Ты основатель стартапа в EdTech. Готовишься к встрече с венчурным фондом — нужен анализ рынка онлайн-образования в России, чтобы аргументировать раунд A.
Промпт:
Ты — старший аналитик венчурного рынка с опытом в EdTech.
ЧТО: Напиши аналитический отчёт о российском рынке онлайн-образования в 2024–2025 году.
ЗАЧЕМ: Для питча венчурному фонду на раунд A. Цель — показать размер возможности,
динамику роста и незакрытые ниши. Успех = партнёр фонда видит аргументы для инвестиции.
КТО: Аудитория — партнёры венчурного фонда с опытом в TMT. Читали 50+ питчей.
Скептичны к общим словам, доверяют цифрам и конкретике.
КОГДА: Данные за 2023–2024 год. Прогнозы до 2027.
ГДЕ: Российский рынок. Учитывай регуляторный контекст и уход западных игроков.
КАК ДЕЛАТЬ: Структура — размер рынка, ключевые игроки (Skillbox, Нетология, Яндекс Практикум),
динамика, топ-3 незакрытые ниши. Добавь сравнение unit-экономики лидеров, если есть данные.
СКОЛЬКО: 1200–1500 слов. 5 разделов. Минимум 8 конкретных цифр/фактов.
ТОН: Аналитический, data-driven. Без воды и общих фраз. Как McKinsey-слайд в текстовом формате.
Результат:
Модель выдаст структурированный отчёт в 5 разделах, ориентированный на скептичного инвестора — с цифрами, конкретными игроками и аргументом про нишу. Не «общий обзор рынка», а именно материал для питча. Тон будет сухим и аналитическим, без «в заключение хочется отметить». С большой вероятностью — сразу готово к использованию, без уточнений.
Почему это работает
Слабость LLM: Модель не читает мысли. На запрос «напиши анализ» она генерирует наиболее вероятный ответ для этой фразы — то есть усреднённый, подходящий широкой аудитории. Хочешь аргументы для инвестора? Получишь Википедию.
Сильная сторона LLM: Модель отлично следует подробным инструкциям. Когда ты закрываешь все оси неопределённости — Кто читает, Зачем нужно, В каком формате, Каким тоном — пространство для «угадывания» исчезает. Модель работает в узком, точно заданном коридоре.
Как метод использует это: Восемь измерений — это восемь главных осей, по которым ответ может уйти не туда. Что — задача. Зачем — успех. Кто — аудитория. Когда/Где — контекст. Как — методология. Сколько — объём. Тон — стиль. Закрой все восемь — и модель больше не угадывает.
Рычаги управления: - Детализация «Зачем» — главный рычаг. Чем точнее критерий успеха («партнёр фонда видит аргумент»), тем точнее попадание - «Кто» — меняет всё. «Для старшеклассника» и «для партнёра McKinsey» при том же «Что» дадут принципиально разный текст - «Сколько» — убирай для коротких задач, добавляй для длинных форматов - «Как делать» — указывай методологию явно (Porter Five Forces, SWOT, конкретную структуру) — модель следует ей буквально
Шаблон промпта
Ты — {роль с опытом в нужной области}.
ЧТО: {Конкретная задача и формат результата}
ЗАЧЕМ: {Цель и контекст использования. Как выглядит хороший результат?}
КТО: {Кто будет читать. Уровень экспертизы. Что для них важно}
КОГДА: {Временной период, актуальность данных, дедлайн если важен}
ГДЕ: {Контекст использования, платформа, географический охват}
КАК ДЕЛАТЬ: {Методология, структура, на что опираться}
СКОЛЬКО: {Объём в словах или пунктах. Количество разделов. Число аргументов/примеров}
ТОН: {Стиль, тональность, чего избегать}
Что подставлять:
- {роль} — профессиональная позиция с контекстом: «старший стратегический консультант», «опытный копирайтер B2B»
- {задача} — конкретный deliverable: «аналитический отчёт», «письмо партнёру», «сценарий переговоров»
- {цель} — что должно произойти после прочтения: «клиент согласился на встречу», «инвестор увидел возможность»
- {кто читает} — чем точнее, тем лучше: не «бизнес-аудитория», а «операционный директор с 10+ годами в FMCG»
🚀 Быстрый старт — вставь в чат:
Вот шаблон PPS (5W3H) для структурированного промпта.
Адаптируй под мою задачу: {твоя задача одним предложением}.
Задавай вопросы, чтобы заполнить все поля.
[вставить шаблон выше]
LLM спросит про аудиторию, цель и ожидаемый формат — потому что именно эти три измерения чаще всего пустые и именно они определяют попадание ответа в цель. Она возьмёт структуру и заполнит под твою задачу.
Ограничения
⚠️ Работает только на неоднозначных задачах. Для простых запросов — хуже обычного.
Исследование прямо показало: на туристических (чётких) задачах PPS ухудшила результат (эффект d = −0.547). Чем яснее задача, тем меньше пользы от структуры. «Столица Франции», «реши уравнение», «переведи текст» — достаточно одного предложения.
⚠️ Требует усилий на входе. Заполнить 8 измерений — это работа. Оправдано для задач, где ты будешь переделывать несколько раз, или для задач с высокими ставками.
⚠️ JSON-версия не работает. Если ты отправишь prompt в виде JSON-структуры — результат хуже простого запроса. Только естественный язык.
⚠️ Разные модели реагируют по-разному. Некоторые модели дают высокие оценки своим же ответам (самопредпочтение судьи). При оценке результатов через другую LLM эффект PPS оказывается ещё сильнее.
Как исследовали
Исследователи взяли 60 задач в трёх областях — бизнес, технические объяснения и туризм — и для каждой создали три версии промпта: простой короткий запрос, тот же запрос в JSON-формате PPS и тот же PPS, переведённый в естественный язык. Каждый вариант прогнали через три LLM (DeepSeek-V3, Qwen-Max, Kimi) при температуре 0 — итого 540 ответов.
Самая интересная часть — не сами результаты, а то, что исследователи нашли про изъян стандартных метрик. Традиционные оценки ставили простому расплывчатому запросу почти идеальный балл за «соблюдение ограничений» — 5.0 из 5.0. Логика абсурдная: раз в простом промпте нет ограничений, их нельзя нарушить. Нет ограничений → нет нарушений → идеальный балл. Это называли «вакуумной истиной». Вот почему интуиция «мой простой промпт работает отлично» часто ложная — его просто не с чем сравнивать.
Для оценки «попадания в намерение» они ввели новую метрику goal_alignment — не «выполнена ли задача», а «получил ли пользователь то, что ему реально нужно». Именно по этой метрике PPS в естественном языке обошёл всех: для бизнес-задач эффект оказался очень большим (d = 0.895), для технических — заметным (d = 0.600), а для туристических — перевернулся (d = −0.547). Это объясняет многое: структурирование помогает там, где есть реальная неоднозначность. Если задача чёткая — дополнительная структура только мешает.
Оригинал из исследования
"As a senior industry analyst, please create a detailed competitive landscape
analysis of China's new energy vehicle market (2024 data, China only,
no investment advice). Target audience: senior automotive industry executives.
Required elements: TOP 5 brand market share, Porter's Five Forces analysis,
future trend projections. Format: 2,000-word structured report with 5 sections
and at least 10 data points. Tone: professional and data-driven."
Контекст: Это Condition C из эксперимента — естественно-языковой рендеринг PPS. Именно такой формат (не JSON) дал наилучшие результаты по goal_alignment. Промпт построен по 8 измерениям в одном абзаце.
Адаптации и экстраполяции
💡 Адаптация: Быстрая диагностика промпта
Перед тем как писать большой промпт — проверь, какие измерения пустые:
Вот мой промпт: «{твой промпт}»
Проверь его по 8 измерениям PPS:
- ЧТО: задача понятна?
- ЗАЧЕМ: цель и критерий успеха?
- КТО: аудитория?
- КОГДА: временной контекст?
- ГДЕ: контекст использования?
- КАК: методология?
- СКОЛЬКО: объём и параметры?
- ТОН: стиль?
Для каждого пустого измерения — задай мне вопрос.
Это быстрее, чем заполнять все 8 сразу. Модель найдёт слабые места и поможет их закрыть.
🔧 Техника: Автоматическое расширение «Что» → все 8
Если лень заполнять руками — дай только задачу и попроси LLM развернуть:
Моя задача: {одно предложение — что нужно сделать}
Разверни её в структурированный промпт по 8 измерениям:
ЧТО, ЗАЧЕМ, КТО, КОГДА, ГДЕ, КАК ДЕЛАТЬ, СКОЛЬКО, ТОН.
Для каждого измерения предложи наиболее вероятный вариант.
После — покажи финальный промпт одним блоком.
После — отредактируй то, что угадала неправильно, и используй финальный промпт для реальной задачи. Работает как черновик, с которым гораздо быстрее, чем с нуля.
🔧 Техника: PPS-тест для важного текста
Если ты написал важный текст (письмо, предложение, пост) — попроси модель оценить его через линзу получателя:
Вот текст, который я написал:
«{твой текст}»
Оцени его с точки зрения получателя — {описание: кто читает, какова их позиция}.
Ответь на вопросы:
- ЗАЧЕМ им читать это? Что они получают?
- Насколько текст соответствует их уровню и контексту (КТО)?
- Есть ли неясности в ЧТО именно от них хотят?
- Какой ТОН воспринимается?
Что переписать, чтобы goal_alignment был выше?
Это применение принципа goal_alignment — «соответствует ли текст реальному намерению читателя» — для проверки и улучшения любого коммуникационного материала.
Ресурсы
Статья: Evaluating 5W3H Structured Prompting for Intent Alignment in Human-AI Interaction
Авторы: Peng Gang, Huizhou Lateni AI Technology Co., Ltd.; Huizhou University, Huizhou, China
Email: penggangjp@gmail.com
Платформа с реализацией алгоритма расширения: lateni.com
Связанные работы в статье: CO-STAR, CRISPE, ICIO (Schulhoff et al., 58 prompting techniques survey); LLM-as-Judge (Zheng et al.); Chain-of-Thought (Wei et al.)
