3,583 papers
arXiv:2603.18976 79 19 мар. 2026 г. FREE

PPS (5W3H): восемь измерений намерения вместо одного расплывчатого запроса

КЛЮЧЕВАЯ СУТЬ
Написал «напиши анализ рынка» — модель не тупит. Она честно угадывает: для кого, зачем, каким тоном. И почти всегда мимо. PPS позволяет закрыть все восемь осей неопределённости одним промптом — вместо трёх раундов «нет, не то, сделай подробнее». Фишка: восемь измерений (Что, Зачем, Кто, Когда, Где, Как, Сколько, Тон) покрывают все главные причины промаха — опиши все восемь, и пространство для угадывания исчезает. На 66% меньше уточняющих вопросов, ответ попадает в цель с первого раза.
Адаптировать под запрос

TL;DR

PPS (Prompt Protocol Specification) — техника структурирования промпта по 8 измерениям: Что, Зачем, Кто, Когда, Где, Как делать, Сколько, Какой тон. Вместо одного расплывчатого запроса ты описываешь все восемь — и получаешь ответ, который сразу попадает в цель, без серии уточнений.

Когда ты пишешь «напиши анализ рынка» — модель не знает: для кого (инвестор? студент? операционный директор?), зачем (войти на рынок? написать диплом?), насколько глубоко, в каком формате und тоне. Она угадывает — и угадывает мимо. Это называется потеря намерения при передаче. Именно поэтому после ответа ты пишешь «нет, не то, сделай более детально, для профессионалов, с данными» — и так несколько раундов.

PPS закрывает все восемь осей неопределённости одним промптом. Ты или заполняешь измерения сам, или просишь LLM расширить твой «Что» до полного набора — и потом правишь. Итог: на 66% меньше уточняющих вопросов и стабильно точные ответы с первого раза.


🔬

Схема метода

ШАГ 1 (опционально): Напиши только "Что" → попроси LLM развернуть до всех 8 измерений
                      → получи черновик, отредактируй

ШАГ 2: Сформируй промпт-абзац, покрывающий все 8 измерений в естественной речи
        → отправь в один запрос

ШАГ 3: Получи ответ, который сразу попадает в цель
        → итерации нужны редко

Всё выполняется в одном чате. Если используешь Шаг 1 — два запроса: первый для расширения, второй — финальная задача.

⚠️ Важно: Не пиши сырой JSON. Исследование прямо показывает — JSON-формат работает хуже простого промпта. Только естественный язык, покрывающий все 8 измерений.


🚀

Пример применения

Задача: Ты основатель стартапа в EdTech. Готовишься к встрече с венчурным фондом — нужен анализ рынка онлайн-образования в России, чтобы аргументировать раунд A.

Промпт:

Ты — старший аналитик венчурного рынка с опытом в EdTech.

ЧТО: Напиши аналитический отчёт о российском рынке онлайн-образования в 2024–2025 году.

ЗАЧЕМ: Для питча венчурному фонду на раунд A. Цель — показать размер возможности, 
динамику роста и незакрытые ниши. Успех = партнёр фонда видит аргументы для инвестиции.

КТО: Аудитория — партнёры венчурного фонда с опытом в TMT. Читали 50+ питчей. 
Скептичны к общим словам, доверяют цифрам и конкретике.

КОГДА: Данные за 2023–2024 год. Прогнозы до 2027.

ГДЕ: Российский рынок. Учитывай регуляторный контекст и уход западных игроков.

КАК ДЕЛАТЬ: Структура — размер рынка, ключевые игроки (Skillbox, Нетология, Яндекс Практикум), 
динамика, топ-3 незакрытые ниши. Добавь сравнение unit-экономики лидеров, если есть данные.

СКОЛЬКО: 1200–1500 слов. 5 разделов. Минимум 8 конкретных цифр/фактов.

ТОН: Аналитический, data-driven. Без воды и общих фраз. Как McKinsey-слайд в текстовом формате.

Результат:

Модель выдаст структурированный отчёт в 5 разделах, ориентированный на скептичного инвестора — с цифрами, конкретными игроками и аргументом про нишу. Не «общий обзор рынка», а именно материал для питча. Тон будет сухим и аналитическим, без «в заключение хочется отметить». С большой вероятностью — сразу готово к использованию, без уточнений.


🧠

Почему это работает

Слабость LLM: Модель не читает мысли. На запрос «напиши анализ» она генерирует наиболее вероятный ответ для этой фразы — то есть усреднённый, подходящий широкой аудитории. Хочешь аргументы для инвестора? Получишь Википедию.

Сильная сторона LLM: Модель отлично следует подробным инструкциям. Когда ты закрываешь все оси неопределённости — Кто читает, Зачем нужно, В каком формате, Каким тоном — пространство для «угадывания» исчезает. Модель работает в узком, точно заданном коридоре.

Как метод использует это: Восемь измерений — это восемь главных осей, по которым ответ может уйти не туда. Что — задача. Зачем — успех. Кто — аудитория. Когда/Где — контекст. Как — методология. Сколько — объём. Тон — стиль. Закрой все восемь — и модель больше не угадывает.

Рычаги управления: - Детализация «Зачем» — главный рычаг. Чем точнее критерий успеха («партнёр фонда видит аргумент»), тем точнее попадание - «Кто» — меняет всё. «Для старшеклассника» и «для партнёра McKinsey» при том же «Что» дадут принципиально разный текст - «Сколько» — убирай для коротких задач, добавляй для длинных форматов - «Как делать» — указывай методологию явно (Porter Five Forces, SWOT, конкретную структуру) — модель следует ей буквально


📋

Шаблон промпта

Ты — {роль с опытом в нужной области}.

ЧТО: {Конкретная задача и формат результата}

ЗАЧЕМ: {Цель и контекст использования. Как выглядит хороший результат?}

КТО: {Кто будет читать. Уровень экспертизы. Что для них важно}

КОГДА: {Временной период, актуальность данных, дедлайн если важен}

ГДЕ: {Контекст использования, платформа, географический охват}

КАК ДЕЛАТЬ: {Методология, структура, на что опираться}

СКОЛЬКО: {Объём в словах или пунктах. Количество разделов. Число аргументов/примеров}

ТОН: {Стиль, тональность, чего избегать}

Что подставлять: - {роль} — профессиональная позиция с контекстом: «старший стратегический консультант», «опытный копирайтер B2B» - {задача} — конкретный deliverable: «аналитический отчёт», «письмо партнёру», «сценарий переговоров» - {цель} — что должно произойти после прочтения: «клиент согласился на встречу», «инвестор увидел возможность» - {кто читает} — чем точнее, тем лучше: не «бизнес-аудитория», а «операционный директор с 10+ годами в FMCG»


🚀 Быстрый старт — вставь в чат:

Вот шаблон PPS (5W3H) для структурированного промпта. 
Адаптируй под мою задачу: {твоя задача одним предложением}. 
Задавай вопросы, чтобы заполнить все поля.

[вставить шаблон выше]

LLM спросит про аудиторию, цель и ожидаемый формат — потому что именно эти три измерения чаще всего пустые и именно они определяют попадание ответа в цель. Она возьмёт структуру и заполнит под твою задачу.


⚠️

Ограничения

⚠️ Работает только на неоднозначных задачах. Для простых запросов — хуже обычного.

Исследование прямо показало: на туристических (чётких) задачах PPS ухудшила результат (эффект d = −0.547). Чем яснее задача, тем меньше пользы от структуры. «Столица Франции», «реши уравнение», «переведи текст» — достаточно одного предложения.

⚠️ Требует усилий на входе. Заполнить 8 измерений — это работа. Оправдано для задач, где ты будешь переделывать несколько раз, или для задач с высокими ставками.

⚠️ JSON-версия не работает. Если ты отправишь prompt в виде JSON-структуры — результат хуже простого запроса. Только естественный язык.

⚠️ Разные модели реагируют по-разному. Некоторые модели дают высокие оценки своим же ответам (самопредпочтение судьи). При оценке результатов через другую LLM эффект PPS оказывается ещё сильнее.


🔍

Как исследовали

Исследователи взяли 60 задач в трёх областях — бизнес, технические объяснения и туризм — и для каждой создали три версии промпта: простой короткий запрос, тот же запрос в JSON-формате PPS и тот же PPS, переведённый в естественный язык. Каждый вариант прогнали через три LLM (DeepSeek-V3, Qwen-Max, Kimi) при температуре 0 — итого 540 ответов.

Самая интересная часть — не сами результаты, а то, что исследователи нашли про изъян стандартных метрик. Традиционные оценки ставили простому расплывчатому запросу почти идеальный балл за «соблюдение ограничений» — 5.0 из 5.0. Логика абсурдная: раз в простом промпте нет ограничений, их нельзя нарушить. Нет ограничений → нет нарушений → идеальный балл. Это называли «вакуумной истиной». Вот почему интуиция «мой простой промпт работает отлично» часто ложная — его просто не с чем сравнивать.

Для оценки «попадания в намерение» они ввели новую метрику goal_alignment — не «выполнена ли задача», а «получил ли пользователь то, что ему реально нужно». Именно по этой метрике PPS в естественном языке обошёл всех: для бизнес-задач эффект оказался очень большим (d = 0.895), для технических — заметным (d = 0.600), а для туристических — перевернулся (d = −0.547). Это объясняет многое: структурирование помогает там, где есть реальная неоднозначность. Если задача чёткая — дополнительная структура только мешает.


📄

Оригинал из исследования

"As a senior industry analyst, please create a detailed competitive landscape 
analysis of China's new energy vehicle market (2024 data, China only, 
no investment advice). Target audience: senior automotive industry executives. 
Required elements: TOP 5 brand market share, Porter's Five Forces analysis, 
future trend projections. Format: 2,000-word structured report with 5 sections 
and at least 10 data points. Tone: professional and data-driven."

Контекст: Это Condition C из эксперимента — естественно-языковой рендеринг PPS. Именно такой формат (не JSON) дал наилучшие результаты по goal_alignment. Промпт построен по 8 измерениям в одном абзаце.


💡

Адаптации и экстраполяции

📋

💡 Адаптация: Быстрая диагностика промпта

Перед тем как писать большой промпт — проверь, какие измерения пустые:

Вот мой промпт: «{твой промпт}»

Проверь его по 8 измерениям PPS:
- ЧТО: задача понятна?
- ЗАЧЕМ: цель и критерий успеха?
- КТО: аудитория?
- КОГДА: временной контекст?
- ГДЕ: контекст использования?
- КАК: методология?
- СКОЛЬКО: объём и параметры?
- ТОН: стиль?

Для каждого пустого измерения — задай мне вопрос.

Это быстрее, чем заполнять все 8 сразу. Модель найдёт слабые места и поможет их закрыть.


📌

🔧 Техника: Автоматическое расширение «Что» → все 8

Если лень заполнять руками — дай только задачу и попроси LLM развернуть:

Моя задача: {одно предложение — что нужно сделать}

Разверни её в структурированный промпт по 8 измерениям:
ЧТО, ЗАЧЕМ, КТО, КОГДА, ГДЕ, КАК ДЕЛАТЬ, СКОЛЬКО, ТОН.

Для каждого измерения предложи наиболее вероятный вариант.
После — покажи финальный промпт одним блоком.

После — отредактируй то, что угадала неправильно, и используй финальный промпт для реальной задачи. Работает как черновик, с которым гораздо быстрее, чем с нуля.


📌

🔧 Техника: PPS-тест для важного текста

Если ты написал важный текст (письмо, предложение, пост) — попроси модель оценить его через линзу получателя:

Вот текст, который я написал:
«{твой текст}»

Оцени его с точки зрения получателя — {описание: кто читает, какова их позиция}.
Ответь на вопросы:
- ЗАЧЕМ им читать это? Что они получают?
- Насколько текст соответствует их уровню и контексту (КТО)?
- Есть ли неясности в ЧТО именно от них хотят?
- Какой ТОН воспринимается?

Что переписать, чтобы goal_alignment был выше?

Это применение принципа goal_alignment — «соответствует ли текст реальному намерению читателя» — для проверки и улучшения любого коммуникационного материала.


🔗

Ресурсы

Статья: Evaluating 5W3H Structured Prompting for Intent Alignment in Human-AI Interaction

Авторы: Peng Gang, Huizhou Lateni AI Technology Co., Ltd.; Huizhou University, Huizhou, China

Email: penggangjp@gmail.com

Платформа с реализацией алгоритма расширения: lateni.com

Связанные работы в статье: CO-STAR, CRISPE, ICIO (Schulhoff et al., 58 prompting techniques survey); LLM-as-Judge (Zheng et al.); Chain-of-Thought (Wei et al.)


📋 Дайджест исследования

Ключевая суть

Написал «напиши анализ рынка» — модель не тупит. Она честно угадывает: для кого, зачем, каким тоном. И почти всегда мимо. PPS позволяет закрыть все восемь осей неопределённости одним промптом — вместо трёх раундов «нет, не то, сделай подробнее». Фишка: восемь измерений (Что, Зачем, Кто, Когда, Где, Как, Сколько, Тон) покрывают все главные причины промаха — опиши все восемь, и пространство для угадывания исчезает. На 66% меньше уточняющих вопросов, ответ попадает в цель с первого раза.

Принцип работы

Не пиши «напиши» — пиши «для кого, зачем и в каком формате». Модель генерирует самый вероятный ответ для твоей фразы. На голое «напиши анализ» это усреднённый текст для абстрактного читателя. Хочешь аргументы для инвестора? Получишь Википедию. У любого запроса есть восемь измерений, по которым ответ уходит не туда. Что — задача. Зачем — критерий успеха. Кто — аудитория. Когда и Где — контекст. Как — методология. Сколько — объём. Тон — стиль. Закрой все восемь в одном промпте — и модель работает в узком, точно заданном коридоре. Нет пространства угадывать.

Почему работает

Всё упирается в «Зачем» — это главный рычаг. Чем точнее критерий успеха («партнёр фонда увидел аргумент для инвестиции»), тем точнее модель выстраивает весь текст под этот результат. Без «Зачем» модель не знает финишную черту — и бежит в случайном направлении. «Кто» меняет всё следом. «Для старшеклассника» и «для партнёра консалтинга» при том же «Что» дадут принципиально разный текст. Восемь измерений — это не бюрократия. Это ровно те оси, по которым люди чаще всего не понимают друг друга. Журналисты используют 5W уже сто лет — работает потому что покрывает все главные вопросы читателя. Исследователи добавили три H — и это закрыло слепые пятна LLM, про которые журналисты не думали.

Когда применять

Сложные и неоднозначные задачи: аналитика, отчёты, презентации, письма — особенно когда аудитория и цель не очевидны. Высокие ставки: задачи, где переделывать дорого — питч инвестору, переговорный сценарий, ключевое письмо клиенту. НЕ подходит для простых запросов. Исследование показало прямо: на чётких, однозначных задачах PPS ухудшает результат (d = −0,547). «Столица Франции», «реши уравнение», «переведи абзац» — достаточно одного предложения. Не перегружай.

Мини-рецепт

1. Возьми шаблон: Что / Зачем / Кто / Когда / Где / Как делать / Сколько / Тон
2. Заполни «Что» и «Зачем» первыми — они определяют всё. «Зачем» — это конкретный критерий успеха: «клиент согласился на встречу», а не «понравился текст».
3. Прокачай «Кто» — не «бизнес-аудитория», а «операционный директор с десятью годами в производстве, скептичен к общим словам».
4. Добавь остальные пять по необходимости. «Сколько» и «Тон» особенно важны для длинных форматов.
5. Пиши обычным текстом — не в виде набора данных, не таблицей, не списком ключей. Исследование показало: структурированный формат с разметкой работает хуже простого абзаца с теми же словами.
6. Если лень заполнять самому — напиши только «Что» и попроси модель развернуть до всех восьми измерений. Потом отредактируй и отправь финальный промпт.

Примеры

[ПЛОХО] : Напиши анализ рынка онлайн-образования в России
[ХОРОШО] : Ты — старший аналитик венчурного рынка с опытом в EdTech. ЧТО: Аналитический отчёт о российском рынке онлайн-образования 2024–2025. ЗАЧЕМ: Для питча венчурному фонду. Успех = партнёр видит аргумент для инвестиции в раунд А. Провал = общие слова без цифр. КТО: Партнёры фонда — читали 50+ питчей, не верят общим словам, доверяют конкретным цифрам. КОГДА: Данные 2023–2024, прогноз до 2027. ГДЕ: Российский рынок. Учитывай регуляторный контекст и уход западных игроков. КАК: Структура — размер рынка, ключевые игроки (Skillbox, Нетология, Яндекс Практикум), динамика, топ-3 незакрытые ниши. СКОЛЬКО: 1200–1500 слов. Минимум 8 конкретных цифр. ТОН: Аналитический, сухой. Без воды. Как McKinsey-слайд в текстовом формате.
Источник: Evaluating 5W3H Structured Prompting for Intent Alignment in Human-AI Interaction
ArXiv ID: 2603.18976 | Сгенерировано: 2026-03-20 05:24

Проблемы LLM

ПроблемаСутьКак обойти
Лишняя структура ломает простые запросыДобавляешь детали к понятной задаче — ответ становится хуже, а не лучше. Модель начинает "вписываться в рамки" там, где надо просто ответить. Работает как помеха: чем яснее задача, тем сильнее вред от структурыРазреши задачу на простоту. Есть один правильный ответ? Нет контекстной неопределённости? Оставь один вопрос. Без измерений, без шаблонов

Методы

МетодСуть
8 осей неопределённости — ответ с первого разаПиши промпт, который закрывает 8 вопросов: Что (задача), Зачем (цель и критерий успеха), Кто (аудитория и уровень), Когда (период данных), Где (контекст применения), Как делать (методология и структура), Сколько (объём), Тон (стиль и чего избегать). Пиши обычным текстом. Не JSON. Почему работает: каждое измерение — это ось, по которой ответ может уйти не туда. Закрыл все восемь — пространство для "угадывания" исчезает. Когда применять: задача неоднозначная, результат будешь переделывать, или ставки высокие. Когда не применять: один чёткий ответ, нет контекстной неопределённости

Тезисы

ТезисКомментарий
JSON-формат ослабляет промптКогда пишешь промпт в виде JSON — результат хуже, чем простой текст. Скорее всего потому, что модель обучалась на естественном языке. JSON создаёт дополнительный слой разбора — и часть смысла теряется. Применяй: даже если хочется структуры, пиши обычными предложениями с заголовками, а не {"what": "..."}
📖 Простыми словами

Evaluating 5W3H StructuredPromptingfor Intent Alignment in Human-AIInteraction

arXiv: 2603.18976

Суть метода PPS (Prompt Protocol Specification) в том, что нейросети — это не телепаты, а статистические калькуляторы. Когда ты кидаешь в модель короткую фразу, она не пытается угадать твой контекст, а просто выдает «среднюю температуру по больнице». Чтобы вытащить из нее адекватный результат, нужно зажать ее в тиски структурированного промпта по 8 осям. Это не просто «сделай хорошо», а четкая спецификация: что именно, зачем, от чьего лица и в каком тоне. Без этой рамки ты получаешь не экспертный совет, а белый шум из Википедии.

Это как если бы ты пришел к архитектору и сказал: «Построй мне дом». Он построит типовую коробку, потому что ты не уточнил, что тебе нужен хай-тек на склоне горы для семьи из пяти человек с бюджетом в три копейки. Метод 5W3H — это подробное техническое задание, которое превращает нейронку из ленивого стажера в профессионального исполнителя, знающего все нюансы задачи еще до начала работы. Формально ты тратишь больше времени на запрос, но экономишь часы на переделках.

В основе лежат конкретные параметры: Что (задача), Зачем (цель), Кто (роль AI), Когда (тайминг), Где (платформа), Как (алгоритм действий), Сколько (объем) и Какой тон (стиль). Если ты основатель стартапа и просишь анализ рынка, ты не просто пишешь тему, а указываешь, что ты — CEO на раунде А, цель — убедить инвестора, а тон должен быть агрессивно-аналитическим. Только так модель перестает лить воду и начинает выдавать мясо, которое реально можно нести на встречу.

Хотя метод тестировали на бизнес-задачах, этот принцип универсален. Он работает везде: от написания кода до составления плана тренировок или сценария для YouTube. Любая сложная коммуникация с AI страдает от недостатка контекста, и эта структура — универсальный мост. Ты просто берешь шаблон и прогоняешь через него любую хотелку, превращая хаотичный чат в прогнозируемый производственный процесс.

Короче: хватит играть в угадайку и надеяться на магию. Если результат от нейронки кажется тебе «фигней», скорее всего, твой запрос был слишком рыхлым. Переходи на структурированные протоколы, прописывай все 8 измерений и забирай качественный контент с первой попытки. Либо ты управляешь контекстом, либо контекст управляет тобой, выдавая бесполезные галлюцинации вместо рабочих решений.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с