3,583 papers
arXiv:2507.11288 60 15 июля 2025 г. FREE

Opus: Фреймворк намерений промтов для генерации сложных рабочих процессов

КЛЮЧЕВАЯ СУТЬ
Output (Результат): Что мы хотим получить на выходе
Адаптировать под запрос

Исследование доказывает, что большие языковые модели (LLM) гораздо лучше справляются со сложными задачами, если запрос пользователя предварительно разложить на три четких компонента: Входные данные (Input), Процесс (Process) и Желаемый результат (Output). Вместо того чтобы давать модели один сплошной и запутанный текст с несколькими целями, этот структурированный подход позволяет LLM последовательно и точно выполнить задачу.

Ключевой результат: Декомпозиция сложного запроса на структуру "Input-Process-Output" радикально повышает качество, логичность и надежность генерируемых LLM ответов, особенно при увеличении сложности задачи.

Суть метода, который в статье назван "Opus Prompt Intention Framework", заключается в том, чтобы перестать относиться к LLM как к волшебной коробке, которая сама разберется в любом хаосе, и начать помогать ей, выполняя часть работы по структурированию задачи.

Авторы выяснили, что главная проблема сложных запросов — это "смешанные намерения" (Mixed Intentions). Это когда вы в одном предложении просите модель и проанализировать данные, и написать текст, и составить план, и учесть пять ограничений. Модель теряется, путает контексты и в итоге выдает некачественный или неполный ответ.

Предложенный метод решает эту проблему, заставляя пользователя (или автоматизированную систему, как в статье) выступить в роли "фильтра-организатора". Прежде чем отправить основной запрос, его нужно разложить на три части:

  1. Input (Входные данные): Что у нас есть на старте? Какие данные, тексты, факты, ограничения мы даем модели. Это исходный материал.
  2. Process (Процесс): Что именно нужно сделать с этими данными? Какие шаги предпринять, какую логику применить, какие действия выполнить. Это последовательность операций.
  3. Output (Результат): Что мы хотим получить на выходе? В каком формате, с какой структурой, с какими ключевыми элементами. Это описание конечного продукта.

Когда пользователь явно разделяет свой запрос на эти три блока, он устраняет двусмысленность и снижает "когнитивную нагрузку" на модель. LLM больше не нужно угадывать, что является исходными данными, а что — инструкцией. Она получает четкий и однозначный "рабочий процесс", что, как показывают результаты исследования, приводит к драматическому улучшению качества.

  • Прямая применимость: Абсолютно прямая. Любой пользователь может немедленно начать использовать этот метод в ChatGPT, Claude или любой другой LLM. Для этого достаточно в своем промпте создать разделы с заголовками ### Входные данные, ### Процесс и ### Результат и разнести по ним части своего запроса. Это не требует никаких технических навыков.

  • Концептуальная ценность: Огромная. Исследование дает пользователю мощную ментальную модель: "LLM — это мощный, но последовательный исполнитель, а не читатель мыслей". Оно учит, что ключ к успеху в сложных задачах — это декомпозиция. Понимание того, что смешивание задач в одном потоке текста — это прямой путь к ошибкам, меняет подход к написанию промптов с "как бы мне хитрее спросить?" на "как бы мне понятнее объяснить?".

  • Потенциал для адаптации: Метод легко адаптируется под любую задачу. Шаблон Input-Process-Output — это универсальная основа.

    • Для написания эссе это может быть: Тезис и аргументы (Input), Структура эссе (Process), Готовый текст (Output).
    • Для планирования путешествия: Данные о туристах и бюджет (Input), Этапы планирования (Process), Готовый маршрут (Output). Механизм адаптации прост: определите три ключевые сущности вашей задачи — что дано, что делать, что получить — и используйте их как каркас для вашего промпта.
Ты — опытный SMM-стратег. Твоя задача — разработать контент-план для нового продукта. Действуй строго по шагам, используя предоставленные данные.

### Входные данные (Input)

*   **Продукт:** "Эко-Байт" — линейка полезных снеков для офисных работников (ореховые миксы, фруктовые чипсы, протеиновые батончики).
*   **Целевая аудитория:** Мужчины и женщины 25-45 лет, работающие в офисе, ценящие здоровый образ жизни, но испытывающие нехватку времени.
*   **Ключевое сообщение:** "Здоровый перекус без отрыва от работы".
*   **Платформа:** Instagram.
*   **Срок кампании:** 1 месяц.

### Процесс (Process)

1.  **Определи 3-4 ключевые рубрики (контент-пиллара)**, которые будут интересны целевой аудитории. Например: польза ингредиентов, лайфхаки по питанию в офисе, ситуации потребления продукта.
2.  **Для каждой рубрики придумай 2-3 конкретные темы для постов.**
3.  **Распредели эти темы по неделям** на 1 месяц (всего 4 недели).
4.  **Для каждой темы предложи формат контента:** пост (статика), карусель, Reels, Stories.
5.  **Представь весь контент-план в виде таблицы.**

### Результат (Output)

Сгенерируй контент-план в формате таблицы Markdown со следующими столбцами:
| Неделя | День недели | Рубрика | Тема поста | Формат |
|---|---|---|---|---|

Убедись, что план логичен, разнообразен и полностью соответствует входным данным и процессу.

Этот промпт эффективен, потому что он в точности реализует принципы из исследования:

  1. Устранение двусмысленности: Модель четко видит, где находятся исходные данные (### Input), а где — пошаговые инструкции (### Process). Она не будет пытаться "угадать", является ли "целевая аудитория" частью задания или просто контекстом.
  2. Снижение когнитивной нагрузки: Вместо того чтобы обрабатывать один большой кусок текста, модель последовательно выполняет шаги из раздела Process, опираясь на информацию из Input. Это имитирует логический рабочий процесс человека.
  3. Четкое определение цели: Раздел ### Output не оставляет модели пространства для фантазии о том, как должен выглядеть финальный результат. Он задает точную структуру (таблица Markdown с конкретными столбцами), что гарантирует получение ответа в нужном формате.
Ты — опытный диетолог и фитнес-тренер. Твоя задача — составить персонализированный план питания на неделю.

### Входные данные (Input)

*   **Клиент:** Анна, 32 года.
*   **Цель:** Снижение веса на 2-3 кг за месяц, повышение уровня энергии.
*   **Параметры:** Рост 168 см, вес 70 кг, офисная работа (низкая активность).
*   **Пищевые предпочтения:** Любит курицу, рыбу, овощи, гречку, творог.
*   **Ограничения:** Аллергия на арахис, не любит жирную свинину.
*   **Бюджет:** Средний, без экзотических и дорогих продуктов.

### Процесс (Process)

1.  **Рассчитай примерную суточную норму калорий** для Анны с учетом ее цели (небольшой дефицит). Кратко объясни расчет.
2.  **Составь сбалансированное меню на 3 дня (Понедельник, Вторник, Среда)**, чтобы показать принцип.
3.  **Для каждого дня распиши 4 приема пищи:** Завтрак, Обед, Перекус, Ужин.
4.  **Для каждого приема пищи предложи конкретное блюдо** с указанием примерного веса порции (например, "Куриная грудка на гриле, 150г").
5.  **Убедись, что все блюда соответствуют предпочтениям и ограничениям** клиента.
6.  **Сформируй итоговый ответ в виде структурированного плана.**

### Результат (Output)

Представь план в следующем виде:

**1. Расчет калорийности:**
<Краткое объяснение и итоговая цифра>

**2. План питания:**

**Понедельник**
*   **Завтрак:** <название блюда, граммовка>
*   **Обед:** <название блюда, граммовка>
*   **Перекус:** <название блюда, граммовка>
*   **Ужин:** <название блюда, граммовка>

**Вторник**
*   **Завтрак:** <название блюда, граммовка>
*   ...и так далее.

Этот промпт работает по той же доказанной в исследовании механике, что и предыдущий:

  1. Изоляция данных и инструкций: Модель получает все персональные данные клиента (рост, вес, аллергии) в изолированном блоке ### Input. Это гарантирует, что она будет использовать их как факты, а не как часть инструкций. Критически важное ограничение (аллергия на арахис) не потеряется в общем потоке текста.
  2. Направляемая логика: Раздел ### Process ведет модель по логической цепочке, которую использовал бы реальный диетолог: сначала расчет калорий, затем составление меню на основе этого расчета. Это предотвращает "галлюцинации" и нелогичные предложения.
  3. Форматирование как часть задания: Раздел ### Output задает точную иерархию и форматирование ответа. Модель не просто выдаст сплошной текст, а создаст четкую, читаемую структуру, которую легко использовать. Это прямое управление генерацией для получения предсказуемого и полезного результата.
📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Высокая. Исследование предлагает фундаментальный фреймворк (Input, Process, Output) для структурирования сложных запросов, что является продвинутой техникой промптинга.
  • B. Улучшение качества диалоговых ответов: Очень высокое. Результаты (рис. 3, 4) показывают колоссальный прирост качества (до +65% по метрике Cosine Similarity) при использовании предложенного подхода по сравнению с прямым запросом.
  • C. Прямая практическая применимость: Высокая. Хотя в статье описывается автоматизированная система, сам принцип декомпозиции запроса на Input-Process-Output может быть немедленно применен любым пользователем в одном промпте без какого-либо кода.
  • D. Концептуальная ценность: Очень высокая. Работа наглядно демонстрирует, почему LLM "ломаются" на сложных запросах (концепция "Mixed Intention Elicitation" — смешанные намерения). Она дает пользователю ключевую ментальную модель: "Не заставляй модель разбираться в хаосе, сначала разберись сам и дай ей структуру".
  • E. Новая полезная практика: Да, работа попадает сразу в несколько кластеров:
    • Кластер 1 (Техники формулирования): Предлагает метод декомпозиции сложной задачи.
    • Кластер 3 (Оптимизация структуры): Вся суть работы в оптимизации структуры промпта через явное разделение на логические блоки.
    • Кластер 5 (Извлечение и структурирование): Метод идеально подходит для получения сложных структурированных ответов (в статье это "Workflows").
  • Чек-лист практичности: Да, получает +15 баллов. Исследование дает готовую конструкцию (Input/Process/Output), показывает, как структурировать сложные запросы, и раскрывает неочевидную особенность поведения LLM (резкое падение качества при смешении задач).
📌

Цифровая оценка полезности

Аргументы за высокую оценку (92/100): Это исследование — одно из самых полезных для продвинутых пользователей. Оно не просто дает "фишку", а предлагает фундаментальный, масштабируемый подход к решению сложных задач. Вывод о том, что производительность LLM резко падает при смешивании нескольких намерений в одном запросе, но восстанавливается при их явном разделении, — это ключевой инсайт для промпт-инжиниринга. Любой пользователь может взять структуру Input-Process-Output и сразу же начать получать более качественные и предсказуемые результаты для комплексных задач, что подтверждается огромным приростом в метриках качества в самой статье.

Контраргументы (почему не 100/100): * Академический язык: Статья написана сложным научным языком (DAG, loss functions, Intention Elicitation), что может отпугнуть обычного пользователя. Основную идею нужно "вытащить" из-под слоя терминологии. * Непрямое применение: В статье описывается система из двух LLM, что технически недоступно пользователю. Пользователь должен сам догадаться, что этот системный подход можно эмулировать в рамках одного промпта, выполняя роль "первой LLM" (которая извлекает сигналы) самостоятельно. * Требует усилий: В отличие от простых техник вроде "добавь фразу Х", этот метод требует от пользователя предварительного анализа и структурирования своей задачи, что занимает больше времени.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с