3,583 papers
arXiv:2603.26712 78 17 мар. 2026 г. FREE

Decision Policy Prompting: операционные ограничения работают, «будь кратким» — нет

КЛЮЧЕВАЯ СУТЬ
Парадокс: «будь краткой» — статистически незначимая фраза. Эксперимент показал: модель выдаёт ровно столько же, как если бы её не было. Decision Policy Prompting позволяет получать ровно столько, сколько нужно — 5 вариантов вместо 12-ти, список без объяснений, ответ без «а вот ещё несколько идей». Промпт превращается из пожелания в план выполнения: «ровно 5 вариантов, без объяснений, остановись после первого рабочего» — это не просьба, а программа — модель знает точно, когда задача считается решённой.
Адаптировать под запрос

TL;DR

Расплывчатые инструкции типа «отвечай эффективно», «будь лаконичен», «не трать время» не влияют на поведение модели. Работают только конкретные операционные ограничения — точные правила: что сделать, когда остановиться, что вывести.

Основная боль: вы пишете «ответь кратко» — и получаете столько же текста, сколько без этой инструкции. Модель воспринимает «кратко» как пожелание, а не как команду. Нет чёткой точки остановки — нет остановки. Нет конкретного числа — нет ограничения. Нет указания «только результат» — будут вступление, объяснения и вывод.

Исследование показало: оценочный язык («эффективно», «быстро», «не лишнего») статистически не меняет объём работы модели. А вот операционные ограничения — правила с конкретными порогами, числами и условиями остановки — дают стабильный и предсказуемый результат.


🔬

Схема метода

Два вида инструкций — и они работают принципиально по-разному:

ВАГУНАЯ ИНСТРУКЦИЯ (не работает):
"Сделай это эффективно / кратко / без лишнего"
→ Модель генерирует произвольный объём. Непредсказуемо.

ОПЕРАЦИОННОЕ ОГРАНИЧЕНИЕ (работает):
Тип 1 — лимит объёма:     "Найди ровно 5 примеров. Не больше."
Тип 2 — правило остановки: "При первом рабочем варианте — стоп."
Тип 3 — формат вывода:    "Только результат. Без вступления и выводов."
Тип 4 — ветвление:        "Если A не работает за 1 шаг — попробуй B, затем стоп."

→ Модель выполняет ровно то, что описано. Предсказуемо.

Все четыре типа работают внутри одного промпта.


🚀

Пример применения

Задача: Основатель стартапа готовит питч-деку для ФРИИ и просит ChatGPT разобрать конкурентов. Раньше писал «проанализируй кратко» — получал пять абзацев ни о чём.

Промпт с операционными ограничениями:

Проанализируй конкурентов сервиса доставки еды для офисов в Москве.

Правила:
— Ровно 5 конкурентов. Не меньше, не больше.
— По каждому: название, одно главное преимущество, один главный минус.
— Формат: таблица из 5 строк и 3 столбцов.
— Без вступления. Без выводов. Без дополнительных комментариев.
— После таблицы — стоп.

Результат:

Модель выдаст таблицу ровно из 5 строк: колонки «Конкурент», «Преимущество», «Минус». Никакого вступления, никакого «надеюсь это помогло». Чистая структура, пригодная для слайда питча без редактуры.


🧠

Почему это работает

Модель генерирует текст по паттерну — предсказывает следующий токен на основе того, что уже написано. У неё нет внутреннего счётчика слов, нет понимания «достаточно». Без явной точки остановки она продолжает — потому что «продолжение» статистически вероятнее «остановки».

«Кратко» и «эффективно» — это оценочные сигналы. В текстах, на которых обучена модель, слово «кратко» встречается рядом с тысячами разных длин ответов. Модель не может вывести из него число. Сигнал есть — операции нет.

Операционное ограничение — это другое. «Ровно 5», «только таблица», «стоп после первого варианта» — это структурные якоря, которые буквально ограничивают пространство допустимых продолжений. Модель следует им не потому что «поняла» — а потому что они прямо задают форму следующего токена.

Рычаги управления промптом: - Числа (ровно 5, не больше 3) — самый надёжный ограничитель - Условия остановки (при первом рабочем — стоп) — убирают избыточную итерацию - Формат вывода (только таблица, без комментариев) — обрезают обёртку - Ветвление (если A — делай B, иначе C) — контролируют сценарии без лишних шагов


📋

Шаблон промпта

{Задача}: {описание того, что нужно сделать}

Правила выполнения:
— Объём: {точное число объектов/пунктов/строк}
— По каждому элементу: {что именно указать — одна характеристика на пункт}
— Формат вывода: {таблица / нумерованный список / одна строка / etc.}
— Без {что исключить: вступление / выводы / объяснения / комментарии}
— Условие остановки: {когда остановиться — после N элементов / после первого рабочего варианта / etc.}

Что подставлять: - {Задача} — конкретный запрос: «найди конкурентов», «предложи заголовки», «разбей на этапы» - {точное число} — число, а не слово. «5», а не «несколько» - {что именно} — одна характеристика на пункт, не «всё важное» - {что исключить} — перечисли явно: «без вступления», «без вывода», «без объяснений» - {условие остановки} — явная точка: «после 5 пунктов», «после первого рабочего»


🚀 Быстрый старт — вставь в чат:

Вот шаблон Decision Policy Prompting. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит: сколько элементов нужно, какой формат вывода предпочтителен, что исключить — потому что без этих чисел и ограничений промпт не будет операционным.


⚠️

Ограничения

⚠️ Творческие задачи с открытым форматом: Жёсткие операционные ограничения могут обрезать полезный контекст. «Напиши сторителлинг — ровно 4 предложения, без эмоций» — ограничение убьёт ценность. Применяй там, где нужна предсказуемость, а не там, где нужна открытость.

⚠️ Исследование измеряло код, а не чаты: Эксперимент проводили на конкретном Python-воркфлоу. Предложенные выводы про промпты — извлечённый принцип, не прямой эксперимент в ChatGPT. Принцип работает, но точные цифры снижения не переносятся напрямую в обычный чат.

⚠️ «Зелёный язык» исследовали как экологический сигнал: В исходном эксперименте «зелёные» инструкции типа «минимизируй вычисления» проверялись на предмет энергоэффективности кода. Более широкое утверждение — что любые расплывчатые качественные инструкции не работают — логично следует из механики модели, но само по себе исследованием не проверялось отдельно.


🔗

Ресурсы

On the Carbon Footprint of Economic Research in the Age of Generative AI

Andrés Alonso-Robisco, Carlos Esparcia, Francisco Jareño

Banco de España / Universidad de Castilla-La Mancha, март 2026

Инструмент измерения: CodeCarbon

Упомянутые авторы по LDA: Blei et al. (2003); Gentzkow et al. (2019)


📋 Дайджест исследования

Ключевая суть

Парадокс: «будь краткой» — статистически незначимая фраза. Эксперимент показал: модель выдаёт ровно столько же, как если бы её не было. Decision Policy Prompting позволяет получать ровно столько, сколько нужно — 5 вариантов вместо 12-ти, список без объяснений, ответ без «а вот ещё несколько идей». Промпт превращается из пожелания в план выполнения: «ровно 5 вариантов, без объяснений, остановись после первого рабочего» — это не просьба, а программа — модель знает точно, когда задача считается решённой.

Принцип работы

Модель генерирует по паттерну вопроса. Открытый вопрос → широкий ответ. Нет правила остановки → модель сама решает, когда хватит. И всегда решает в сторону «больше» — на всякий случай. Работают четыре рычага: лимит количества («рассмотри максимум 3 варианта»), правило стоп («остановись после первого рабочего»), ограничение вывода («только результат, без объяснений»), правило решения («если [условие] → делай X, иначе → Y»). Все четыре можно добавить в один запрос.

Почему работает

Модель не понимает «кратко». Она не знает: кратко — это 3 варианта или 10? Объяснять или нет? У модели нет внутреннего счётчика «достаточно» — она следует структуре запроса, а не абстрактному пожеланию. Конкретное правило убирает неоднозначность. «Ровно 5» — неоднозначности нет. «Без объяснений» — целый класс генерации отключён. Модель следует явным правилам, а не угадывает.

Когда применять

Любая задача с понятным критерием «готово»: генерация вариантов, структурированный анализ, список без обсуждений, быстрые ответы без вступлений. Особенно там, где модель обычно выдаёт «простыни» с объяснениями вместо чистого результата. НЕ подходит для открытого исследования темы вширь — жёсткие правила там будут резать нужное. И нельзя написать «остановись когда…», если сам ещё не знаешь, что считать готовым результатом.

Мини-рецепт

1. Напиши задачу конкретно: что сделать, с каким материалом, для чего.
2. Добавь блок «Правила выполнения»: сколько вариантов максимум, что считать готовым — например: <правила>ровно 5 вариантов, каждый не длиннее 3 слов.
3. Запрети лишнее явно: «без вступлений, объяснений и бонусных вариантов».
4. Укажи формат: нумерованный список, таблица, один абзац — как угодно, но явно.
5. Добавь правило решения, если нужна логика: «если вариант длиннее 5 слов — пропускай, бери следующий».

Примеры

[ПЛОХО] : Придумай варианты слогана для нашего сервиса. Постарайся быть кратким.
[ХОРОШО] : Придумай варианты слогана для сервиса доставки еды. Правила выполнения: - Ровно 5 вариантов. Не больше. - Каждый не длиннее 5 слов. - Без объяснений, комментариев и вступлений — только сами слоганы. - После 5-го варианта останавливайся. Формат: 1. [слоган] 2. [слоган] ...
Источник: On the Carbon Footprint of Economic Research in the Age of Generative AI
ArXiv ID: 2603.26712 | Сгенерировано: 2026-03-31 04:35

Проблемы LLM

ПроблемаСутьКак обойти
Просьбы «быть краткой» не работаютПишешь «будь лаконичным» или «постарайся быть эффективной». Модель генерирует ровно столько же. У неё нет внутреннего счётчика «достаточно». Она не знает: «кратко» — это 3 варианта или 10? С объяснениями или без? Без ответа на эти вопросы она угадывает — и угадывает в сторону «больше»Замени общее пожелание конкретным правилом. Вместо «будь кратким» пиши «ровно 5 вариантов, без объяснений, остановись после пятого»

Методы

МетодСуть
Операциональные ограничения — четыре типа правилВместо пожеланий вставляй в запрос точные правила выполнения. Четыре типа: Лимит вариантоврассмотри не более 3 вариантов. Правило стопостановись после первого рабочего варианта. Ограничение выводатолько результат, без объяснений. Правило решенияесли [условие] — делай X, иначе — Y. Используй все четыре сразу или нужные из них. Почему работает: правило убирает неоднозначность. Модель следует явной инструкции — не угадывает. Когда применять: есть понятный критерий «готово». Когда не применять: открытый брейншторм без чёткого результата — правила будут резать нужное
📖 Простыми словами

On the Carbon Footprint of Economic Research in the Age of GenerativeAI

arXiv: 2603.26712

Суть в том, что нейросети — это не просто чат-боты, а настоящие пожиратели ресурсов, чей аппетит напрямую зависит от того, как ты формулируешь задачу. Каждое лишнее слово в ответе — это не просто «вода», а реальные вычислительные циклы и углеродный след. Проблема в том, что LLM работают по инерции: если ты задаешь открытый вопрос, модель будет генерировать текст до тех пор, пока не исчерпает свой внутренний лимит «вежливости» или не решит, что выдала достаточно. Большинство твоих промптов заставляют железо греться впустую, потому что модель пытается быть максимально полезной там, где тебе нужен короткий ответ.

Это похоже на заказ такси, где ты платишь не за километры, а за время работы двигателя. Если ты скажешь водителю «едь аккуратно», он все равно будет жечь бензин в пробках. Но если ты поставишь жесткое условие «высади меня ровно через 500 метров», машина заглохнет сразу в нужной точке. С нейросетями та же история: абстрактные просьбы типа "пиши короче" они воспринимают как пустой звук, продолжая молотить токены и тратить энергию на бессмысленные расшаркивания.

Чтобы реально сэкономить ресурсы и время, нужно использовать операциональные ограничения. Вместо того чтобы надеяться на благоразумие модели, ставь ей жесткие рамки: «дай ровно 3 варианта», «используй не более 20 слов», «прекрати генерацию сразу после вывода списка». Исследование показывает, что только явные условия выхода и лимиты заставляют модель заткнуться вовремя. Если Катя-продакт просит названия тарифов без ограничений, она получает простыню текста, на генерацию которой сервер потратил в пять раз больше энергии, чем требовалось для трех слов.

Этот принцип универсален и касается не только экологии или экономики. Будь то написание кода, создание маркетинговых слоганов или суммаризация писем — неконтролируемая генерация убивает эффективность. Мы привыкли думать, что токены бесплатны, но на деле каждый лишний абзац — это микро-удар по производительности системы и твоему фокусу. SEO для планеты начинается с того, что ты перестаешь просить нейросеть «порассуждать» там, где нужен сухой факт.

Короче: хватит плодить сущности и заставлять видеокарты в дата-центрах потеть над вежливыми вступлениями. Пиши промпты как жесткий ТЗ, где за каждое лишнее слово полагается штраф. Внедряй правила остановки и лимиты вариантов в каждый запрос — это единственный способ заставить AI работать эффективно, а не просто казаться умным. Кто научится управлять длиной ответа, тот сэкономит и деньги, и вычислительные мощности, пока остальные продолжают тонуть в информационном шуме.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с