TL;DR
Расплывчатые инструкции типа «отвечай эффективно», «будь лаконичен», «не трать время» не влияют на поведение модели. Работают только конкретные операционные ограничения — точные правила: что сделать, когда остановиться, что вывести.
Основная боль: вы пишете «ответь кратко» — и получаете столько же текста, сколько без этой инструкции. Модель воспринимает «кратко» как пожелание, а не как команду. Нет чёткой точки остановки — нет остановки. Нет конкретного числа — нет ограничения. Нет указания «только результат» — будут вступление, объяснения и вывод.
Исследование показало: оценочный язык («эффективно», «быстро», «не лишнего») статистически не меняет объём работы модели. А вот операционные ограничения — правила с конкретными порогами, числами и условиями остановки — дают стабильный и предсказуемый результат.
Схема метода
Два вида инструкций — и они работают принципиально по-разному:
ВАГУНАЯ ИНСТРУКЦИЯ (не работает):
"Сделай это эффективно / кратко / без лишнего"
→ Модель генерирует произвольный объём. Непредсказуемо.
ОПЕРАЦИОННОЕ ОГРАНИЧЕНИЕ (работает):
Тип 1 — лимит объёма: "Найди ровно 5 примеров. Не больше."
Тип 2 — правило остановки: "При первом рабочем варианте — стоп."
Тип 3 — формат вывода: "Только результат. Без вступления и выводов."
Тип 4 — ветвление: "Если A не работает за 1 шаг — попробуй B, затем стоп."
→ Модель выполняет ровно то, что описано. Предсказуемо.
Все четыре типа работают внутри одного промпта.
Пример применения
Задача: Основатель стартапа готовит питч-деку для ФРИИ и просит ChatGPT разобрать конкурентов. Раньше писал «проанализируй кратко» — получал пять абзацев ни о чём.
Промпт с операционными ограничениями:
Проанализируй конкурентов сервиса доставки еды для офисов в Москве.
Правила:
— Ровно 5 конкурентов. Не меньше, не больше.
— По каждому: название, одно главное преимущество, один главный минус.
— Формат: таблица из 5 строк и 3 столбцов.
— Без вступления. Без выводов. Без дополнительных комментариев.
— После таблицы — стоп.
Результат:
Модель выдаст таблицу ровно из 5 строк: колонки «Конкурент», «Преимущество», «Минус». Никакого вступления, никакого «надеюсь это помогло». Чистая структура, пригодная для слайда питча без редактуры.
Почему это работает
Модель генерирует текст по паттерну — предсказывает следующий токен на основе того, что уже написано. У неё нет внутреннего счётчика слов, нет понимания «достаточно». Без явной точки остановки она продолжает — потому что «продолжение» статистически вероятнее «остановки».
«Кратко» и «эффективно» — это оценочные сигналы. В текстах, на которых обучена модель, слово «кратко» встречается рядом с тысячами разных длин ответов. Модель не может вывести из него число. Сигнал есть — операции нет.
Операционное ограничение — это другое. «Ровно 5», «только таблица», «стоп после первого варианта» — это структурные якоря, которые буквально ограничивают пространство допустимых продолжений. Модель следует им не потому что «поняла» — а потому что они прямо задают форму следующего токена.
Рычаги управления промптом:
- Числа (ровно 5, не больше 3) — самый надёжный ограничитель
- Условия остановки (при первом рабочем — стоп) — убирают избыточную итерацию
- Формат вывода (только таблица, без комментариев) — обрезают обёртку
- Ветвление (если A — делай B, иначе C) — контролируют сценарии без лишних шагов
Шаблон промпта
{Задача}: {описание того, что нужно сделать}
Правила выполнения:
— Объём: {точное число объектов/пунктов/строк}
— По каждому элементу: {что именно указать — одна характеристика на пункт}
— Формат вывода: {таблица / нумерованный список / одна строка / etc.}
— Без {что исключить: вступление / выводы / объяснения / комментарии}
— Условие остановки: {когда остановиться — после N элементов / после первого рабочего варианта / etc.}
Что подставлять:
- {Задача} — конкретный запрос: «найди конкурентов», «предложи заголовки», «разбей на этапы»
- {точное число} — число, а не слово. «5», а не «несколько»
- {что именно} — одна характеристика на пункт, не «всё важное»
- {что исключить} — перечисли явно: «без вступления», «без вывода», «без объяснений»
- {условие остановки} — явная точка: «после 5 пунктов», «после первого рабочего»
🚀 Быстрый старт — вставь в чат:
Вот шаблон Decision Policy Prompting. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит: сколько элементов нужно, какой формат вывода предпочтителен, что исключить — потому что без этих чисел и ограничений промпт не будет операционным.
Ограничения
⚠️ Творческие задачи с открытым форматом: Жёсткие операционные ограничения могут обрезать полезный контекст. «Напиши сторителлинг — ровно 4 предложения, без эмоций» — ограничение убьёт ценность. Применяй там, где нужна предсказуемость, а не там, где нужна открытость.
⚠️ Исследование измеряло код, а не чаты: Эксперимент проводили на конкретном Python-воркфлоу. Предложенные выводы про промпты — извлечённый принцип, не прямой эксперимент в ChatGPT. Принцип работает, но точные цифры снижения не переносятся напрямую в обычный чат.
⚠️ «Зелёный язык» исследовали как экологический сигнал: В исходном эксперименте «зелёные» инструкции типа «минимизируй вычисления» проверялись на предмет энергоэффективности кода. Более широкое утверждение — что любые расплывчатые качественные инструкции не работают — логично следует из механики модели, но само по себе исследованием не проверялось отдельно.
Ресурсы
On the Carbon Footprint of Economic Research in the Age of Generative AI
Andrés Alonso-Robisco, Carlos Esparcia, Francisco Jareño
Banco de España / Universidad de Castilla-La Mancha, март 2026
Инструмент измерения: CodeCarbon
Упомянутые авторы по LDA: Blei et al. (2003); Gentzkow et al. (2019)
