3,583 papers
arXiv:2605.05400 79 6 мая 2026 г. FREE

MEP (Mise en Place): методология "сначала брифинг, потом задача" — как подготовить контекст, который избавит от итеративных правок

КЛЮЧЕВАЯ СУТЬ
Обнаружено: когда у модели нет твоей тактической экспертизы — она заполняет пробелы усреднёнными паттернами из обучения. Отсюда шаблонные ответы и бесконечные правки. MEP позволяет сдвинуть согласование с «после» на «до»: три подготовительных артефакта убирают большинство итераций до того, как модель начнёт работать. Сначала брифинг с неявной экспертизой, потом спецификация с «почему», потом декомпозиция с критериями готовности — и только тогда запуск. Модель получает твой контекст, а не домысливает его из общих данных.
Адаптировать под запрос

TL;DR

MEP — трёхфазная методология подготовки контекста перед запуском AI на сложную задачу. Суть: вместо того чтобы сразу бросать ИИ в работу и потом бесконечно править, сначала создаёшь три артефакта — брифинг-документ с экспертизой, детальную спецификацию с обоснованием, декомпозицию задач с зависимостями — и только потом даёшь старт.

Когда просишь Claude написать большой сложный документ "в лоб", получаешь обобщённый результат. Модель генерирует по паттернам — но у неё нет твоей тактической экспертизы: что работает в твоём контексте, что нельзя, почему именно такой формат, а не другой. Это неявное знание ("вроде и так понятно, но попробуй объясни") — именно оно теряется. Результат: раунды правок, которые съедают больше времени, чем сама генерация.

MEP решает задачу переносом согласования с "после" на "до": в Фазе 1 ты записываешь всё что знаешь (включая неочевидное), в Фазе 2 уточняешь детали через диалог с AI и кодируешь "почему", в Фазе 3 разбиваешь работу на чёткие блоки с критериями готовности. Три шага — три артефакта — минимум итераций при выполнении.


🔬

Схема метода

ФАЗ 1 — Брифинг (выполняешь сам, отдельный документ)
  → Записываешь: экспертизу, ценности, ограничения, что НЕ делать
  → Артефакт: брифинг-документ (любой формат)

ФАЗ 2 — Спецификация (диалог с AI)
  → AI задаёт вопросы, ты отвечаешь, вместе фиксируете ЧТО и ПОЧЕМУ
  → Артефакт: дизайн-документ с обоснованием каждого решения

ФАЗ 3 — Декомпозиция (диалог с AI)
  → Спецификация → список задач с зависимостями и критериями готовности
  → Артефакт: упорядоченный список блоков

ВЫПОЛНЕНИЕ — AI работает по задачам последовательно (или параллельно)
  → Каждый блок — независимая чёткая единица, не требует уточнений

Фазы 1–3 — подготовка, выполнение — последнее. Ни строчки работы до завершения всех трёх фаз.


🚀

Пример применения

Задача: Владелец небольшой IT-студии хочет попросить Claude написать полноценную стратегию вывода нового SaaS-продукта на рынок. Запускает в лоб — получает шаблонный текст из серии "определите целевую аудиторию". Тратит час на правки. Применяет MEP.

Промпт (Фаза 1 — пишешь сам, вставляешь в начало сессии):

# Брифинг: стратегия вывода продукта на рынок

## Что я знаю о своём продукте и рынке:
Мы делаем CRM для небольших стоматологических клиник (1–5 кресел). 
Ключевая боль: администраторы тратят 3–4 часа в день на обзвон пациентов 
для напоминаний и перезаписи. Наш продукт автоматизирует это через WhatsApp.
Рынок: Россия + СНГ. Конкуренты есть, но заточены под крупные сети. 
Маленькие клиники — их слепое пятно.

## Мои ценности и приоритеты:
Главное — скорость до первых 50 платящих клиентов. 
Не хочу гнаться за узнаваемостью бренда на этом этапе. 
Метрика успеха: MRR 500к рублей за 6 месяцев.

## Что НЕ нужно делать:
- Не нужен контент-маркетинг и SEO (долго)
- Не нужны маркетплейсы и агрегаторы
- Без инвестиций — только bootstrapped-каналы

## Ограничения:
Команда 3 человека. Бюджет на маркетинг — 100к рублей суммарно. 
Основной канал продаж пока — я сам (founder-led sales).

Промпт (Фаза 2 — отдельное сообщение после брифинга):

Используй этот брифинг и помоги мне создать детальную спецификацию 
стратегии вывода на рынок. 

Задавай уточняющие вопросы — по одному, жди ответа. 
По каждому решению фиксируй не только ЧТО, но и ПОЧЕМУ именно так. 
Явно запиши что исключаем и обоснование.

Когда получим полную картину — сформируй финальный документ спецификации.

Промпт (Фаза 3 — после спецификации):

Используя спецификацию выше, разбей стратегию на отдельные блоки работ.

Для каждого блока укажи:
- Что конкретно делать (не абстрактно)
- Что должно быть готово до него (зависимости)
- Как понять что блок выполнен (критерий готовности)

Сортируй по порядку выполнения. Блоки должны быть независимыми — 
каждый можно выполнять не возвращаясь к уточнениям.

Результат:

После Фазы 1 у тебя есть документ, который можно вставлять в любой новый чат как системный контекст. После Фазы 2 — детальная спецификация с зафиксированными "почему": почему cold outreach, а не реклама; почему стоматология; почему WhatsApp. После Фазы 3 — упорядоченный список блоков (например: "сформировать базу стоматологий в 5 городах → написать скрипт звонка → запустить пилот с 10 клиниками → ..."). Каждый блок можно отдать AI как отдельную задачу без повторных объяснений.


🧠

Почему это работает

Слабость LLM — модель генерирует текст по паттернам, выученным из общих данных. У неё нет твоей тактической экспертизы: что работает именно в твоём контексте, какие ограничения реальны, почему ты принял конкретные решения. Без этого она заполняет пробелы усреднёнными предположениями. Результат — шаблонный вывод.

Сильная сторона LLM — модель хорошо следует явным ограничениям и структурированным инструкциям. Чем богаче контекст и чётче границы, тем точнее вывод. Если ты зафиксировал "почему НЕТ SEO", модель не будет предлагать SEO.

Как MEP использует это — вместо того чтобы надеяться что модель сама угадает твой контекст, ты принудительно экстернализируешь неявное знание. Брифинг-документ заставляет тебя самого артикулировать то, что "и так понятно". Спецификация с "почему" даёт модели логику для самостоятельных микрорешений без эскалации. Декомпозиция убирает двусмысленность в каждом блоке.

Рычаги управления: - Глубина брифинга → чем больше неявного знания записал, тем меньше правок при выполнении - "Что НЕ делать" → явные исключения работают сильнее чем инструкции что включать - Размер блоков в Фазе 3 → мелкие блоки (15–30 мин работы) = меньше отклонений; крупные = риск потерять нить - Критерии готовности → без них AI сам решает когда остановиться, часто раньше нужного


📋

Шаблон промпта

# MEP: Подготовка для {название_задачи}

---
## ФАЗА 1: БРИФИНГ (заполняешь сам)

### Что я знаю о домене (неочевидное, тактическая экспертиза):
{запиши всё что "и так понятно" — именно это теряется без брифинга}

### Мои ценности и приоритеты:
{что критично, в каком порядке приоритеты, главная метрика успеха}

### Что явно НЕ входит в скоуп:
{перечисли исключения — это важнее списка того что нужно}

### Контекст и ограничения:
{аудитория, бюджет, сроки, ресурсы, формат}

---
## ФАЗА 2: СПЕЦИФИКАЦИЯ (вставь после брифинга и отправь)

Используй брифинг выше. Помоги создать детальную спецификацию для {название_задачи}.

Задавай уточняющие вопросы по одному, жди ответа.
По каждому решению фиксируй ЧТО и ПОЧЕМУ.
Явно запиши что исключаем и обоснование исключений.
Когда картина полная — оформи финальный документ спецификации.

---
## ФАЗА 3: ДЕКОМПОЗИЦИЯ (вставь спецификацию + эту инструкцию)

Используя спецификацию, разбей {название_задачи} на блоки работ.
Целевой размер блока: {размер_блока} (например: "30 минут работы" или "один раздел документа").

Для каждого блока:
- Конкретное действие (без абстракций)
- Зависимости (что должно быть готово до)
- Критерий готовности (как понять что выполнено)

Сортируй по порядку выполнения.
Каждый блок должен быть самодостаточным — без возврата к уточнениям.

Что подставлять: - {название_задачи} — конкретная задача: "маркетинговая стратегия", "политика онбординга", "питч для инвесторов" - {размер_блока} — желаемая гранулярность: "15–30 минут", "один раздел", "один экран/страница" - В блоке ФАЗА 1 — пиши свободно, не бойся "очевидного". Именно неочевидное-для-AI очевидное-для-тебя и нужно записать.


🚀 Быстрый старт — вставь в чат:

Вот шаблон MEP-методологии. Адаптируй под мою задачу: {твоя задача}. 
Начни с вопросов для заполнения Фазы 1 — задавай по одному, жди ответа.

[вставить шаблон выше]

LLM спросит о твоей экспертизе, ограничениях и исключениях — потому что без этого она не может построить брифинг, который действительно отражает твой контекст. Она возьмёт структуру шаблона и адаптирует под специфику задачи.


⚠️

Ограничения

⚠️ Размер задачи: MEP оправдывает себя только на сложных, многосоставных задачах. Для простых запросов (написать письмо, ответить на вопрос) overhead подготовки не окупается.

⚠️ Один кейс: Эмпирическая база — один хакатон, один участник, без контрольной группы. Соотношение 5.7:1 (подготовка vs. выполнение) и "почти нулевой" рефакторинг — наблюдения, не доказанный эффект.

⚠️ Экспертиза оператора: Качество брифинга напрямую зависит от твоей предметной экспертизы. Если ты сам не знаешь "почему" — модель не восполнит этот пробел.

⚠️ Параллельные агенты: Самая мощная часть MEP (параллельный запуск нескольких AI одновременно) требует технической настройки. В обычном чате — только последовательное выполнение.

⚠️ Фаза 2 требует терпения: Спецификация через диалог — это реальный разговор с несколькими раундами. Если торопиться и пропускать вопросы, теряется качество документа и смысл подготовки.


🔍

Как исследовали

Исследование — это скорее описание кейса, чем контролируемый эксперимент. Автор, Эндрю Зиглер из LinearB, применил методологию MEP во время реального соревновательного хакатона в январе 2026 года: 12 команд, 5 часов, задача — построить рабочий прототип на базе архива The Atlantic, приз $5,000.

Пока большинство команд начали писать код в первые 15 минут, автор потратил 2 часа на подготовку: создал 10 документов суммарно на 9 386 слов (включая конкурентный анализ и — важная деталь — расшифровку собственных педагогических взглядов, которые иначе остались бы в голове), создал детальную спецификацию и разбил работу на 64 блока-задачи.

Результат: платформа из 43 файлов и 8 496 строк кода, развёрнутая в продакшен за 184 минуты с 4 параллельными агентами. Медианное время закрытия одного блока — 5.9 минут. Что важно: баги при деплое были интеграционные и стилистические (обрезка контента API, иконка в браузере) — не архитектурные. Это и есть ключевой аргумент: богатый контекст на входе = правильная архитектура сразу.

Единственная честная оговорка от самого автора: он — специалист и в разработке, и в педагогике. Непонятно, сколько успеха дала методология, а сколько — его личная экспертиза. Из 12 команд только его команда запускала параллельных агентов — остальные работали линейно.


💡

Адаптации и экстраполяции

📌

🔧 Фаза 1 как постоянный "контекстный документ" для регулярных задач

Если ты регулярно работаешь с AI над похожими задачами (например, всегда пишешь контент для одного бренда или постоянно делаешь анализы для одного клиента) — создай один раз брифинг-документ и вставляй его в начало каждой сессии.

# Контекст [название проекта/клиента] — вставляй в начало каждого чата

## О проекте:
{постоянная информация — продукт, аудитория, позиционирование}

## Мой голос и стиль:
{тональность, что нельзя писать, любимые формулировки}

## Что всегда исключать:
{постоянные табу для этого контекста}

## Текущий приоритет:
{можно менять при каждой вставке}

Это не создаёт новый метод — это применяет принцип Фазы 1 как постоянный артефакт вместо разового.


📌

🔧 "Критерий готовности" как инструмент против незавершённого вывода

Принцип декомпозиции из Фазы 3 можно использовать изолированно — даже без полного MEP. Добавь к любому промпту явный критерий готовности:

[твоё задание]

Критерий готовности: {опиши конкретный признак завершённого результата}.
Не останавливайся пока критерий не выполнен.

Примеры критериев: - "Все 5 разделов заполнены конкретными примерами, не абстрактными рекомендациями" - "Каждый пункт содержит действие, не только наблюдение" - "Итого: ровно 7 блоков, каждый с заголовком и 3–5 предложениями"


🔗

Ресурсы

Работа: "Mise en Place for Agentic Coding: Deliberate Preparation as Context Engineering Methodology" — Andrew Zigler, LinearB, Los Angeles

Артефакты (CC-BY 4.0 / MIT): https://doi.org/10.5281/zenodo.19868258 — промпты, конфиги агентов, шаблоны планирования (CLAUDE.md, схема beads, шаблоны)

Ключевые отсылки из исследования: - Термин "vibe coding" — Andrej Karpathy (2025), Twitter/X - Backward design — Wiggins & McTighe (концепция: начинай с желаемого результата) - Tacit knowledge — Michael Polanyi ("мы знаем больше, чем можем сказать") - Beads (система задач) — Geoffrey Yegge + Jeffrey Emanuel (github.com/Dicklesworthstone/beads_rust) - GitHub Spec Kit — github.com/github/spec-kit - Context engineering — Anthropic docs: docs.anthropic.com/en/docs/build-with-claude/context-engineering

Опубликовано: VibeX 2026, 9–12 June 2026, Glasgow, Scotland


📋 Дайджест исследования

Ключевая суть

Обнаружено: когда у модели нет твоей тактической экспертизы — она заполняет пробелы усреднёнными паттернами из обучения. Отсюда шаблонные ответы и бесконечные правки. MEP позволяет сдвинуть согласование с «после» на «до»: три подготовительных артефакта убирают большинство итераций до того, как модель начнёт работать. Сначала брифинг с неявной экспертизой, потом спецификация с «почему», потом декомпозиция с критериями готовности — и только тогда запуск. Модель получает твой контекст, а не домысливает его из общих данных.

Принцип работы

Модель — подрядчик без брифа. Попросил построить — построит по нормативам. Но нормативы не знают, что у тебя особняк в болоте. Три фазы MEP разделяют работу по ролям: ты носитель экспертизы, вместе фиксируете логику решений, вместе делите на независимые блоки. Каждый следующий этап сужает пространство для усреднённых предположений — и к моменту выполнения у модели не остаётся лазейки для шаблонного вывода. Особенно важна явная фиксация исключений: не «что нужно сделать», а «что точно не делать» — это работает сильнее.

Почему работает

LLM хорошо следует явным ограничениям, но плохо угадывает неявные. Без брифинга модель видит задачу «напиши стратегию» — и пишет стратегию из учебника. Брифинг с «почему НЕТ SEO» физически убирает этот вариант из пространства ответов. Прикол: зафиксированные исключения работают сильнее позитивных инструкций — проще сказать что НЕ делать, чем перечислить всё что нужно. Авторы зафиксировали соотношение 5.7 к 1 (подготовка против выполнения) с почти нулевым рефакторингом. Оговорка честная: один хакатон, один участник, без контрольной группы. Но логика убедительная — и проверяется за один вечер.

Когда применять

Сложные многосоставные задачи — стратегии, методологии, большие документы, сложные технические спецификации — особенно когда у тебя есть тактическая экспертиза, которую модель не может угадать из общих данных. НЕ подходит для простых запросов (написать письмо, ответить на вопрос, сделать краткий текст): накладные расходы трёх фаз съедят больше времени, чем сэкономят.

Мини-рецепт

1. Напиши брифинг сам (Фаза 1): Отдельный документ — любым способом, хоть в блокноте. Запиши что знаешь о домене (включая «и так понятно»), приоритеты, главную метрику успеха. Обязательно — стоп-лист: что явно НЕ входит и почему. Добавь ограничения по ресурсам и формату. Не жди идеала: даже 10 минут дадут результат лучше нуля.

2. Создай спецификацию через диалог (Фаза 2): Вставь брифинг в чат. Попроси задавать уточняющие вопросы по одному и ждать ответа. Каждое решение фиксируй с «почему» — не только ЧТО, но и обоснование. Не торопись и не пропускай вопросы — здесь ты теряешь качество если спешишь. Итог — документ спецификации.

3. Разбей на блоки с критериями (Фаза 3): Из спецификации — список задач. Для каждой: конкретное действие без абстракций, зависимости (что должно быть готово до), критерий готовности (как понять что блок выполнен). Целевой размер блока — 15–30 минут работы. Мельче = меньше отклонений от нити.

4. Только теперь запускай выполнение: Каждый блок — отдельный запрос. Контекст уже зафиксирован. Уточнений не нужно.

Примеры

[ПЛОХО] : Напиши маркетинговую стратегию для моего SaaS-продукта для стоматологий
[ХОРОШО] : Перед запуском пишешь брифинг (одна страница в свободной форме): что делает продукт, кто клиент и почему, почему НЕ нужен SEO и контент-маркетинг, бюджет 100к рублей, команда три человека, метрика успеха — 500к рублей ежемесячной выручки за шесть месяцев. Вставляешь в чат и пишешь: Используй брифинг выше. Задавай уточняющие вопросы по одному, жди ответа. Каждое решение фиксируй с обоснованием — не только что делаем, но и почему. Явно запиши что исключаем. Когда картина полная — оформи спецификацию. После диалога отдельным сообщением: Используя спецификацию, разбей на блоки работ по 30 минут. Для каждого: конкретное действие, зависимости, критерий готовности. Сортируй по порядку выполнения.
Источник: Mise en Place for Agentic Coding: Deliberate Preparation as Context Engineering Methodology
ArXiv ID: 2605.05400 | Сгенерировано: 2026-05-08 05:46

Проблемы LLM

ПроблемаСутьКак обойти
Модель заполняет пробелы в контексте усреднёнными ответамиУ тебя есть неявное знание: что работает именно в твоём случае, что нельзя делать и почему. Ты считаешь это очевидным — и не пишешь. Модель это не знает. Заполняет пробелы шаблонными паттернами из обучающих данных. Получаешь обобщённый результат — и тратишь время на правкиЭкстернализируй неявное знание до начала работы. Запиши всё что "и так понятно": ограничения, исключения, логику решений. Особенно — что НЕ нужно делать и почему

Методы

МетодСуть
Брифинг до задачи — перенос правок с "после" на "до"Перед сложной задачей создай три артефакта. Сначала — пиши сам: экспертиза, приоритеты, ограничения, явный список исключений. Потом — диалог с моделью: задаёт вопросы по одному, ты отвечаешь, вместе фиксируете каждое решение + почему именно так. Потом — декомпозиция: список независимых блоков с зависимостями и критериями готовности. Только после всех трёх — выполнение. Почему работает: Все согласования происходят до генерации, а не после. Каждый блок при выполнении самодостаточен — модель не возвращается к уточнениям. Когда применять: сложные многосоставные задачи (документ, стратегия, код). Когда не работает: простые запросы — подготовка не окупается

Тезисы

ТезисКомментарий
Запись "почему" даёт модели право на мелкие решения без вопросовКогда модель знает только ЧТО делать — при каждом спорном шаге останавливается и уточняет. Когда знает ПОЧЕМУ — применяет логику самостоятельно на похожих случаях. Механизм: явное обоснование работает как правило вывода, а не как инструкция на один раз. Применяй: вместо "используй короткие абзацы" пиши "используй короткие абзацы — потому что аудитория читает с мобильного". Модель применит этот принцип и там, где ты не предусмотрел
📖 Простыми словами

Mise en Place forAgenticCoding: Deliberate Preparation as ContextEngineeringMethodology

arXiv: 2605.05400

Суть метода Mise en Place (MEP) в том, что AI-агенты тупеют не от недостатка мощности, а от бардака в твоей голове. Если ты бросаешь модель на сложную задачу без подготовки, она начинает галлюцинировать и выдавать усредненный мусор, потому что пытается угадать контекст, которого у неё нет. Вместо того чтобы сразу жать кнопку «сделать красиво», нужно сначала провести инженерную подготовку контекста: создать жесткую структуру из экспертизы, логики и четкого плана действий, прежде чем первая строчка кода или текста вообще появится на экране.

Это как работа шеф-повара на профессиональной кухне: ты не начинаешь жарить мясо, пока у тебя не нарезаны овощи, не готовы соусы и не разложены ножи. Если ты кинешься к плите в хаосе, ты обязательно что-то сожжешь. В мире AI «нарезанные овощи» — это три конкретных документа: брифинг с твоим опытом, спецификация с логикой «почему именно так» и детальный план шагов. Без этой предварительной раскладки агент превращается в суетливого стажера, который делает много, но всё не то.

На практике это работает жестко: сначала ты скармливаешь модели экспертный брифинг (твои уникальные знания, а не общие фразы), затем заставляешь её родить спецификацию (где прописаны все зависимости и ограничения), и только потом — декомпозицию задач. Например, если просишь Claude написать стратегию маркетинга, не жди откровений. Но если ты сначала заставишь его проанализировать твои факапы, вытащить из тебя боли клиентов и составить карту каналов, итоговый результат будет в 10 раз точнее. Ты тратишь время на подготовку, чтобы не тратить вечность на бесконечные правки «кривого» результата.

Тестировали метод на кодинге, но принцип универсален для любой сложной интеллектуальной работы. Будь то запуск SaaS-продукта, написание книги или проектирование системы — структурированный контекст бьет сырой промпт в 100 случаях из 100. Это переход от наивного «эй, ИИ, напиши мне статью» к профессиональному управлению контекстом, где модель не гадает, что у тебя в голове, а работает по четким чертежам. SEO для мозгов уходит в прошлое, наступает эра Context Engineering.

Короче: хватит надеяться на «магию» больших моделей — они просто статистические попугаи. Если на входе белый шум и неопределенность, на выходе будет шаблонная херня. Внедряй трехфазную подготовку, создавай артефакты до начала работы и помни: качество ответа AI на 90% зависит от того, как ты «нарезал ингредиенты» в самом начале. Кто не готовит контекст, тот доедает за нейросетями галлюцинации.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с