3,583 papers
arXiv:2510.07614 73 8 окт. 2025 г. FREE

Разделяй роли, отслеживай вклад: архитектура подотчётных многоагентных конвейеров

КЛЮЧЕВАЯ СУТЬ
Многоагентный конвейер без явной передачи — это чёрный ящик. Первый агент ошибся в плане, второй слепо выполнил, третий не заметил — результат провален, но где именно? Непонятно. Метод позволяет отследить где именно возникла ошибка в цепочке агентов и кто её внёс или исправил. Разбиваешь задачу на три роли: Планировщик → Исполнитель → Критик. Между этапами идёт структурированная передача с фиксацией результата. На каждом шаге записывается кто что сделал — видно кто исправил (repair) ошибку предыдущего или кто испортил (harm) правильный ответ. С 61% до 97% точности на задачах где обычный конвейер сливается.
Адаптировать под запрос

TL;DR

Role-based pipeline с blame tracking — это метод разбиения сложной задачи на три последовательные роли (Планировщик → Исполнитель → Критик), где между этапами идёт структурированная передача с фиксацией результата. На каждом шаге записывается кто что сделал, что позволяет отследить где возникла ошибка и кто её исправил или наоборот испортил правильный ответ.

Когда агенты работают цепочкой без явной передачи, ошибка первого этапа тихо распространяется дальше — и в итоге непонятно кто виноват. Планировщик ошибся в плане, Исполнитель слепо выполнил неправильный план, Критик не заметил проблему — результат провален, но где именно сломалось? В обычном конвейере это чёрный ящик: видишь только финальный неправильный ответ, корень проблемы скрыт.

Метод вводит blame attribution (отслеживание вклада): на каждом этапе фиксируется правильный ли результат, и дальше отслеживается кто его исправил (repair) или испортил (harm). Это превращает чёрный ящик в стеклянный: видно где произошла ошибка, какой агент её внёс, и какой агент мог бы исправить но не исправил. Добавление структурированной передачи между агентами подняло точность на некоторых задачах на 36 процентных пунктов (с 61% до 97%) по сравнению с простым последовательным выполнением.

🔬

Схема метода

Трёхэтапный конвейер с фиксацией результатов на каждом шаге:

ШАГ 1 — PLANNER (Планировщик):
Получает задачу → создаёт план решения → выводит ответ
Запись: Plan = [ответ планировщика], фиксация правильности

ШАГ 2 — EXECUTOR (Исполнитель): 
Получает задачу + план → выполняет решение → выводит ответ
Запись: Execution = [ответ исполнителя], фиксация правильности
Blame tracking: repair (исправил ошибку Planner?) или harm (испортил правильный план?)

ШАГ 3 — CRITIC (Критик):
Получает задачу + план + execution → проверяет и корректирует → выводит финальный ответ
Запись: Final = [финальный ответ], фиксация правильности
Blame tracking: repair (исправил ошибку Executor?) или harm (испортил правильное выполнение?)

Финальный ответ: берётся с последнего этапа (Critic), если он есть

Ключевое отличие от простого конвейера: Явная передача контекста на каждом шаге ("вот план, проверь его", "вот выполнение плана, исправь если нужно") + фиксация промежуточных результатов для отслеживания кто где ошибся.

🚀

Пример применения

Задача: Ты советник крупного российского бизнесмена, который решает выходить ли ему в новую нишу — доставка готовой еды в регионах. Нужно дать чёткую рекомендацию: входить или не входить, с обоснованием.

Промпт:

Реши эту задачу как конвейер из трёх агентов с явной передачей между этапами:

ЭТАП 1 — PLANNER (Стратег):
Проанализируй вопрос: "Стоит ли российскому бизнесмену выходить в нишу доставки готовой еды в регионах?"
Создай структурированный план анализа: какие факторы учесть (спрос, конкуренция, барьеры входа, юнит-экономика).
Выведи ТОЛЬКО: "PLAN: [структурированный список факторов для анализа]"

ЭТАП 2 — EXECUTOR (Аналитик):
На основе плана выше, проведи анализ каждого фактора для российского рынка.
Выведи ТОЛЬКО: "EXECUTION: [анализ по каждому пункту плана + предварительный вывод]"

ЭТАП 3 — CRITIC (Ревизор):
Проверь анализ выше. Есть ли пропущенные риски? Обоснованы ли выводы?
Если есть ошибки — исправь. Если всё правильно — подтверди.
Выведи ТОЛЬКО: "FINAL: [итоговая рекомендация: ВХОДИТЬ или НЕ ВХОДИТЬ + ключевое обоснование в 2-3 предложениях]"

Требование: выполни все три этапа последовательно в одном ответе.

Результат:

Модель выдаст три чётко разделённых блока:

  • PLAN: Список факторов для анализа (например: спрос в регионах, плотность конкуренции, логистика, регуляторные барьеры, средний чек).
  • EXECUTION: Проработка каждого фактора с данными (например: "В городах 100-500к спрос растёт на 20% в год, но Яндекс.Еда уже в 80% крупных городов...").
  • FINAL: Финальная рекомендация с обоснованием (например: "НЕ ВХОДИТЬ. Рынок перенасыщен в крупных городах, а в малых юнит-экономика не сходится из-за логистики. Барьер входа 50-100 млн рублей при ROI 3-4 года.").

Если план был неполным (например, не учли сезонность) — Executor может восполнить. Если Executor ошибся в выводах — Critic исправит. Структурированная передача позволяет каждому следующему агенту проверить работу предыдущего.

🧠

Почему это работает

Слабость LLM: Когда задача сложная и многоэтапная, модель может потерять фокус, упустить важный аспект или сделать ошибку в середине рассуждения. В монолитном промпте эта ошибка тихо распространяется дальше — модель строит выводы на неправильной основе, и итоговый ответ провален. Ещё хуже, когда несколько агентов работают цепочкой без проверки: ошибка первого агента каскадом идёт до конца, и непонятно где она возникла.

Сильная сторона LLM: Модели отлично критикуют готовый текст и находят в нём ошибки, если им явно дать задачу "проверь это". Они хороши в специализированных ролях (планирование vs выполнение vs критика) — каждая роль фокусирует модель на конкретном аспекте. Модели умеют исправлять чужую работу, если им дать контекст и попросить найти проблемы.

Как метод использует силу: Разбиение на роли превращает один сложный запрос в три простых. Каждый агент делает свою часть, а следующий проверяет предыдущего. Структурированная передача ("вот план, проверь его") даёт последующим агентам явную зацепку для критики. Фиксация результатов на каждом шаге позволяет отследить где именно возникла ошибка — если финальный ответ неправильный, можно увидеть был ли план изначально плох, или Executor испортил хороший план, или Critic внёс лишнее. Это превращает конвейер из чёрного ящика в отлаживаемую систему.

Рычаги управления:

  • Количество этапов: Можно добавить четвёртый этап (например, Validator) для особо сложных задач или убрать Critic для простых задач — экономия токенов.
  • Явность передачи: Можно делать в одном промпте (как в примере) для скорости или в разных запросах для полного контроля и отладки.
  • Роли агентов: Можно задать конкретные персонажи ("ты — осторожный инвестор", "ты — агрессивный предприниматель") вместо безликих ролей — острее выполнение и разнообразнее критика.
  • Условия исправления: Можно указать Critic "исправляй только если уверен на 90%", чтобы снизить harm rate (когда критик портит правильный ответ).
  • Модели по ролям: Если есть доступ к нескольким моделям, можно использовать сильную (дорогую) только для Planning, а быстрые (дешёвые) для Execution и Critique — баланс точности и цены.
📋

Шаблон промпта

Вариант 1: Все три этапа в одном промпте (быстро, просто)

Реши задачу как конвейер из трёх агентов с явной передачей между этапами:

ЭТАП 1 — PLANNER (Планировщик):
{описание роли планировщика для конкретной задачи}
Выведи ТОЛЬКО: "PLAN: [твой план]"

ЭТАП 2 — EXECUTOR (Исполнитель):
На основе плана выше: {описание роли исполнителя}
Выведи ТОЛЬКО: "EXECUTION: [твоё выполнение]"

ЭТАП 3 — CRITIC (Критик):
Проверь выполнение выше: {описание роли критика}
Если есть ошибки — исправь. Если всё правильно — подтверди.
Выведи ТОЛЬКО: "FINAL: [финальный результат]"

Задача: {твоя задача}

Требование: выполни все три этапа последовательно в одном ответе.

Пояснение к плейсхолдерам:

  • {описание роли планировщика} — что должен сделать планировщик (например: "создай структуру документа", "определи ключевые факторы анализа")
  • {описание роли исполнителя} — что должен сделать исполнитель (например: "заполни каждую секцию", "проведи анализ по каждому фактору")
  • {описание роли критика} — что должен проверить критик (например: "проверь логику и полноту", "найди ошибки в расчётах")
  • {твоя задача} — конкретная задача для решения

Вариант 2: Три отдельных запроса (полный контроль, отладка)

Запрос 1 (в отдельном чате или первым в цепочке):
Ты — {роль планировщика}. 
Задача: {твоя задача}
Создай {что планировщик должен создать}.
Выведи только результат без объяснений.

---

Запрос 2 (копируешь результат из Запроса 1):
Ты — {роль исполнителя}.
Задача: {твоя задача}
Вот план: {результат от Planner}
На основе этого плана: {что исполнитель должен сделать}.
Выведи только результат.

---

Запрос 3 (копируешь результат из Запроса 2):
Ты — {роль критика}.
Задача: {твоя задача}
Вот выполнение: {результат от Executor}
Проверь его на {критерии проверки}.
Если есть ошибки — исправь и объясни что исправил.
Если всё правильно — подтверди и выведи финальный результат.

🚀 Быстрый старт — вставь в чат:

Вот шаблон Role-based pipeline с blame tracking. Адаптируй под мою задачу: [твоя задача]. 
Задавай вопросы, чтобы заполнить роли агентов (что должен делать Planner, Executor, Critic).

[вставить Вариант 1 или Вариант 2 выше]

LLM спросит что должен делать каждый агент в твоём контексте — потому что роли зависят от задачи (для написания текста это "структура → наполнение → редактура", для анализа это "факторы → оценка → вывод"). Она возьмёт паттерн из шаблона и адаптирует под задачу.

⚠️

Ограничения

⚠️ Overhead: Три последовательных шага — это 3-10x больше токенов и времени чем один запрос. Для простых задач ("столица Франции") это избыточно и дорого.

⚠️ Критик может навредить: В исследовании зафиксированы случаи harm — когда Критик портит правильный ответ Исполнителя (harm rate до 1.9% у некоторых моделей). Строгий критик не всегда прав. Решение: можно дать инструкцию "исправляй только если уверен" или "объясни почему считаешь это ошибкой".

⚠️ Не для всех задач: Метод эффективен для многоэтапных задач с чёткой структурой (анализ, написание документа, решение задачи с подзадачами). Для творческих задач без правильного ответа (придумать название бренда, написать стихотворение) разделение на роли может убить спонтанность.

⚠️ Требует дисциплины: В варианте с тремя отдельными запросами нужно вручную копировать результаты между чатами. Ошибка в копировании = сломанная цепочка. В варианте с одним промптом проще, но меньше контроля.

🔍

Как исследовали

Команда взяла три топовые модели (GPT-4o, Claude Sonnet 4, Gemini 2.5 Pro) и прогнала их через три бенчмарка: PythonIO (задачи на код и алгоритмы), LogiQA (формальная логика), AGIEval (задачи уровня экзаменов типа ЕГЭ или SAT). Всего протестировали 673 задачи в формате multiple choice.

Сравнивали три режима:

  1. Монолитная модель — одна модель решает задачу от начала до конца.
  2. Простой конвейер — три агента передают друг другу результат без структуры ("вот задача" → "вот моя попытка" → "вот моя попытка").
  3. Подотчётный конвейер — три агента с явной передачей и фиксацией результата на каждом шаге.

Для каждой конфигурации (AAA, BBB, CCC, ABC, CBA и т.д. — всего 8 комбинаций моделей) измеряли:

  • Точность финального ответа
  • Стоимость (в долларах за все токены)
  • Latency (время ответа в секундах)
  • Blame attribution: на каждой задаче отслеживали правильный ли ответ на каждом этапе, кто внёс ошибку, кто исправил (repair), кто испортил (harm).

Самое интересное — роль планировщика критична. Gemini как планировщик ошибается в 7.35% случаев на AgiEval, Claude в 13.43%, GPT-4o в 40.49%. Это огромная разница! Планировщик задаёт основу — если план плох, дальше всё сыпется. А вот в роли исполнителя Claude — король исправления: repair rate 10.01% (исправляет каждую десятую ошибку планировщика), в то время как Gemini только 1.27%.

Почему результаты получились именно такими? Структурированная передача между агентами заставляет каждый следующий этап явно проверить предыдущий. В простом конвейере агенты просто продолжают работу, не критикуя. В подотчётном — явная инструкция "проверь это" включает механизм критики. На PythonIO это дало взрывной рост: конфигурация BBB подскочила с 61% до 97% точности — Claude научился исправлять свои же ошибки, когда структура конвейера это разрешила.

Что удивило: Гетерогенные конвейеры (разные модели в разных ролях) часто лучше гомогенных (одна модель во всех трёх ролях). CBA (Gemini → Claude → GPT-4o) на LogiQA точнее чем CCC, но дешевле. Это означает что специализация работает — не обязательно везде ставить самую сильную модель, можно оптимизировать под роль.

Инсайт для практики: Если у тебя есть доступ к нескольким моделям (ChatGPT + Claude), можешь использовать сильную модель только для планирования (самый критичный этап), а более дешёвую для выполнения и критики. Это даст баланс точности и цены. Если только одна модель — используй роль критика с осторожностью: иногда он исправляет, иногда портит.

📄

Оригинал из исследования

Исследователи использовали формализованный алгоритм blame attribution (Algorithm 1 в статье):

For each task:
 1. Planner generates answer P
 2. Executor receives (task, P) → generates answer E
 3. Critic receives (task, P, E) → generates answer C
 
 Final answer selection:
 - If C exists → Final = C
 - Else if E exists → Final = E 
 - Else → Final = P
 
 Blame tracking:
 - planner_error: P ≠ ground_truth
 - executor_repair: (P ≠ ground_truth) AND (E = ground_truth)
 - executor_harm: (P = ground_truth) AND (E ≠ ground_truth)
 - critic_repair: (E ≠ ground_truth) AND (C = ground_truth)
 - critic_harm: (E = ground_truth) AND (C ≠ ground_truth)
 
 Error origin:
 - If Final = ground_truth → origin = NONE
 - Else if (E = ground_truth) AND (C ≠ ground_truth) → origin = CRITIC
 - Else if (P = ground_truth) AND (E ≠ ground_truth) → origin = EXECUTOR
 - Else → origin = PLANNER

Контекст: Это формальная логика отслеживания вклада каждого агента. На каждом этапе сравнивается ответ с ground truth (правильным ответом из бенчмарка), и отмечается исправил ли агент ошибку предыдущего (repair) или испортил правильный ответ (harm). Это позволяет построить полную картину где возникла ошибка и как она распространялась по конвейеру.

💡

Адаптации и экстраполяции

💡 Адаптация для письма: Используй метод для написания длинных текстов (статья, пост, документ).

ЭТАП 1 — PLANNER (Структуратор):
Задача: {тема статьи}
Создай структуру: заголовки, основные тезисы каждой секции, логику подачи.
Выведи ТОЛЬКО: "PLAN: [структура с пунктами]"

ЭТАП 2 — EXECUTOR (Автор):
На основе структуры выше, напиши полный текст статьи.
Выведи ТОЛЬКО: "EXECUTION: [черновик статьи]"

ЭТАП 3 — CRITIC (Редактор):
Проверь текст: логика, читаемость, ошибки, повторы.
Исправь если нужно.
Выведи ТОЛЬКО: "FINAL: [финальная версия]"

Требование: выполни все три этапа последовательно.

🔧 Техника: Убрать "ТОЛЬКО" → видеть рассуждения

Если хочешь видеть как модель думает на каждом этапе, убери ограничение "Выведи ТОЛЬКО":

ЭТАП 1 — PLANNER (Структуратор):
Создай структуру: заголовки, основные тезисы.
Выведи PLAN и объясни логику построения.

ЭТАП 2 — EXECUTOR (Автор):
Напиши текст. Объясни почему выбрал такую подачу.
Выведи EXECUTION с комментариями.

ЭТАП 3 — CRITIC (Редактор):
Проверь текст. Объясни что исправил и почему.
Выведи FINAL с отчётом об изменениях.

Это даст прозрачность — увидишь где модель сомневалась, что исправляла, какие решения принимала.

🔧 Техника: Конкретные персонажи → острее критика

Вместо безликих "Planner, Executor, Critic" дай агентам характер:

ЭТАП 1 — Осторожный инвестор (консервативный взгляд):
Проанализируй бизнес-идею: {идея}.
Выдели все риски и слабые места.
Выведи: "RISKS: [список рисков]"

ЭТАП 2 — Агрессивный предприниматель (оптимистичный взгляд):
Вот риски: {из этапа 1}
Предложи как их обойти или минимизировать.
Выведи: "OPPORTUNITIES: [как использовать ситуацию]"

ЭТАП 3 — Опытный ментор (взвешенный вывод):
Вот риски и возможности. Дай финальную рекомендацию: входить или нет.
Выведи: "FINAL: [рекомендация + обоснование]"

Конкретные архетипы заостряют фокус каждой роли — критик становится жёстче, оптимист — смелее, финальный судья — объективнее.

🔗

Ресурсы

Traceability and Accountability in Role-Specialized Multi-Agent LLM Pipelines

Исследование проводилось в сотрудничестве с zuvu.ai (промышленный партнер, разрабатывает AI-инструменты).

Датасет и детали эксперимента доступны: https://sites.google.com/view/mas-gain2025/home

Ключевые отсылки из исследования:

  • ChatDev (C. Qian et al., 2023) — симуляция виртуальной софтверной компании с ролями CEO, программист, тестировщик
  • MetaGPT (S. Hong et al., 2024) — агенты как менеджеры продукта и архитекторы
  • Self-Refine (A. Madaan et al., 2023) — итеративное улучшение через self-feedback
  • Self-Debug (X. Chen et al., 2023) — агент анализирует и исправляет баги в коде

📋 Дайджест исследования

Ключевая суть

Многоагентный конвейер без явной передачи — это чёрный ящик. Первый агент ошибся в плане, второй слепо выполнил, третий не заметил — результат провален, но где именно? Непонятно. Метод позволяет отследить где именно возникла ошибка в цепочке агентов и кто её внёс или исправил. Разбиваешь задачу на три роли: Планировщик → Исполнитель → Критик. Между этапами идёт структурированная передача с фиксацией результата. На каждом шаге записывается кто что сделал — видно кто исправил (repair) ошибку предыдущего или кто испортил (harm) правильный ответ. С 61% до 97% точности на задачах где обычный конвейер сливается.

Принцип работы

Не гони всё через один промпт. Разбей на специализированные роли с явной передачей контекста. Каждый следующий агент получает результат предыдущего и проверяет его. Планировщик создал план → Исполнитель получает «вот план, выполни» → Критик получает «вот план и выполнение, проверь». Это как конвейер где каждый участок видит что сделал предыдущий, а не работает вслепую. Ключевое: записываешь промежуточные результаты. Если финальный ответ неправильный — смотришь был ли план изначально плох, или Исполнитель испортил хороший план, или Критик внёс лишнее. Чёрный ящик становится прозрачным.

Почему работает

LLM плохо держит фокус на длинных многоэтапных задачах. Ошибка в середине рассуждения тихо распространяется дальше — модель строит выводы на неправильной основе. В цепочке агентов без проверки эта ошибка идёт до конца. Модели отлично критикуют готовый текст и находят ошибки, если им явно дать задачу «проверь это». Они хороши в специализированных ролях — каждая роль фокусирует на конкретном аспекте. Разбиение превращает один сложный запрос в три простых. Структурированная передача («вот план, проверь его») даёт следующим агентам явную зацепку для критики. В исследовании на некоторых задачах точность выросла на 36 процентных пунктов — с 61% до 97%.

Когда применять

Многоэтапные задачи с чёткой структурой → конкретно для анализа, написания документа, решения задачи с подзадачами, особенно когда один промпт даёт нестабильный результат. НЕ подходит для творческих задач без правильного ответа (название бренда, стихотворение) — разделение на роли убьёт спонтанность. И для простых вопросов («столица Франции») — это 3-10x перерасход токенов.

Мини-рецепт

1. Определи три роли под твою задачу:
Для анализа: Стратег (факторы) → Аналитик (оценка) → Ревизор (вывод)
Для текста: Структор (план) → Писатель (наполнение) → Редактор (правка)

2. Настрой явную передачу между этапами:
ЭТАП 1 — PLANNER: {что планировать} Выведи ТОЛЬКО: "PLAN: [твой план]"
ЭТАП 2 — EXECUTOR: На основе плана выше: {что выполнять} Выведи ТОЛЬКО: "EXECUTION: [выполнение]"
ЭТАП 3 — CRITIC: Проверь выполнение выше: {что проверять} Если ошибки — исправь. Выведи ТОЛЬКО: "FINAL: [результат]"

3. Запусти в одном промпте или тремя отдельными запросами:
Один промпт — быстро, но меньше контроля. Три запроса — полный контроль и отладка (копируешь результат первого во второй, второго в третий).

4. Если Критик часто портит правильное — добавь условие:
Исправляй только если уверен на 90% — снизит harm rate (когда критик портит правильный ответ).

Примеры

[ПЛОХО] : Проанализируй стоит ли выходить в нишу доставки еды в регионах России и дай рекомендацию (Монолитный промпт — модель может упустить важный фактор или ошибиться в середине, непонятно где)
[ХОРОШО] : Реши как конвейер трёх агентов: ЭТАП 1 — PLANNER: Создай список факторов для анализа ниши доставки еды в регионах (спрос, конкуренция, барьеры, юнит-экономика). Выведи ТОЛЬКО: "PLAN: [факторы]" ЭТАП 2 — EXECUTOR: На основе плана выше, проведи анализ каждого фактора для России. Выведи ТОЛЬКО: "EXECUTION: [анализ + предварительный вывод]" ЭТАП 3 — CRITIC: Проверь анализ. Пропущенные риски? Обоснованы выводы? Исправь если нужно. Выведи ТОЛЬКО: "FINAL: [ВХОДИТЬ или НЕ ВХОДИТЬ + обоснование 2-3 предложения]" Выполни все три этапа последовательно. (Каждый этап проверяет предыдущий, видно где возникла ошибка если что)
Источник: Traceability and Accountability in Role-Specialized Multi-Agent LLM Pipelines
ArXiv ID: 2510.07614 | Сгенерировано: 2026-01-12 00:42

Концепты не выделены.

📖 Простыми словами

Разделяй роли, отслеживай вклад: архитектура подотчётных многоагентных конвейеров

arXiv: 2510.07614

Когда ты просишь одну нейронку решить сложную задачу целиком, она ведет себя как перегруженный стажер: вроде умный, но в середине процесса теряет нить, косячит в деталях и выдает уверенную чушь на выходе. Проблема в том, что в длинном монолитном ответе ошибка зарыта глубоко внутри, и ты не понимаешь, в какой момент все пошло не так. Метод Role-Specialized Multi-Agent Pipelines решает это через жесткое разделение труда и систему «кто последний, тот и папа». Вместо одного универсала мы берем трех узких спецов — Планировщика, Исполнителя и Критику, заставляя их передавать дела по акту приема-передачи.

Это как стройка элитного коттеджа, где вместо одной бригады «мастеров на все руки» у тебя работают архитектор, прораб и технадзор. Если дом рухнул, ты не слушаешь нытье про «так получилось», а открываешь журнал работ и видишь: архитектор нарисовал ровно, прораб накосячил с бетоном, а технадзор это проспал. В LLM-пайплайнах это называется blame tracking — фиксация ответственности на каждом этапе, чтобы ошибка не размазывалась по всему процессу, а имела конкретную «фамилию».

Работает это через три четких шага: сначала Планировщик дробит твою задачу на мелкие куски, затем Исполнитель впахивает по этому плану, а в конце заходит Критик и ищет, где эти двое облажались. Главная фишка здесь — структурированная передача. Каждый агент не просто вываливает текст, а фиксирует результат в протоколе. Если ты спросишь совета по выходу в новый бизнес, и Исполнитель притащит кривые цифры по рынку, Критик обязан это подсветить, а система запишет, что ошибка возникла на этапе реализации.

Такой подход тестировали на сложных бизнес-кейсах, но принцип универсален для любой задачи, где цена ошибки высока — от написания кода до юридического анализа. Обычные чат-боты часто страдают от каскадного эффекта: первый агент ошибся, второй на этой ошибке построил теорию, а третий все это красиво оформил. В итоге ты получаешь идеальный по форме, но абсолютно мусорный по содержанию результат. Система ролей и трекинга превращает этот хаос в конвейер, где каждый шаг проверяем и прозрачен.

Короче: хватит надеяться на «магию» одного промпта, если задача сложнее, чем написание поста в соцсети. Разделяй процесс на Планирование, Исполнение и Контроль с обязательной фиксацией того, кто и что сделал. Это единственный способ понять, почему модель лажает, и заставить ее выдавать результат, за который не стыдно. Прозрачность бьет креативность, когда на кону стоят реальные деньги или важные решения.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с