TL;DR
Когда в ChatGPT/Claude пытаются решить сложную задачу через несколько ролей или шагов, цепочка разваливается в предсказуемых местах. Исследователи запустили 300 корпоративных сценариев через 11 специализированных AI-агентов и точно зафиксировали где и почему ломается координация между ролями.
Главная находка: Провал происходит не там, где интуитивно ожидаешь. Каждый агент в отдельности справляется неплохо — но при передаче задачи между ролями что-то теряется. Конкретно: контекст у передающей роли есть, а получающая роль его не получает. Или получает, но не те параметры. Или всё выполнено, но финальный шаг — «закрыть задачу» — так и не сделан. Или финальный ответ звучит как «возможно, скорее всего, если условия совпадут» вместо конкретного решения.
Исследование описывает пять точек провала, каждая из которых напрямую заменяется промпт-инструкцией. Принцип «одна задача — одна специализированная роль» работает лучше, чем «один агент делает всё» — но только если правильно организовать передачу между шагами.
Схема метода
Каждый шаг мульти-ролевой цепочки требует 5 явных инструкций:
ШАГ 1: Роль → чёткая, специализированная, не «помощник»
ШАГ 2: Контекст → явная передача всех нужных данных при смене роли
ШАГ 3: Параметры → конкретные значения, не абстрактные описания
ШАГ 4: Закрытие → явная инструкция завершить задачу, не просто выполнить шаги
ШАГ 5: Решение → инструкция дать чёткий ответ, не «это зависит от...»
Выполняется в одном промпте (мульти-ролевой формат)
или в серии запросов (передача между чатами).
Пример применения
Задача: Макс Корж (владелец небольшого интернет-магазина одежды на Wildberries) получил жалобу от крупного оптового клиента: задержка поставки, испорченные отношения, клиент хочет скидку 20% на следующий заказ на 200 000 ₽. Нужно принять решение: одобрить или нет.
Промпт:
Ты работаешь последовательно в трёх ролях. Каждая роль получает
полный контекст от предыдущей.
---
РОЛЬ 1 — Специалист по работе с клиентами:
Твоя задача: оценить ситуацию и сформулировать рекомендацию
для финансового отдела.
Ситуация: [вставь описание жалобы и историю клиента]
Сделай это:
- Оцени весомость претензии (реальный ущерб или манипуляция)
- Укажи ценность клиента для бизнеса (частота, объём, история)
- Сформулируй КОНКРЕТНУЮ рекомендацию: какой % скидки обоснован
Передай результат следующей роли в структурированном виде:
Весомость претензии: [высокая/средняя/низкая] — [почему]
Ценность клиента: [высокая/средняя/низкая] — [почему]
Рекомендация: [X%] или [отказать] — [обоснование]
---
РОЛЬ 2 — Финансовый аналитик:
Получаешь данные от Роли 1 выше.
Твоя задача: проверить финансовую выполнимость.
Данные: заказ на 200 000 ₽, запрошенная скидка 20% = 40 000 ₽
Средняя маржа на категорию одежды: 35%
Сделай это:
- Рассчитай чистую прибыль с заказом со скидкой
- Рассчитай чистую прибыль без этого клиента
- Укажи пороговый % скидки, после которого невыгодно
Передай результат Роли 3:
Прибыль со скидкой X%: [сумма]
Порог выгодности: [X%]
Финансовая рекомендация: [одобрить до X% / не одобрять]
---
РОЛЬ 3 — Руководитель, принимающий решение:
Получаешь данные от Ролей 1 и 2 выше.
Прими КОНКРЕТНОЕ решение:
— Какую скидку одобрить (точный %, не диапазон)
— Условия предоставления (одноразово? на следующий заказ?)
— Готовый текст ответа клиенту (2-3 предложения)
Не пиши «возможно» или «зависит от».
Дай финальное решение как если бы ты уже его принял.
Результат: Модель последовательно пройдёт три роли в одном ответе. Каждая роль передаёт структурированный блок данных следующей — без потери контекста. Роль 3 выдаст конкретный процент скидки, условие и готовый текст письма клиенту, без размытых формулировок.
Почему это работает
Проблема с мульти-ролевыми задачами — в точках передачи. Когда одна роль заканчивает работу и начинается другая, модель не «помнит» что важно для следующего шага. Без явной инструкции передать конкретные данные — она передаёт нарратив, а не структурированные параметры. Следующая роль начинает с неполной картиной.
Второй провал — размытые решения. Модели по умолчанию склонны к осторожным формулировкам: «это зависит от контекста», «возможно стоит рассмотреть». Это защитное поведение — модель генерирует текст, который выглядит разумно в самых разных ситуациях. Явная инструкция «прими решение как если бы ты уже его принял» меняет паттерн генерации.
Третий провал — незакрытые задачи. Модель выполняет действия, но не завершает задачу. Как менеджер, который провёл встречу, но не отправил итоги. Явная инструкция «закрой задачу» добавляет этот шаг.
Рычаги управления: - Формат передачи — чем структурированнее блок передачи между ролями (как здесь: «передай результат в виде:»), тем точнее следующая роль понимает задачу - Конкретность параметров — вместо «учти финансовый аспект» дай числа: заказ 200К, маржа 35% - Инструкция решения — «дай ответ как если бы ты уже решил» включает другой паттерн, чем «что думаешь?» - Число ролей — три роли оптимально для большинства задач; больше пяти — контекст начинает теряться даже с явной передачей
Шаблон промпта
Ты работаешь последовательно в {число} ролях.
Каждая роль получает полный контекст от предыдущей.
---
РОЛЬ 1 — {название роли 1}:
Твоя задача: {что делает эта роль}
Контекст: {все данные, нужные этой роли}
Сделай это:
- {конкретное действие 1}
- {конкретное действие 2}
Передай следующей роли в структурированном виде:
{параметр 1}: [значение] — [почему]
{параметр 2}: [значение] — [почему]
Рекомендация: {конкретный вывод}
---
РОЛЬ 2 — {название роли 2}:
Получаешь данные от Роли 1 выше.
Твоя задача: {что делает эта роль}
Данные: {конкретные числа и факты для этой роли}
Сделай это:
- {конкретное действие 1}
- {конкретное действие 2}
Передай следующей роли:
{параметр 1}: [значение]
{параметр 2}: [значение]
Рекомендация: {конкретный вывод}
---
РОЛЬ {N} — {финальная роль}:
Получаешь данные от всех предыдущих ролей.
Прими КОНКРЕТНОЕ решение:
- {что именно решить}
- {в каком формате ответ}
Не пиши «возможно» или «зависит от».
Дай финальный ответ как если бы ты уже его принял.
Что подставлять:
- {число} — количество ролей (2–5, оптимально 3)
- {название роли} — специализация, не "ассистент": «юрист», «финансист», «редактор», «скептик»
- {конкретные числа и факты} — чем точнее параметры, тем точнее работа второй и третьей роли
- {что именно решить} — конкретный вопрос: «одобрить или нет», «выбрать вариант A, B или C»
🚀 Быстрый старт — вставь в чат:
Вот шаблон мульти-ролевого промпта. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить все поля.
[вставить шаблон выше]
LLM спросит: сколько ролей нужно, какие специализации подходят, какие параметры важны для передачи между ролями — потому что без этого шаблон нельзя правильно заполнить. Она возьмёт структуру и адаптирует под твою задачу.
Ограничения
⚠️ Длинные цепочки теряют контекст: Больше 4–5 ролей — и даже с явной передачей параметры начинают искажаться. Разбивай на отдельные сессии.
⚠️ Работает для структурируемых задач: Там, где есть правильный ответ или чёткий критерий решения — отлично. Для субъективных творческих задач («какой стиль лучше?») роль финансиста или юриста не добавляет ценности.
⚠️ Параметры нужно знать заранее: Шаблон работает когда ты понимаешь что передавать между ролями. Если не знаешь какие данные важны для следующего шага — спроси LLM это сформулировать до запуска цепочки.
⚠️ Модели всё равно иногда закрывают задачу не полностью: Даже с явной инструкцией «закрой задачу» — иногда нужен отдельный запрос «теперь напиши итоговое сообщение». Это остаточная проблема, которую исследование фиксирует как нерешённую даже у сильных моделей.
Ресурсы
Название: Beyond the All-in-One Agent: Benchmarking Role-Specialized Multi-Agent Collaboration in Enterprise Workflows
Код и данные: github.com/yutao1024/EntCollabBench · huggingface.co/datasets/Kirito-Lab/EntCollabBench
Авторы: Tao Yu, Hao Wang, Changyu Li и др. — BAAI (Beijing Academy of Artificial Intelligence), CASIA (Chinese Academy of Sciences), Peking University, Tsinghua University, UCAS
Дата: май 2026
