TL;DR
Когда полностью делегируешь AI планирование или оценку рисков, получаешь быстрый и красивый результат с системной слепотой. AI захватывает 0% новых, контекстно-специфических рисков — тех, которых нет в его обучающих данных, но которые именно твоя ситуация и порождает. Исследование формализует это как "порог когнитивной разгрузки": пока AI форматирует и считает — всё хорошо, как только он начинает оценивать риски вместо тебя — команда получает план без понимания его уязвимостей.
Главная находка: из 11 рисков, которые реально случились в AI-плане, AI предупредил лишь о 4. Остальные 7 — специфика конкретного клиента, конкретного стека, конкретного контекста. Не потому что модель плохая: её обучали не на твоём проекте. Человек без AI нашёл 79% рисков. Когда AI сначала дал структуру, а человек потом активно искал что пропущено — нашли 87% и больше рисков, чем каждый по отдельности.
Практическое правило: AI — это каркас для мышления, не замена ему. Попроси AI сгенерировать список рисков → убери его в сторону → спроси себя "что он не учёл про мою конкретную ситуацию" → сравни. Именно в этот момент появляется то, что не нашёл бы без AI-структуры, и то, что AI не может найти без твоего контекста.
Схема метода
ШАГ 1 [AI]: Сгенерировать базовый список
→ структурированный список рисков/допущений/задач
ШАГ 2 [Человек]: Обязательный аудит
→ активный поиск того, что AI пропустил
→ фокус: специфика именно ТВОЕЙ ситуации
ШАГ 3 [Итог]: Объединить
→ результат превышает и AI-список, и то что нашёл бы человек с нуля
Оба шага происходят в одном рабочем сеансе, но в разных запросах.
Ключевое: Шаг 2 — ОБЯЗАТЕЛЬНЫЙ, не "если захочется".
Пример применения
⚠️ Сначала: где метод работает плохо. Формальные, хорошо описанные риски — статистику, типовые технические баги, известные узкие места. Там AI вполне надёжен и scaffold не нужен. Метод критически важен именно для новых, нестандартных ситуаций с уникальным контекстом.
Задача: Алексей Горячев запускает SaaS-продукт для малого бизнеса в России. Перед запуском хочет оценить риски, чтобы не сгореть в первые три месяца. Собирается доверить список рисков полностью AI.
Промпт — Шаг 1 (отправить AI):
Я запускаю SaaS-продукт для автоматизации документооборота
в малом бизнесе в России. Тариф 3900₽/мес, целевой клиент —
ИП и ООО до 15 человек. Запуск через 6 недель.
Составь структурированный список рисков по категориям:
- Технические зависимости и инфраструктура
- Поведение клиентов и онбординг
- Внешние сервисы и интеграции (банки, ФНС, платёжки)
- Регуляторные и юридические риски
Для каждого риска: что может пойти не так, вероятность
(высокая/средняя/низкая), последствие.
Промпт — Шаг 2 (новый запрос, после того как получил и прочитал список):
Выше ты дал список рисков для запуска моего SaaS.
Теперь помоги найти то, что ты НЕ мог знать.
Задай мне 7-10 вопросов о специфике именно моей ситуации:
- конкретные партнёры и интеграции, которые я уже выбрал
- как именно устроен онбординг у меня
- с кем уже договорился, на что положился
- какие допущения я делаю про клиентов
После моих ответов — добавь риски, которые появятся
из этого контекста.
Результат:
После Шага 1 — структурированный список из 8–12 типовых рисков SaaS в России: отток после триала, нагрузка на поддержку, зависимость от СМЭВ, проблемы с платёжным шлюзом.
После Шага 2 — AI задаст вопросы про конкретные детали: "На каком эквайринге вы? Есть ли у вас кастомная интеграция с 1С?" Из ответов появятся 3–5 рисков, которых нет в первом списке — специфика именно твоего стека, твоих договорённостей, твоих клиентов. Итоговый список превысит оба по качеству.
Почему это работает
AI плохо знает твой гараж, но хорошо знает все гаражи мира. Когда просишь перечислить риски SaaS — модель выдаёт паттерны из тысяч похожих случаев. Это ценно. Но риски, которые убивают именно твой проект, рождаются из специфики: ты выбрал вот этот платёжный шлюз, договорился с этим партнёром, понадеялся на вот это API. Этого в обучающих данных нет.
Люди без AI попадают в ловушку доступности (availability bias — тенденция оценивать вероятность события по тому, насколько легко оно приходит в голову). Без структуры мозг вспоминает риски с последнего похожего проекта и игнорирует менее яркие, но не менее опасные. AI-список заставляет пройтись по категориям системно — и это меняет что ты ищешь.
Синергия появляется именно в точке "а что он пропустил?". Когда ты активно ищешь пропуски в AI-списке — включается критическое мышление, которое в AI-only режиме просто не активируется. Эксперимент показал: не "AI нашёл 4, человек нашёл 11, итого 15". Гибрид нашёл 13 — больше, чем человек в одиночку. Структура AI меняет качество человеческого поиска.
Рычаги управления: - Количество категорий в Шаге 1 → чем детальнее разбивка, тем лучше покрытие типовых рисков - Формат вопросов в Шаге 2 → чем конкретнее вопросы о твоей ситуации, тем точнее контекстные риски - Явный запрет "не добавляй ничего без моих ответов" → AI не будет домысливать, а будет ждать специфику - Категория "допущения" → отдельно спроси не только о рисках, но и о том, что ты считаешь само собой разумеющимся — это самая опасная слепая зона
Шаблон промпта
=== ШАГ 1: БАЗОВЫЙ СПИСОК ===
Я {описание задачи/проекта/решения}.
Составь структурированный список рисков и допущений
по следующим категориям:
- {категория 1}
- {категория 2}
- {категория 3}
- {категория 4}
Для каждого: что может пойти не так, вероятность,
последствие.
=== ШАГ 2: АУДИТ ПРОПУСКОВ (отдельный запрос) ===
Выше ты составил список рисков для {задача}.
Теперь найди то, что не мог знать без контекста.
Задай мне {число} вопросов о специфике моей ситуации:
- конкретные инструменты и партнёры, которые я выбрал
- ключевые допущения, на которые я положился
- нестандартные решения в моём подходе
- с кем и на что я уже договорился
После моих ответов — добавь риски из этого контекста.
Плейсхолдеры:
- {описание задачи} — что запускаешь, планируешь, решаешь
- {категория 1-4} — области жизни твоей задачи: техника, люди, деньги, внешние зависимости
- {число} — 5-10 вопросов, меньше для быстрого аудита, больше для сложного проекта
🚀 Быстрый старт — вставь в чат:
Вот шаблон гибридного анализа рисков. Адаптируй под мою задачу,
задавай уточняющие вопросы чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про твою задачу, область и ключевые категории — чтобы сгенерировать релевантный список и правильные вопросы для аудита пропусков.
Почему это важно понять глубже
Матрица HPGF: что делегировать AI, что оставить себе
Исследование предлагает простую сортировку задач по двум осям:
| Всё стандартно, контекст понятен | Много неизвестных, своя специфика | |
|---|---|---|
| Сложная математика/данные | ✅ AI делает, ты проверяешь | ↔️ AI считает, ты формулируешь контекст |
| Простые задачи | 🤖 Полная автоматизация | 🧠 Ты ведёшь, AI даёт каркас |
Правый нижний угол — самый важный. Именно сюда попадают риски, допущения, нестандартные решения, планирование в условиях неопределённости. Именно здесь AI-only провалился с 0% на новых рисках. Правило: AI даёт список → ты обязательно его критикуешь, а не просто принимаешь.
Ограничения
⚠️ Узкая выборка: Один проект, один тип агентства, три спринта. Результаты показывают направление, но не универсальный закон — в другом контексте цифры могут отличаться.
⚠️ Не работает при пассивном review: Суть метода — обязательная активная критика AI-списка. Если просто "пробежать глазами и кивнуть" — эффект исчезает. Автоматизационное смещение (tendency to accept AI output without scrutiny) съедает всю пользу.
⚠️ Не для типовых задач: Если риски хорошо известны (налоговая декларация, стандартная документация) — дополнительный аудит избыточен. Metод критически важен именно для уникальных и новых ситуаций.
⚠️ Дескиллинг — открытый вопрос: Если постоянно использовать AI для оценки рисков, не теряют ли люди со временем способность оценивать их самостоятельно? Исследование признаёт, что не проверяло долгосрочный эффект.
Как исследовали
Команда взяла реальное агентство Vierra Digital (35–50 человек, Scrum, двухнедельные спринты) и разделила на три группы с одинаковым опытом — 3.2 года Agile на человека. Все три группы делали один и тот же проект: лендинг на 47 story points с фронтендом, API, анимацией и QA. Первая группа работала по плану от Claude Sonnet 4.6 без своего участия в планировании. Вторая — только люди, Planning Poker, никакого AI. Третья — AI генерировал бэклог и базовый список рисков, люди его критиковали и добавляли своё.
Изюминка дизайна: на 40% выполнения Sprint 2 всем группам ввели одинаковое изменение — клиент попросил заменить библиотеку анимации на самописную. Это тест на адаптивность: сможет ли команда быстро перестроиться? AI-группа на это потратила 6.5 часов, гибрид — 3.2. Причина нашлась в данных: AI-группа просто не знала об уязвимых местах в своём стеке, потому что не участвовала в их поиске.
Что удивило: гибрид не "нашёл среднее" между AI и людьми — он превзошёл обоих по количеству выявленных рисков (13 против 4 у AI и 11 у людей). Инсайт: структура AI меняет качество человеческого поиска, а не просто добавляется к нему.
Оригинал из исследования
Контекст: Матрица HPGF — ключевой инструмент исследования, операционализирующий порог когнитивной разгрузки.
Table 5: Hybrid Planning Governance Framework (HPGF)
| Low Contextual Ambiguity | High Contextual Ambiguity
--------------------|--------------------------------|---------------------------
High Computational | AI Delegation with Human | Iterative Human-AI
Complexity | Review. Velocity forecasting, | Collaboration. Scope change
| throughput analysis, routine | impact analysis, architectural
| estimation. AI generates; | refactoring estimation.
| human confirms applicability | Human frames context; AI
| to current context. | models quantitative
| | implications.
--------------------|--------------------------------|---------------------------
Low Computational | Full AI Automation. | Human Deliberation with
Complexity | Administrative documentation, | AI Scaffolding. Risk
| status reporting, retrospective| identification, assumption
| formatting. No cognitive risk; | articulation, contingency
| full delegation appropriate. | planning. Human leads; AI
| | provides baseline structure
| | to interrogate.
Адаптации и экстраполяции
💡 Адаптация: Деловые переговоры и важные решения
Та же логика работает перед важными переговорами или решениями, а не только в проектном планировании.
=== ШАГ 1 ===
Я веду переговоры о {описание: условия партнёрства /
зарплата / сделка}. Вот что я знаю о ситуации:
{факты}.
Составь список: возможные проблемные точки, скрытые
интересы другой стороны, допущения которые я делаю.
=== ШАГ 2 ===
Теперь задай мне 7 вопросов о специфике именно этого
человека/компании/контекста — того, что ты не мог знать.
После ответов добавь риски, которые из этого следуют.
🔧 Техника: Явный запрет на "закрытие" → больше пропусков
По умолчанию AI стремится дать "полный" список — и ведёт себя уверенно. Добавь явную инструкцию:
После списка обязательно напиши раздел:
"Что я НЕ могу знать без дополнительного контекста:"
— перечисли 5 вопросов, ответы на которые могут
радикально изменить этот список рисков.
Это активирует аудит ещё в первом ответе, не дожидаясь второго шага.
🔧 Техника: Роль "скептика" вместо нейтрального аналитика
Если нужна более острая критика плана:
Ты — опытный скептик, который видел как подобные проекты
проваливались. Твоя задача — не помогать, а находить слабые
места. Где этот план рассыплется при первом контакте
с реальностью?
Роль скептика активирует другой режим генерации — больше критики, меньше поддержки.
Ресурсы
Статья: Cognitive Offloading in Agile Teams: How Artificial Intelligence Reshapes Risk Assessment and Planning Quality
Авторы: Adriana Caraeni, Alexander Shick, Andrew Lan — University of Massachusetts Amherst
Ключевые концепции из статьи: Cognitive Offloading Threshold, Hybrid Planning Governance Framework (HPGF), Total Cost of Delivery model, Cognitive Scaffolding Effect
Связанные работы: Jarrahi (2018) о human-AI симбиозе в организациях; Tversky & Kahneman (1973) об эвристике доступности; Romeo & Conti (2026) об automation bias
