3,583 papers
arXiv:2604.13814 74 15 апр. 2026 г. FREE

Порог когнитивной разгрузки: почему AI-план работает только как черновик, а не как готовое решение

КЛЮЧЕВАЯ СУТЬ
Из 11 рисков, которые реально случились в проекте — AI предупредил только о 4. Семь оказались контекстными: конкретный стек, конкретный партнёр, конкретные договорённости. Этого в обучающих данных нет ни у одной модели — и не будет. Метод позволяет собирать риски точнее, чем AI или человек по отдельности, добавив один обязательный шаг: активный поиск пропусков в AI-списке — не 'пробежать глазами', а именно охотиться за тем, что модель не могла знать. Фишка в том, что AI-структура меняет что именно ищет человек: гибрид нашёл 87%+ рисков, тогда как человек в одиночку — 79%, а AI-only — меньше 40%.
Адаптировать под запрос

TL;DR

Когда полностью делегируешь AI планирование или оценку рисков, получаешь быстрый и красивый результат с системной слепотой. AI захватывает 0% новых, контекстно-специфических рисков — тех, которых нет в его обучающих данных, но которые именно твоя ситуация и порождает. Исследование формализует это как "порог когнитивной разгрузки": пока AI форматирует и считает — всё хорошо, как только он начинает оценивать риски вместо тебя — команда получает план без понимания его уязвимостей.

Главная находка: из 11 рисков, которые реально случились в AI-плане, AI предупредил лишь о 4. Остальные 7 — специфика конкретного клиента, конкретного стека, конкретного контекста. Не потому что модель плохая: её обучали не на твоём проекте. Человек без AI нашёл 79% рисков. Когда AI сначала дал структуру, а человек потом активно искал что пропущено — нашли 87% и больше рисков, чем каждый по отдельности.

Практическое правило: AI — это каркас для мышления, не замена ему. Попроси AI сгенерировать список рисков → убери его в сторону → спроси себя "что он не учёл про мою конкретную ситуацию" → сравни. Именно в этот момент появляется то, что не нашёл бы без AI-структуры, и то, что AI не может найти без твоего контекста.


🔬

Схема метода

ШАГ 1 [AI]: Сгенерировать базовый список
          → структурированный список рисков/допущений/задач

ШАГ 2 [Человек]: Обязательный аудит
          → активный поиск того, что AI пропустил
          → фокус: специфика именно ТВОЕЙ ситуации

ШАГ 3 [Итог]: Объединить
          → результат превышает и AI-список, и то что нашёл бы человек с нуля

Оба шага происходят в одном рабочем сеансе, но в разных запросах.
Ключевое: Шаг 2 — ОБЯЗАТЕЛЬНЫЙ, не "если захочется".

🚀

Пример применения

⚠️ Сначала: где метод работает плохо. Формальные, хорошо описанные риски — статистику, типовые технические баги, известные узкие места. Там AI вполне надёжен и scaffold не нужен. Метод критически важен именно для новых, нестандартных ситуаций с уникальным контекстом.


Задача: Алексей Горячев запускает SaaS-продукт для малого бизнеса в России. Перед запуском хочет оценить риски, чтобы не сгореть в первые три месяца. Собирается доверить список рисков полностью AI.

Промпт — Шаг 1 (отправить AI):

Я запускаю SaaS-продукт для автоматизации документооборота 
в малом бизнесе в России. Тариф 3900₽/мес, целевой клиент — 
ИП и ООО до 15 человек. Запуск через 6 недель.

Составь структурированный список рисков по категориям:
- Технические зависимости и инфраструктура
- Поведение клиентов и онбординг
- Внешние сервисы и интеграции (банки, ФНС, платёжки)
- Регуляторные и юридические риски

Для каждого риска: что может пойти не так, вероятность 
(высокая/средняя/низкая), последствие.

Промпт — Шаг 2 (новый запрос, после того как получил и прочитал список):

Выше ты дал список рисков для запуска моего SaaS.
Теперь помоги найти то, что ты НЕ мог знать.

Задай мне 7-10 вопросов о специфике именно моей ситуации:
- конкретные партнёры и интеграции, которые я уже выбрал
- как именно устроен онбординг у меня
- с кем уже договорился, на что положился
- какие допущения я делаю про клиентов

После моих ответов — добавь риски, которые появятся 
из этого контекста.

Результат:

После Шага 1 — структурированный список из 8–12 типовых рисков SaaS в России: отток после триала, нагрузка на поддержку, зависимость от СМЭВ, проблемы с платёжным шлюзом.

После Шага 2 — AI задаст вопросы про конкретные детали: "На каком эквайринге вы? Есть ли у вас кастомная интеграция с 1С?" Из ответов появятся 3–5 рисков, которых нет в первом списке — специфика именно твоего стека, твоих договорённостей, твоих клиентов. Итоговый список превысит оба по качеству.


🧠

Почему это работает

AI плохо знает твой гараж, но хорошо знает все гаражи мира. Когда просишь перечислить риски SaaS — модель выдаёт паттерны из тысяч похожих случаев. Это ценно. Но риски, которые убивают именно твой проект, рождаются из специфики: ты выбрал вот этот платёжный шлюз, договорился с этим партнёром, понадеялся на вот это API. Этого в обучающих данных нет.

Люди без AI попадают в ловушку доступности (availability bias — тенденция оценивать вероятность события по тому, насколько легко оно приходит в голову). Без структуры мозг вспоминает риски с последнего похожего проекта и игнорирует менее яркие, но не менее опасные. AI-список заставляет пройтись по категориям системно — и это меняет что ты ищешь.

Синергия появляется именно в точке "а что он пропустил?". Когда ты активно ищешь пропуски в AI-списке — включается критическое мышление, которое в AI-only режиме просто не активируется. Эксперимент показал: не "AI нашёл 4, человек нашёл 11, итого 15". Гибрид нашёл 13 — больше, чем человек в одиночку. Структура AI меняет качество человеческого поиска.

Рычаги управления: - Количество категорий в Шаге 1 → чем детальнее разбивка, тем лучше покрытие типовых рисков - Формат вопросов в Шаге 2 → чем конкретнее вопросы о твоей ситуации, тем точнее контекстные риски - Явный запрет "не добавляй ничего без моих ответов" → AI не будет домысливать, а будет ждать специфику - Категория "допущения" → отдельно спроси не только о рисках, но и о том, что ты считаешь само собой разумеющимся — это самая опасная слепая зона


📋

Шаблон промпта

=== ШАГ 1: БАЗОВЫЙ СПИСОК ===

Я {описание задачи/проекта/решения}.

Составь структурированный список рисков и допущений 
по следующим категориям:
- {категория 1}
- {категория 2}
- {категория 3}
- {категория 4}

Для каждого: что может пойти не так, вероятность, 
последствие.

=== ШАГ 2: АУДИТ ПРОПУСКОВ (отдельный запрос) ===

Выше ты составил список рисков для {задача}.

Теперь найди то, что не мог знать без контекста.
Задай мне {число} вопросов о специфике моей ситуации:
- конкретные инструменты и партнёры, которые я выбрал
- ключевые допущения, на которые я положился
- нестандартные решения в моём подходе
- с кем и на что я уже договорился

После моих ответов — добавь риски из этого контекста.

Плейсхолдеры: - {описание задачи} — что запускаешь, планируешь, решаешь - {категория 1-4} — области жизни твоей задачи: техника, люди, деньги, внешние зависимости - {число} — 5-10 вопросов, меньше для быстрого аудита, больше для сложного проекта


🚀 Быстрый старт — вставь в чат:

Вот шаблон гибридного анализа рисков. Адаптируй под мою задачу, 
задавай уточняющие вопросы чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про твою задачу, область и ключевые категории — чтобы сгенерировать релевантный список и правильные вопросы для аудита пропусков.


📌

Почему это важно понять глубже

Матрица HPGF: что делегировать AI, что оставить себе

Исследование предлагает простую сортировку задач по двум осям:

Всё стандартно, контекст понятен Много неизвестных, своя специфика
Сложная математика/данные ✅ AI делает, ты проверяешь ↔️ AI считает, ты формулируешь контекст
Простые задачи 🤖 Полная автоматизация 🧠 Ты ведёшь, AI даёт каркас

Правый нижний угол — самый важный. Именно сюда попадают риски, допущения, нестандартные решения, планирование в условиях неопределённости. Именно здесь AI-only провалился с 0% на новых рисках. Правило: AI даёт список → ты обязательно его критикуешь, а не просто принимаешь.


⚠️

Ограничения

⚠️ Узкая выборка: Один проект, один тип агентства, три спринта. Результаты показывают направление, но не универсальный закон — в другом контексте цифры могут отличаться.

⚠️ Не работает при пассивном review: Суть метода — обязательная активная критика AI-списка. Если просто "пробежать глазами и кивнуть" — эффект исчезает. Автоматизационное смещение (tendency to accept AI output without scrutiny) съедает всю пользу.

⚠️ Не для типовых задач: Если риски хорошо известны (налоговая декларация, стандартная документация) — дополнительный аудит избыточен. Metод критически важен именно для уникальных и новых ситуаций.

⚠️ Дескиллинг — открытый вопрос: Если постоянно использовать AI для оценки рисков, не теряют ли люди со временем способность оценивать их самостоятельно? Исследование признаёт, что не проверяло долгосрочный эффект.


🔍

Как исследовали

Команда взяла реальное агентство Vierra Digital (35–50 человек, Scrum, двухнедельные спринты) и разделила на три группы с одинаковым опытом — 3.2 года Agile на человека. Все три группы делали один и тот же проект: лендинг на 47 story points с фронтендом, API, анимацией и QA. Первая группа работала по плану от Claude Sonnet 4.6 без своего участия в планировании. Вторая — только люди, Planning Poker, никакого AI. Третья — AI генерировал бэклог и базовый список рисков, люди его критиковали и добавляли своё.

Изюминка дизайна: на 40% выполнения Sprint 2 всем группам ввели одинаковое изменение — клиент попросил заменить библиотеку анимации на самописную. Это тест на адаптивность: сможет ли команда быстро перестроиться? AI-группа на это потратила 6.5 часов, гибрид — 3.2. Причина нашлась в данных: AI-группа просто не знала об уязвимых местах в своём стеке, потому что не участвовала в их поиске.

Что удивило: гибрид не "нашёл среднее" между AI и людьми — он превзошёл обоих по количеству выявленных рисков (13 против 4 у AI и 11 у людей). Инсайт: структура AI меняет качество человеческого поиска, а не просто добавляется к нему.


📄

Оригинал из исследования

Контекст: Матрица HPGF — ключевой инструмент исследования, операционализирующий порог когнитивной разгрузки.

Table 5: Hybrid Planning Governance Framework (HPGF)

                    | Low Contextual Ambiguity        | High Contextual Ambiguity
--------------------|--------------------------------|---------------------------
High Computational  | AI Delegation with Human        | Iterative Human-AI 
Complexity          | Review. Velocity forecasting,  | Collaboration. Scope change
                    | throughput analysis, routine   | impact analysis, architectural
                    | estimation. AI generates;      | refactoring estimation.
                    | human confirms applicability   | Human frames context; AI
                    | to current context.            | models quantitative 
                    |                                | implications.
--------------------|--------------------------------|---------------------------
Low Computational   | Full AI Automation.            | Human Deliberation with
Complexity          | Administrative documentation,  | AI Scaffolding. Risk
                    | status reporting, retrospective| identification, assumption
                    | formatting. No cognitive risk; | articulation, contingency
                    | full delegation appropriate.   | planning. Human leads; AI
                    |                                | provides baseline structure
                    |                                | to interrogate.

💡

Адаптации и экстраполяции

📌

💡 Адаптация: Деловые переговоры и важные решения

Та же логика работает перед важными переговорами или решениями, а не только в проектном планировании.

=== ШАГ 1 ===
Я веду переговоры о {описание: условия партнёрства / 
зарплата / сделка}. Вот что я знаю о ситуации:
{факты}.

Составь список: возможные проблемные точки, скрытые 
интересы другой стороны, допущения которые я делаю.

=== ШАГ 2 ===
Теперь задай мне 7 вопросов о специфике именно этого 
человека/компании/контекста — того, что ты не мог знать.
После ответов добавь риски, которые из этого следуют.

📌

🔧 Техника: Явный запрет на "закрытие" → больше пропусков

По умолчанию AI стремится дать "полный" список — и ведёт себя уверенно. Добавь явную инструкцию:

После списка обязательно напиши раздел:
"Что я НЕ могу знать без дополнительного контекста:"
— перечисли 5 вопросов, ответы на которые могут 
  радикально изменить этот список рисков.

Это активирует аудит ещё в первом ответе, не дожидаясь второго шага.


📌

🔧 Техника: Роль "скептика" вместо нейтрального аналитика

Если нужна более острая критика плана:

Ты — опытный скептик, который видел как подобные проекты 
проваливались. Твоя задача — не помогать, а находить слабые 
места. Где этот план рассыплется при первом контакте 
с реальностью?

Роль скептика активирует другой режим генерации — больше критики, меньше поддержки.


🔗

Ресурсы

Статья: Cognitive Offloading in Agile Teams: How Artificial Intelligence Reshapes Risk Assessment and Planning Quality

Авторы: Adriana Caraeni, Alexander Shick, Andrew Lan — University of Massachusetts Amherst

Ключевые концепции из статьи: Cognitive Offloading Threshold, Hybrid Planning Governance Framework (HPGF), Total Cost of Delivery model, Cognitive Scaffolding Effect

Связанные работы: Jarrahi (2018) о human-AI симбиозе в организациях; Tversky & Kahneman (1973) об эвристике доступности; Romeo & Conti (2026) об automation bias


📋 Дайджест исследования

Ключевая суть

Из 11 рисков, которые реально случились в проекте — AI предупредил только о 4. Семь оказались контекстными: конкретный стек, конкретный партнёр, конкретные договорённости. Этого в обучающих данных нет ни у одной модели — и не будет. Метод позволяет собирать риски точнее, чем AI или человек по отдельности, добавив один обязательный шаг: активный поиск пропусков в AI-списке — не 'пробежать глазами', а именно охотиться за тем, что модель не могла знать. Фишка в том, что AI-структура меняет что именно ищет человек: гибрид нашёл 87%+ рисков, тогда как человек в одиночку — 79%, а AI-only — меньше 40%.

Принцип работы

Не давай AI финальный список — давай ему роль черновика. Шаг 1: AI генерирует структурированный список рисков по категориям с вероятностью и последствиями. Шаг 2: ты читаешь список — и сразу запускаешь второй запрос: 'задай мне 7–10 вопросов о специфике именно моей ситуации'. AI спрашивает про твой стек, партнёров, допущения — и добавляет риски из твоих ответов. Ключ: Шаг 2 обязателен, а не 'если захочется'. Без него мозг видит красивый список и перестаёт искать. Именно в точке 'а что он пропустил?' включается критическое мышление, которое в режиме AI-only просто не активируется.

Почему работает

AI знает все гаражи мира, но не твой конкретный. Модель выдаёт паттерны из тысяч похожих случаев — это ценно. Но риски, которые убьют именно твой проект, рождаются из специфики: ты выбрал вот этот платёжный шлюз, договорился с этим партнёром, положился на вот это API. Этого нет в обучающих данных. Человек без структуры попадает в ловушку доступности: вспоминает риски с последнего похожего проекта и игнорирует менее яркие, но не менее опасные. AI-список заставляет пройтись по категориям системно — и это меняет что ты ищешь дальше. Вот откуда синергия: не сложение двух списков, а изменение качества самого поиска.

Когда применять

Планирование и оценка рисков → особенно для новых, нестандартных ситуаций с уникальным контекстом: новый клиент, непроверенный стек, нестандартные договорённости, запуск в условиях неопределённости. НЕ подходит: для хорошо известных типовых задач — налоговая документация, стандартный релиз, шаблонный проект. Там AI вполне надёжен, и двухэтапный аудит — лишний шаг.

Мини-рецепт

1. Дай AI роль черновика: опиши задачу и попроси список рисков по 4–5 категориям с вероятностью и последствиями — не в одной каше, а с разбивкой.
2. Прочитай список — и сразу же запусти второй, отдельный запрос: 'задай мне 7–10 вопросов о специфике моей ситуации — партнёры, стек, допущения, договорённости'.
3. Ответь развёрнуто. AI добавит риски из контекста — те, которых в первом списке не было.
4. Отдельно попроси категорию 'допущения': что ты считаешь само собой разумеющимся — это самая опасная слепая зона, которую ни AI, ни ты сам не видите без явного запроса.

Примеры

[ПЛОХО] : Перечисли риски запуска SaaS-продукта в России
[ХОРОШО] : Шаг 1 (первый запрос): Я запускаю SaaS для автоматизации документооборота в малом бизнесе. Тариф 3900₽/мес, клиент — ИП и ООО до 15 человек, запуск через 6 недель. Составь список рисков по категориям: технические зависимости, поведение клиентов, внешние сервисы (банки, платёжки), регуляторные. Для каждого: что пойдёт не так, вероятность (высокая/средняя/низкая), последствие. Шаг 2 (отдельный запрос, после того как прочитал список): Выше ты дал список рисков. Теперь задай мне 8 вопросов о специфике именно моей ситуации — какой платёжный шлюз я выбрал, с кем договорился, на какие внешние сервисы положился, какие допущения делаю про клиентов. После моих ответов добавь риски из этого контекста, которых в первом списке не было.
Источник: Cognitive Offloading in Agile Teams: How Artificial Intelligence Reshapes Risk Assessment and Planning Quality
ArXiv ID: 2604.13814 | Сгенерировано: 2026-04-16 05:24

Проблемы LLM

ПроблемаСутьКак обойти
Структурированный список AI выглядит полным — и отключает критическое мышлениеПросишь AI оценить риски. Получаешь красивый список по категориям. Мозг видит структуру и расслабляется: "всё учтено". Но AI знает шаблоны из тысяч похожих случаев — не специфику твоей ситуации. Конкретный партнёр, конкретный стек, конкретные договорённости — этого в его данных нет. Проблема именно в том, что список красив: он не выглядит неполнымОбязателен второй запрос. Его задача — не дополнить список, а найти то, чего там нет. Попроси AI задать тебе вопросы о твоей конкретной ситуации: какие инструменты выбрал, на что положился, с кем договорился. Из твоих ответов появятся риски, которые первый запрос никогда не нашёл бы

Методы

МетодСуть
Двухшаговый разбор — каркас плюс аудит пропусковШаг 1. Запрос: попроси AI сгенерировать список по категориям. Получи структуру. Шаг 2. Отдельный запрос: Ты дал список рисков. Теперь задай мне {число} вопросов о специфике моей ситуации: конкретные инструменты, партнёры, допущения. После моих ответов — добавь риски из этого контекста. Ключевое: шаг 2 обязательный, не "если захочется". И обязательно отдельный запрос — иначе AI будет домысливать, а не спрашивать. Почему работает: AI-структура в шаге 1 меняет то, что ты сам замечаешь в шаге 2. Ты уже не ищешь с нуля — ты ищешь пропуски. Это другой режим мышления, он продуктивнее. Когда применять: нестандартная ситуация, уникальный контекст, высокие ставки. Когда не нужен: типовые задачи с хорошо известными рисками

Тезисы

ТезисКомментарий
AI-структура меняет качество человеческого поискаБез структуры человек вспоминает риски с последнего похожего проекта. Мозг идёт по самым ярким воспоминаниям. AI-список задаёт категории — и человек начинает думать по-другому. Не "что помню", а "что пропущено в этой категории". Итог: гибрид находит больше рисков, чем человек в одиночку. Не потому что AI добавил своё. А потому что его каркас изменил как человек ищет. Применяй: используй AI-список не как ответ, а как шаблон для собственного мышления
📖 Простыми словами

Cognitive Offloading in Agile Teams: How Artificial Intelligence Reshapes Risk Assessment and Planning Quality

arXiv: 2604.13814

Проблема не в том, что AI глупый, а в том, что он работает как статистическое зеркало. Когда ты просишь его оценить риски проекта, он не анализирует твою реальность — он просто усредняет опыт тысяч чужих факапов. Это называется когнитивная разгрузка: ты перекладываешь на модель самую сложную часть работы, и она выдает красивый, логичный, но абсолютно стерильный план. Фундаментальная механика тут проста: AI видит типовые паттерны, но в упор не замечает контекстуальные аномалии, которые и убивают сложные проекты.

Это как нанять опытного консультанта, который ни разу не был у тебя на производстве, но читал все учебники мира. Он расскажет тебе про пожарную безопасность и налоги, но не заметит, что у тебя крыша течет прямо на сервер. Ты расслабляешься, глядя на его пухлый отчет, и ловишь системную слепоту. Формально всё учтено, но проект горит, потому что ты перестал смотреть на него своими глазами, доверившись «авторитету» алгоритма.

Исследователи нащупали конкретный порог когнитивной разгрузки, после которого качество планирования летит в трубу. Пока ты используешь AI для рутины — структурировать мысли, посчитать сроки или оформить тикеты — всё работает отлично. Но как только дело доходит до оценки рисков, модель выдает 0% новых угроз, специфичных именно для твоего случая. Она отлично знает, как ломаются SaaS-платформы вообще, но понятия не имеет, что твой ключевой разработчик уходит в отпуск, а выбранный API лагает по четвергам.

Этот принцип универсален и касается не только Agile-команд. Он работает в маркетинге, юриспруденции и даже в медицине: везде, где есть уникальный контекст. Можно делегировать AI написание кода или текста, но нельзя отдавать ему архитектурные решения. Как только ты перестаешь «пропускать через себя» критические точки проекта, ты превращаешься в оператора, который просто копипастит чужие галлюцинации. SEO для смыслов не работает — AI хорош как ассистент, но ужасен как стратег.

Короче: используй AI как умную шпаргалку, а не как замену мозгу. Главный вывод исследования — если ты полностью делегировал планирование нейронке, ты уже проиграл, просто еще об этом не знаешь. Оставляй за собой право на финальный аудит контекста и ищи те самые «невозможные» риски, которых нет в базе данных ChatGPT. Иначе ты получишь идеальный план для какого-то другого проекта, который в твоей реальности просто не выживет.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с