TL;DR
Epistemic Debt («эпистемический долг») — это разрыв между тем, что AI сделал за тебя, и тем, что ты реально понимаешь. Исследование вводит два инструмента борьбы с этим разрывом: Explanation Gate (объясни ответ AI своими словами, прежде чем использовать) и Consultant Stance (спрашивай AI «почему», а не только «сделай»).
Главная находка — «коллапс компетентности». Ты отдаёшь задачу AI, получаешь отличный результат, используешь. Снаружи всё в порядке. Но когда AI недоступен, контекст сброшен или нужно объяснить решение другому человеку — ты не можешь этого сделать. Не потому что ленив: без активного формулирования своими словами информация просто не закрепляется в долгосрочной памяти. Ты прочитал ответ — но не обработал его. Знание кажется твоим, но не стало твоим.
Explanation Gate решает это через обязательный «teach-back» (обратное объяснение): перед тем как применить AI-ответ, объясни его суть своими словами. Второй AI (или тот же) оценивает глубину понимания — не то, что ты сказал, а почему так работает. Если объяснение поверхностное — ты получаешь наводящий вопрос, а не ответ. Разрыв закрывается.
Схема метода
Метод работает в двух запросах в одном чате:
ЗАПРОС 1: [Твоя задача] → AI генерирует ответ/решение
ЗАПРОС 2 (Explanation Gate):
Ты объясняешь ответ своими словами
→ AI-судья оценивает глубину понимания
→ Score < 3 из 5: AI задаёт Сократовский вопрос (не даёт ответ)
→ Score ≥ 3 из 5: разрешение использовать
Цикл повторяется пока понимание не достигнуто.
Параллельно — Consultant Stance как привычка к каждому запросу:
❌ Contractor: "Сделай X"
✅ Consultant: "Объясни, почему X лучше Y и где X может сломаться"
Пример применения
Задача: Маша — продакт-менеджер в EdTech стартапе. Попросила Claude составить стратегию выхода на B2B-рынок: таргет — корпоративное обучение, ценник 150 000 ₽/год за лицензию. Получила красивый документ на 5 страниц. На следующий день CEO спрашивает: «Почему именно такой ценник? Чем он обоснован?» — Маша не может объяснить.
Промпт (двухшаговый):
Шаг 1 — обычный запрос:
Составь стратегию выхода на B2B-рынок для EdTech платформы.
Целевой сегмент: корпоративное обучение, компании 500+ сотрудников.
Ценник: 150 000 ₽/год.
Формат: ключевые решения с обоснованием.
Шаг 2 — Explanation Gate (сразу после получения ответа):
Стоп. Прежде чем я возьму эту стратегию в работу —
сыграй роль строгого ментора по продажам.
Я сейчас объясню тебе суть стратегии своими словами:
[ВСТАВЬ СВОЁ ОБЪЯСНЕНИЕ — 3-5 предложений:
почему такой ценник, почему этот сегмент,
что является ключевым риском]
Оцени моё понимание по шкале 1-5:
- 1: Пересказал что написано, без понимания причин
- 3: Объяснил логику ценообразования и связь с сегментом
- 5: Назвал ключевые риски и альтернативы
Если оценка < 3 — задай один наводящий вопрос, не давай ответ.
Если оценка ≥ 3 — подтверди и добавь один нюанс, который я упустил.
Формат ответа: {"score": X, "feedback": "..."}
Результат: AI вернёт оценку и либо задаст уточняющий вопрос («Ты назвала цену, но почему именно 150к, а не 100к или 200к?»), либо подтвердит понимание. После 1-2 раундов Маша сможет объяснить стратегию CEO своими словами — потому что сформулировала её сама.
Почему это работает
Слабость человека при работе с AI: Чтение чужого текста создаёт иллюзию понимания. Мы читаем хорошо написанный ответ, он кажется логичным — и мозг регистрирует «понял». Но это узнавание, не знание. Информация осталась в рабочей памяти, не перешла в долгосрочную.
Сильная сторона LLM: Модель умеет генерировать текст по паттерну. Если задать ей роль «строгого ментора, который задаёт Сократовские вопросы», она воспроизведёт этот паттерн точно — будет докапываться до причин, не давать готовые ответы, оценивать глубину.
Как метод использует это: Explanation Gate превращает пассивное получение ответа в активное формулирование. Когда ты пытаешься объяснить своими словами — ты находишь дыры в понимании. AI-судья их показывает, не закрывая. Это «желательная трудность» (desirable difficulty) — мозг работает интенсивнее и закрепляет знание.
Рычаги управления: - Шкала оценки (1-5) → понизь порог до 2 для простых задач, повысь до 4 для критически важных решений - Роль ментора → замени на конкретного человека («строгий CFO», «скептичный инвестор из Яндекс Венчурс») — острее оценка - «Не давай ответ» → убери это условие, если хочешь учиться быстро с подсказками - Количество раундов → добавь «максимум 3 итерации» чтобы не застрять в цикле
Шаблон промпта
# ШАГ 1: Получи ответ AI
{твой обычный запрос}
---
# ШАГ 2: Explanation Gate (вставь после получения ответа)
Прежде чем я использую этот ответ — войди в роль строгого ментора.
Моё объяснение твоего ответа своими словами:
"{моё объяснение: почему именно такое решение,
какова ключевая логика, какой главный риск}"
Оцени глубину моего понимания по шкале 1-5:
- 1 (поверхностно): Пересказал что написано, без понимания причин
- 3 (реляционно): Объяснил связи между элементами и логику решения
- 5 (глубоко): Назвал риски, альтернативы и граничные случаи
Правила:
- Если score < 3: задай ОДИН наводящий Сократовский вопрос. Не давай ответ.
- Если score ≥ 3: подтверди понимание + добавь один нюанс, который я упустил.
Формат: {"score": число, "feedback": "текст"}
Плейсхолдеры:
- {твой обычный запрос} — любая задача из шага 1
- {моё объяснение} — ты пишешь сам, 2-4 предложения своими словами
🚀 Быстрый старт — вставь в чат:
Вот шаблон Explanation Gate для обучения через AI.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы понять контекст.
[вставить шаблон выше]
LLM спросит что именно ты хочешь понять глубже и какой уровень понимания тебе нужен — потому что без этого она не может правильно откалибровать строгость оценки и выбрать нужный порог.
Ограничения
⚠️ Фрикция замедляет: Explain Gate добавляет 15-20 минут на сессию. Для срочных задач где понимание неважно — лишняя трата времени.
⚠️ Не работает для механических задач: Форматирование таблицы, перевод, исправление опечаток — там нечего «понимать». Метод нужен когда AI принимает решения за тебя, а не выполняет рутину.
⚠️ AI-судья можно обмануть: Исследование фиксировало попытки «гейминга» — люди давали формально правильные, но пустые объяснения. Защита — более строгий промпт судьи с требованием конкретных примеров.
⚠️ Помогает, но не устраняет: Scaffolded-группа показала 61.5% успеха против 23.1% у Unrestricted. Это в 2.5 раза лучше — но не идеально. Часть долга всё равно накапливается.
Как исследовали
78 участников — студенты CS и выпускники буткемпов — получали задание: построить приложение-планировщик курсов на React за 90 минут. Ни у кого не было опыта с React — именно это нужно было, чтобы поймать момент «учусь через AI». Три группы: без AI, с неограниченным AI и с AI через Explanation Gate (плагин VibeCheck для Cursor IDE).
Самое умное в дизайне — фаза 2. После 90 минут у всех «забрали» AI и внедрили баг в их собственный код: убрали await из асинхронных вызовов. Это не новый баг — это регрессия их же рабочего кода, который они «построили» в фазе 1. Результат обнажил разницу: Unrestricted-группа провалилась в 77% случаев — люди не могли починить код, который только что «написали». Scaffolded-группа справилась в 61.5% случаев — почти вдвое лучше. Что особенно показательно: Manual-группа (без AI вообще) показала 69.2% — лучше чем Unrestricted AI! Высокая продуктивность с AI без понимания обернулась более низкой компетентностью, чем просто работа руками.
Неожиданная находка — 6 человек из Unrestricted-группы всё же справились. Их логи показали: они использовали AI как консультанта, а не подрядчика — в среднем 4.2 объяснительных вопроса за сессию («почему здесь нужен useEffect?»), против 0.4 у остальных.
Consultant Stance: практические промпты
Главный extractable принцип — менять тип запроса. Вот разница в практике:
Contractor (накапливает долг):
Напиши текст для email-рассылки о новом курсе по финансам.
Consultant (строит понимание):
Напиши текст для email-рассылки о новом курсе по финансам.
После текста объясни:
1. Почему именно такая структура (а не другая)?
2. Какой психологический триггер использован в заголовке?
3. Где этот текст может не сработать и почему?
Адаптации и экстраполяции
🔧 Техника: «Reverse Teach-Back» — попроси AI проверить тебя, а не оценивать
Вместо того чтобы AI выставлял оценку — попроси его задать тебе 3 вопроса по материалу до того как дать финальный ответ:
Прежде чем дать ответ на {задачу} — задай мне 3 вопроса
чтобы понять, что я уже знаю по теме.
После моих ответов — дай полный ответ,
учитывая пробелы в моём понимании.
Это меняет направление: не «оцени что я понял», а «выясни что я знаю» — модель симулирует диагностику, а не проверку.
🔧 Техника: Explanation Gate для принятия решений
Применяй не к обучению, а к важным решениям. Перед тем как взять AI-рекомендацию — объясни её риски:
AI предложил: {рекомендация}
Я объясняю почему это может не сработать: {твои слова}
Оцени: я понимаю реальные риски или рационализирую?
Если понимаю — подтверди. Если нет — задай один вопрос.
Ресурсы
Название работы: Mitigating "Epistemic Debt" in Generative AI-Scaffolded Novice Programming using Metacognitive Scripts
Автор: Sreecharan Sankaranarayanan, Extuitive Inc. (Flagship Pioneering), Cambridge, Massachusetts
Конференция: L@S '26 (The 13th ACM Conference on Learning at Scale)
Ключевые концепции из работы: Cognitive Offloading vs Cognitive Outsourcing (Kirschner, 2026), Script Theory of Guidance (Fischer), Desirable Difficulties (Bjork), SOLO Taxonomy, Teachable Agents paradigm
