TL;DR
Это исследование — не техника, а фундаментальный инсайт о том, почему ChatGPT вредит вашему обучению по умолчанию. LLM оптимизированы под результат: дать точный ответ быстро, убрать сопротивление, снизить нагрузку. Именно это делает их плохими учителями — они делают работу за вас, а не заставляют вас думать самостоятельно. Авторы называют это ловушкой performance vs learning: задание выполнено на отлично, но через неделю в голове пусто.
Парадокс производительности: в реальном эксперименте старшеклассники с AI-помощником решали задачи лучше во время обучения, но хуже сдавали проверку без AI через несколько недель. Это называется когнитивной выгрузкой — когда AI берёт на себя анализ, планирование и оценку, мозг перестаёт тренировать именно те механизмы, которые нужны для настоящего понимания. Короче: чем удобнее AI отвечает, тем меньше вы учитесь.
Решение — явно перенастроить AI на обучающий режим. Четыре принципа: задавай вопросы вместо объяснений; держи уровень сложности в «зоне дискомфорта»; выявляй разрыв между тем, что ты думаешь, что знаешь, и тем, что знаешь реально; привязывай знания к конкретным ситуациям из твоей практики. Каждый принцип переводится в конкретные инструкции в промпте.
Схема метода
Один промпт в начале сессии — переключает всю беседу в обучающий режим.
РЕЖИМ: AI как учитель, не как энциклопедия
ШАГ 1 (Глубокое обучение):
Не объясняй → спрашивай
Формат: вопрос, проверяющий понимание, не ответ
ШАГ 2 (Скаффолдинг):
Не давай ответ сразу → дай подсказку уровня n+1
Если застрял → ещё одна подсказка, не ответ
ШАГ 3 (Метакогниция):
Периодически спрашивай уверенность → потом проверяй реальное знание
Если расхождение → указывай на слепые пятна
ШАГ 4 (Контекст):
Примеры только из моей области → привязка к реальным ситуациям
ВЫХОД из режима: только когда попрошу "объясни напрямую"
Всё выполняется в одном диалоге. Переключение одноразовое — действует на всю сессию.
Пример применения
Задача: Артём хочет разобраться в unit-экономике для своего небольшого e-commerce бизнеса на Wildberries. Он раньше просто спрашивал ChatGPT «объясни LTV и CAC» — получал лекцию, кивал, через три дня забывал.
Промпт:
Я хочу по-настоящему разобраться в unit-экономике для Wildberries,
а не просто получить объяснения.
Работай как строгий, но поддерживающий ментор:
— Не объясняй концепции сразу. Сначала спроси, что я уже понимаю.
— Задавай вопросы, которые заставляют меня думать и формулировать
самого, а не получать готовое.
— Если я застрял — дай наводящую подсказку, не ответ.
Если совсем застрял — ещё одну. Прямой ответ только если
я попрошу явно.
— Периодически спрашивай: "Насколько уверен(а) на 1-10?" —
потом проверяй реальное понимание коротким вопросом.
Показывай расхождение честно, без похвалы.
— Все примеры — про Wildberries, реальные товарные категории, рубли.
— Роль можешь менять: иногда ты эксперт-ментор,
иногда — «другой предприниматель», с которым я обсуждаю.
Начни с того, что спросишь меня: как я сейчас понимаю
разницу между LTV и CAC, и зачем они нужны.
Результат: Вместо лекции AI начнёт с вопроса о текущем понимании. Дальше — диалог: Артём формулирует, AI указывает на пробелы, даёт подсказки уровнем выше. В какой-то момент AI спросит «уверенность 1-10?» — Артём ответит «7», AI задаст проверочный вопрос и покажет, где реально 4. Это укол, но полезный. Через 20 минут такого диалога понимание будет прочнее, чем после 5 прочитанных статей.
Почему это работает
LLM по умолчанию оптимизированы под удовлетворение запроса: дать полный, точный, удобный ответ. Это выглядит как помощь — но именно это мешает обучению. Мозг запоминает то, что сам достал, а не то, что получил готовым. Это называется эффектом генерации: знание, которое ты сформулировал сам, хранится в долгосрочной памяти гораздо прочнее.
Второй механизм — тестовый эффект: воспроизведение информации из памяти укрепляет её сильнее, чем повторное чтение. Поэтому «AI спрашивает тебя» работает лучше, чем «AI объясняет тебе». Когда ты отвечаешь на вопрос — ты тренируешь память. Когда читаешь объяснение — только иллюзия понимания.
Рычаги управления промптом: - Строгость подсказок — чем меньше подсказок разрешаешь, тем сложнее и глубже обучение. Для тяжёлых тем — разреши две подсказки. Для лёгкого повторения — одну. - Частота метакогнитивных проверок — «проверяй каждые 3 ответа» vs «раз в конце». Чаще = точнее картина слепых пятен. - Смена ролей AI — «побудь новичком, которому я объясняю» запускает эффект протеже: объяснение другому — один из лучших способов выявить дыры в своём понимании. - Явный выход из режима — фраза «объясни напрямую» — это аварийный выход. Используй его осознанно, не автоматически.
Шаблон промпта
Я хочу по-настоящему разобраться в {тема}, а не просто получить объяснение.
Работай как строгий, но поддерживающий ментор:
— Не объясняй сразу. Сначала спроси, что я уже понимаю по этой теме.
— Задавай вопросы, которые заставляют меня думать и формулировать самого.
Не давай готовых ответов без запроса.
— Если я застрял — одна наводящая подсказка. Ещё застрял — ещё одна.
Прямой ответ только если скажу "объясни напрямую".
— Каждые {N} ответов спрашивай: "Оцени уверенность 1-10" —
потом задавай проверочный вопрос. Показывай разрыв честно.
— Все примеры — из области {моя сфера/контекст}.
— Иногда меняй роль: ментор → коллега → новичок, которому я объясняю.
Начни с вопроса: как я сейчас понимаю {ключевой концепт темы}?
Что подставлять:
- {тема} — конкретно: «финансовый анализ», «SEO», «переговоры с поставщиками»
- {N} — через сколько ответов проверять уверенность: 3-5 для плотного обучения, 8-10 для лёгкого
- {моя сфера/контекст} — «московский рынок аренды», «B2B SaaS», «маркетплейсы»
- {ключевой концепт темы} — главное понятие, с которого начнёте: «что такое маржинальность», «как работает конверсия»
🚀 Быстрый старт — вставь в чат:
Помоги мне адаптировать этот шаблон под мою задачу: {твоя задача —
что хочешь выучить}. Спроси уточняющие вопросы и заполни поля.
[вставить шаблон выше]
LLM спросит что изучаешь, какой уровень знаний сейчас и в каком контексте применять — потому что без этого не сможет откалибровать сложность подсказок и выбрать правильные примеры. Она возьмёт структуру из шаблона и адаптирует под твою тему.
Ограничения
⚠️ Не для срочных задач: Если нужно быстро получить ответ для работы прямо сейчас — этот режим не нужен. Он для ситуаций, где цель — долгосрочное понимание, а не скорость.
⚠️ Не работает без вашей активности: Если не отвечать развёрнуто, а писать «да/нет» — обучающий режим ломается. Метод требует включённости.
⚠️ AI не видит вас по-настоящему: Реальные педагогические системы строят модель конкретного ученика со временем. ChatGPT/Claude без памяти сбрасывает всё в каждой новой сессии. Приходится напоминать свой уровень и контекст вручную.
⚠️ Промпт не заменяет структуру курса: Метод помогает глубже усвоить тему, но не выстраивает оптимальную последовательность обучения. Нужно самому определить, что изучать и в каком порядке.
Ресурсы
Название работы: Building AI Companions that Prioritise Learning over Performance
Авторы: Hassan Khosravi, Dragan Gašević, Lixiang Yan, Jason M. Lodge, Shazia Sadiq, Jason M. Tangen, Paul Denny, Kristen DiCerbo, Simon Buckingham Shum, Ryan S. Baker
Университеты: University of Queensland, Monash University, Tsinghua University, University of Auckland, Khan Academy, University of Technology Sydney, Adelaide University
Ключевые концепции из исследования: Higher Education Learning Framework (HELF), learning-performance paradox, cognitive offloading, desirable difficulties, generation effect, testing effect, Zone of Proximal Development, metacognitive calibration
