TL;DR
Когда AI даёт тебе полный готовый ответ — ты чувствуешь себя умным, но ничего не усваиваешь. Это не интуиция, это измеренный эффект: чем быстрее и полнее отвечает модель, тем выше у человека ощущение понимания и тем ниже реальные знания. Три конкретных режима работы с AI ломают этот паттерн и дают настоящий результат.
Главная находка исследования: стандартный ChatGPT создаёт иллюзию компетентности. Пользователь получает красивый ответ, говорит себе "понял" — и идёт дальше. Мозг не напрягался, значит ничего не запомнил и не освоил. Это как смотреть, как тренер отжимается, и думать, что сам прокачался.
Три режима исправляют это через намеренное трение: подсказки вместо ответов, объяснение от лица будущего себя, сравнение правильного и неправильного подходов. Каждый режим работает иначе, но все три закрывают разрыв между "кажется, понял" и "реально умею".
Схема метода
Три техники применяются в отдельных запросах — каждая на свою задачу:
РЕЖИМ 1 — Guided Hints (подсказки):
Запрос → AI даёт подсказку, не ответ → Ты пробуешь → AI
корректирует → Полный ответ только после попытки
РЕЖИМ 2 — Future-Self Explanation (объяснение от будущего себя):
Запрос → AI просит ТЕБЯ объяснить концепцию "себе через 5 лет" →
AI указывает пробелы → Ты переформулируешь
РЕЖИМ 3 — Contrastive Learning (контрастное обучение):
Запрос → AI показывает правильный И неправильный подход →
Объясняет, почему один работает → Ты объясняешь разницу своими словами
Пример применения
Задача: Ты готовишься к встрече с инвестором по теме юнит-экономики. Слышал термин "payback period", хочешь разобраться по-настоящему, а не просто запомнить определение.
Промпт (Режим 1 — подсказки):
Я хочу разобраться в концепции "payback period" в юнит-экономике
стартапа. Но не объясняй мне сразу — работай в режиме подсказок.
Правила:
1. Задавай мне вопросы или давай подсказки — не раскрывай суть сразу
2. Когда я отвечу, скажи где я прав, где ошибся
3. Полное объяснение — только после того, как я сам попробую
сформулировать основную идею
4. В конце дай короткое резюме моих пробелов
Начинай с первой подсказки.
Результат: Модель задаст направляющий вопрос — например, "Как по-твоему, что значит 'окупить' одного клиента?". Ты ответишь, она скорректирует. После 2-3 итераций — полное объяснение с указанием где ты ошибся. В итоге получишь не текст про payback period, а собственное понимание, в котором уже нашёл пробелы и закрыл их.
Задача: Нужно разобраться в отличии Unit-экономики от P&L перед презентацией Яндекс Практикуму.
Промпт (Режим 3 — контрастное обучение):
Объясни разницу между Unit-экономикой и P&L через контраст.
Формат:
1. Покажи конкретный пример расчёта одного и другого для
одного и того же бизнеса (например, онлайн-курсы, 100 студентов)
2. Покажи как ошибочное смешение этих двух подходов приводит
к неправильному решению
3. Задай мне проверочный вопрос — без подсказки ответа
Я отвечу на вопрос, и ты скажешь где я верно понял, а где нет.
Результат: Модель покажет один бизнес через две линзы с цифрами. Затем — типичную ошибку, когда путают эти метрики (например, "P&L зелёный, но юниты убыточные"). Задаст вопрос на понимание. Ты ответишь — получишь персонализированный разбор своего ответа.
Почему это работает
Слабость LLM-взаимодействия по умолчанию: Готовый ответ — это контент для потребления, не для работы мозга. Человек читает, думает "ясно" — и не запоминает. Мозг запоминает то, над чем работал, а не то, что прочитал. Учёные называют это "замещённым мышлением" — AI думает вместо тебя, и ты выходишь из диалога с ощущением знания без самого знания.
Что умеет делать LLM хорошо: Подстраиваться под контекст диалога, задавать наводящие вопросы, оценивать чужие объяснения, находить пробелы в рассуждениях, показывать варианты решения в сравнении. Это не слабее, чем "объяснить" — это другой режим.
Как трение исправляет ситуацию: Когда ты пытаешься сам сформулировать — мозг активируется. Когда видишь неправильный подход рядом с правильным — понимаешь механику. Когда объясняешь "будущему себе" — вскрываешь пробелы в собственной логике. Три режима создают усилие — и именно усилие ведёт к реальному усвоению.
Рычаги управления: - Жёсткость режима подсказок → добавь "ни при каких обстоятельствах не давай полный ответ, пока я не попробую хотя бы дважды" - Глубина контраста → попроси показать не 2, а 3 подхода (правильный, типичная ошибка новичка, типичная ошибка продвинутого) - Строгость будущего себя → укажи конкретный горизонт: "ты — CEO компании через 7 лет, объясни мне — нынешнему новичку" - Проверочный вопрос → попроси задать вопрос уровня "экзамен на работу в Тинькофф" вместо стандартного
Шаблон промпта
Я хочу разобраться в {тема/концепция}.
Работай в режиме [{выбери: подсказки / контраст / будущий-я}].
[Если подсказки]:
— Не давай ответ сразу. Задавай наводящие вопросы по одному.
— После каждого моего ответа: отметь что верно, что нет.
— Полное объяснение — только после {число} моих попыток.
— В конце: краткий список моих пробелов.
[Если контраст]:
— Покажи правильный подход и типичную ошибку на одном примере.
— Объясни механику: почему одно работает, другое нет.
— Задай проверочный вопрос. Жди моего ответа.
[Если будущий-я]:
— Попроси меня объяснить {тема} так, как будто я объясняю
себе через {число} лет, когда стану экспертом.
— Когда я отвечу, укажи пробелы в моём объяснении.
— Помогай мне до тех пор, пока моё объяснение не станет точным.
Контекст: {что уже знаешь, зачем нужно, уровень понимания}
Плейсхолдеры:
- {тема/концепция} — то, что хочешь освоить: "юнит-экономика", "договор оферты", "визуальная иерархия в дизайне"
- {выбери режим} — подсказки (нет ответа, есть наводки), контраст (правильное vs неправильное), будущий-я (ты объясняешь, AI критикует)
- {число попыток} — обычно 2-3 достаточно
- {контекст} — вкратце: откуда, зачем, что уже знаешь
🚀 Быстрый старт — вставь в чат:
Вот шаблон для глубокого изучения через AI. Адаптируй под мою задачу:
[твоя тема и цель].
Задавай вопросы, чтобы выбрать режим и заполнить поля.
[вставить шаблон выше]
LLM спросит какой режим тебе нужен и что уже знаешь — потому что от этого зависит какие подсказки давать и насколько жёстко требовать объяснений. Она возьмёт паттерн из шаблона и настроит под твою задачу.
Ограничения
⚠️ Не для поиска информации: Режимы работают только когда цель — понять и освоить, а не быстро узнать факт. Если нужно "какой телефон купить" или "когда дедлайн" — трение только мешает.
⚠️ Требует дисциплины от пользователя: Легко сломать режим фразой "ну ладно, просто скажи ответ". Эффект появляется только если держишь правила диалога до конца.
⚠️ Режим "будущего себя" нагружает сильнее остальных: Исследование показало: он даёт лучший баланс между ощущением понимания и реальным, но требует больше когнитивных усилий. Если времени мало или задача несрочная — начинай с подсказок.
⚠️ Для субъективных навыков — слабее: Чем точнее предметная область (право, финансы, программирование), тем лучше работает контраст. Для творческих задач сложнее определить "ошибку" — контрастный режим теряет силу.
Как исследовали
Исследователи из Кипрского университета сначала поговорили с 16 студентами поколения Z — узнали как те используют AI в учёбе и чего им не хватает. На основе интервью собрали 4 требования к системе и построили Deep3 — веб-приложение с тремя режимами взаимодействия плюс стандартный ChatGPT-подобный режим в качестве контрольной группы.
Затем 85 студентов из европейских университетов выполняли два задания: объяснить академическую концепцию до понятного уровня и решить логическую головоломку. Участников случайно распределяли по четырём условиям — три экспериментальных режима и базовый (привычный AI). После каждого задания измеряли два разных показателя: насколько человек чувствует что понял (субъективно) и насколько он реально понял (объективно, через тест).
Самый неожиданный результат: базовый AI дал самые высокие баллы субъективного понимания и самые низкие объективные показатели одновременно. То есть стандартный режим максимально уверил студентов, что они всё поняли — при том, что они поняли меньше всех. Guided hints (режим подсказок) дал наибольший прирост реального знания без роста раздражения. Режим "будущего себя" создал наилучшее совпадение между тем, что человек думал о своём понимании, и тем, что реально знал — ценой высокой когнитивной нагрузки.
Оригинал из исследования
Исследователи не публиковали готовые промпты — Deep3 был реализован как веб-приложение со встроенной системной инструкцией. Ниже — прямые цитаты участников Phase 1, которые точно передают логику каждого режима:
Future-self: "It would be like asking a question to yourself
but to a more professional you" (P16)
"This will be like I'm talking to myself but myself
that knows a lot more" (P12)
Guided hints: "It's okay to take a little bit more time
than having it be done by someone else" (P1)
"It would be nice to have an option to see the answer,
but not from the beginning" (P3)
Contrastive: "If it shows me an answer that I know it's wrong,
I will stay and think. This will help me stay engaged more" (P11)
"It should provide the user two or three ways
of approaching the problem" (P12)
Контекст: Это дизайн-требования от самих студентов — они описывают что хотели бы от AI. Именно эти формулировки стали основой трёх режимов Deep3.
Адаптации и экстраполяции
💡 Адаптация для профессиональных переговоров
Тот же принцип "Future-Self" работает для подготовки к сложным разговорам — с клиентом, инвестором, начальником.
Представь, что я через 3 года — опытный переговорщик, который
уже провёл 200 сделок. Я хочу объяснить себе нынешнему как
думать о переговорах с [тип собеседника: инвестор/скептичный
клиент/конкурент].
Попроси меня сначала самому попробовать объяснить свою текущую
тактику. Потом укажи пробелы — что упустил будущий я.
🔧 Техника: убрать "жёсткий стоп" → режим коучинга
Базовый шаблон жёстко блокирует ответ до попытки. Если убрать это условие — получаешь мягкий коучинговый режим: AI отвечает, но каждый раз задаёт проверочный вопрос.
После каждого своего объяснения задавай один вопрос,
который проверяет понял ли я суть — не детали.
Жди моего ответа перед следующим блоком.
Подходит когда времени мало, но хочется не просто читать, а думать.
🔧 Техника: "Красная команда" как вариант контраста
Вместо "правильный vs неправильный" — попроси AI сыграть роль человека, который будет атаковать твою идею.
Я объясню свою идею. Ты выступаешь как самый скептичный
инвестор на рынке — Евгений Гордеев из Flint Capital.
Найди три самые слабые точки в моей логике.
Потом объясни как их усилить.
Острее, чем "покажи ошибку" — конкретная роль даёт конкретную критику.
Ресурсы
Работа: Eleftheriou E., Pallis G., Constantinides M. Confidence Without Competence in AI-Assisted Knowledge Work. CHIWORK '26, June 22–25, 2026, Linz, Austria. ACM.
Авторы: Elena Eleftheriou (University of Cyprus), George Pallis (University of Cyprus), Marios Constantinides (CYENS Centre of Excellence / University of Cyprus / University College London)
Ключевые отсылки из исследования: - Kosmyna et al. — EEG-исследование про снижение активности мозга при использовании AI - MIT Media Lab (2025) — "нейронный режим ожидания" при работе с AI - Sarkar et al. — инструмент для электронных таблиц с "провокациями" от AI - Buçinca et al. — контрастивные объяснения улучшают принятие решений
