3,583 papers
arXiv:2604.09444 76 10 апр. 2026 г. FREE

Deep3: три режима работы с AI, которые дают реальное понимание вместо иллюзии

КЛЮЧЕВАЯ СУТЬ
Парадокс: чем полнее и быстрее AI отвечает на вопрос — тем выше твоё ощущение понимания и тем ниже реальные знания. Это не метафора — это измеренный эффект. Три режима работы с моделью позволяют освоить концепцию по-настоящему, а не просто почувствовать, что разобрался. Каждый режим создаёт намеренное трение между тобой и готовым ответом — подсказки вместо объяснений, сравнение правильного с неправильным, объяснение концепции самому себе из будущего. Мозг работает — значит запоминает.
Адаптировать под запрос

TL;DR

Когда AI даёт тебе полный готовый ответ — ты чувствуешь себя умным, но ничего не усваиваешь. Это не интуиция, это измеренный эффект: чем быстрее и полнее отвечает модель, тем выше у человека ощущение понимания и тем ниже реальные знания. Три конкретных режима работы с AI ломают этот паттерн и дают настоящий результат.

Главная находка исследования: стандартный ChatGPT создаёт иллюзию компетентности. Пользователь получает красивый ответ, говорит себе "понял" — и идёт дальше. Мозг не напрягался, значит ничего не запомнил и не освоил. Это как смотреть, как тренер отжимается, и думать, что сам прокачался.

Три режима исправляют это через намеренное трение: подсказки вместо ответов, объяснение от лица будущего себя, сравнение правильного и неправильного подходов. Каждый режим работает иначе, но все три закрывают разрыв между "кажется, понял" и "реально умею".


🔬

Схема метода

Три техники применяются в отдельных запросах — каждая на свою задачу:

РЕЖИМ 1 — Guided Hints (подсказки):
Запрос → AI даёт подсказку, не ответ → Ты пробуешь → AI 
корректирует → Полный ответ только после попытки

РЕЖИМ 2 — Future-Self Explanation (объяснение от будущего себя):
Запрос → AI просит ТЕБЯ объяснить концепцию "себе через 5 лет" → 
AI указывает пробелы → Ты переформулируешь

РЕЖИМ 3 — Contrastive Learning (контрастное обучение):
Запрос → AI показывает правильный И неправильный подход → 
Объясняет, почему один работает → Ты объясняешь разницу своими словами

🚀

Пример применения

Задача: Ты готовишься к встрече с инвестором по теме юнит-экономики. Слышал термин "payback period", хочешь разобраться по-настоящему, а не просто запомнить определение.

Промпт (Режим 1 — подсказки):

Я хочу разобраться в концепции "payback period" в юнит-экономике 
стартапа. Но не объясняй мне сразу — работай в режиме подсказок.

Правила:
1. Задавай мне вопросы или давай подсказки — не раскрывай суть сразу
2. Когда я отвечу, скажи где я прав, где ошибся
3. Полное объяснение — только после того, как я сам попробую 
   сформулировать основную идею
4. В конце дай короткое резюме моих пробелов

Начинай с первой подсказки.

Результат: Модель задаст направляющий вопрос — например, "Как по-твоему, что значит 'окупить' одного клиента?". Ты ответишь, она скорректирует. После 2-3 итераций — полное объяснение с указанием где ты ошибся. В итоге получишь не текст про payback period, а собственное понимание, в котором уже нашёл пробелы и закрыл их.


Задача: Нужно разобраться в отличии Unit-экономики от P&L перед презентацией Яндекс Практикуму.

Промпт (Режим 3 — контрастное обучение):

Объясни разницу между Unit-экономикой и P&L через контраст.

Формат:
1. Покажи конкретный пример расчёта одного и другого для 
   одного и того же бизнеса (например, онлайн-курсы, 100 студентов)
2. Покажи как ошибочное смешение этих двух подходов приводит 
   к неправильному решению
3. Задай мне проверочный вопрос — без подсказки ответа

Я отвечу на вопрос, и ты скажешь где я верно понял, а где нет.

Результат: Модель покажет один бизнес через две линзы с цифрами. Затем — типичную ошибку, когда путают эти метрики (например, "P&L зелёный, но юниты убыточные"). Задаст вопрос на понимание. Ты ответишь — получишь персонализированный разбор своего ответа.


🧠

Почему это работает

Слабость LLM-взаимодействия по умолчанию: Готовый ответ — это контент для потребления, не для работы мозга. Человек читает, думает "ясно" — и не запоминает. Мозг запоминает то, над чем работал, а не то, что прочитал. Учёные называют это "замещённым мышлением" — AI думает вместо тебя, и ты выходишь из диалога с ощущением знания без самого знания.

Что умеет делать LLM хорошо: Подстраиваться под контекст диалога, задавать наводящие вопросы, оценивать чужие объяснения, находить пробелы в рассуждениях, показывать варианты решения в сравнении. Это не слабее, чем "объяснить" — это другой режим.

Как трение исправляет ситуацию: Когда ты пытаешься сам сформулировать — мозг активируется. Когда видишь неправильный подход рядом с правильным — понимаешь механику. Когда объясняешь "будущему себе" — вскрываешь пробелы в собственной логике. Три режима создают усилие — и именно усилие ведёт к реальному усвоению.

Рычаги управления: - Жёсткость режима подсказок → добавь "ни при каких обстоятельствах не давай полный ответ, пока я не попробую хотя бы дважды" - Глубина контраста → попроси показать не 2, а 3 подхода (правильный, типичная ошибка новичка, типичная ошибка продвинутого) - Строгость будущего себя → укажи конкретный горизонт: "ты — CEO компании через 7 лет, объясни мне — нынешнему новичку" - Проверочный вопрос → попроси задать вопрос уровня "экзамен на работу в Тинькофф" вместо стандартного


📋

Шаблон промпта

Я хочу разобраться в {тема/концепция}. 
Работай в режиме [{выбери: подсказки / контраст / будущий-я}].

[Если подсказки]:
— Не давай ответ сразу. Задавай наводящие вопросы по одному.
— После каждого моего ответа: отметь что верно, что нет.
— Полное объяснение — только после {число} моих попыток.
— В конце: краткий список моих пробелов.

[Если контраст]:
— Покажи правильный подход и типичную ошибку на одном примере.
— Объясни механику: почему одно работает, другое нет.
— Задай проверочный вопрос. Жди моего ответа.

[Если будущий-я]:
— Попроси меня объяснить {тема} так, как будто я объясняю 
  себе через {число} лет, когда стану экспертом.
— Когда я отвечу, укажи пробелы в моём объяснении.
— Помогай мне до тех пор, пока моё объяснение не станет точным.

Контекст: {что уже знаешь, зачем нужно, уровень понимания}

Плейсхолдеры: - {тема/концепция} — то, что хочешь освоить: "юнит-экономика", "договор оферты", "визуальная иерархия в дизайне" - {выбери режим} — подсказки (нет ответа, есть наводки), контраст (правильное vs неправильное), будущий-я (ты объясняешь, AI критикует) - {число попыток} — обычно 2-3 достаточно - {контекст} — вкратце: откуда, зачем, что уже знаешь


🚀 Быстрый старт — вставь в чат:

Вот шаблон для глубокого изучения через AI. Адаптируй под мою задачу: 
[твоя тема и цель].
Задавай вопросы, чтобы выбрать режим и заполнить поля.

[вставить шаблон выше]

LLM спросит какой режим тебе нужен и что уже знаешь — потому что от этого зависит какие подсказки давать и насколько жёстко требовать объяснений. Она возьмёт паттерн из шаблона и настроит под твою задачу.


⚠️

Ограничения

⚠️ Не для поиска информации: Режимы работают только когда цель — понять и освоить, а не быстро узнать факт. Если нужно "какой телефон купить" или "когда дедлайн" — трение только мешает.

⚠️ Требует дисциплины от пользователя: Легко сломать режим фразой "ну ладно, просто скажи ответ". Эффект появляется только если держишь правила диалога до конца.

⚠️ Режим "будущего себя" нагружает сильнее остальных: Исследование показало: он даёт лучший баланс между ощущением понимания и реальным, но требует больше когнитивных усилий. Если времени мало или задача несрочная — начинай с подсказок.

⚠️ Для субъективных навыков — слабее: Чем точнее предметная область (право, финансы, программирование), тем лучше работает контраст. Для творческих задач сложнее определить "ошибку" — контрастный режим теряет силу.


🔍

Как исследовали

Исследователи из Кипрского университета сначала поговорили с 16 студентами поколения Z — узнали как те используют AI в учёбе и чего им не хватает. На основе интервью собрали 4 требования к системе и построили Deep3 — веб-приложение с тремя режимами взаимодействия плюс стандартный ChatGPT-подобный режим в качестве контрольной группы.

Затем 85 студентов из европейских университетов выполняли два задания: объяснить академическую концепцию до понятного уровня и решить логическую головоломку. Участников случайно распределяли по четырём условиям — три экспериментальных режима и базовый (привычный AI). После каждого задания измеряли два разных показателя: насколько человек чувствует что понял (субъективно) и насколько он реально понял (объективно, через тест).

Самый неожиданный результат: базовый AI дал самые высокие баллы субъективного понимания и самые низкие объективные показатели одновременно. То есть стандартный режим максимально уверил студентов, что они всё поняли — при том, что они поняли меньше всех. Guided hints (режим подсказок) дал наибольший прирост реального знания без роста раздражения. Режим "будущего себя" создал наилучшее совпадение между тем, что человек думал о своём понимании, и тем, что реально знал — ценой высокой когнитивной нагрузки.


📄

Оригинал из исследования

Исследователи не публиковали готовые промпты — Deep3 был реализован как веб-приложение со встроенной системной инструкцией. Ниже — прямые цитаты участников Phase 1, которые точно передают логику каждого режима:

Future-self: "It would be like asking a question to yourself 
but to a more professional you" (P16)

"This will be like I'm talking to myself but myself 
that knows a lot more" (P12)

Guided hints: "It's okay to take a little bit more time 
than having it be done by someone else" (P1)

"It would be nice to have an option to see the answer, 
but not from the beginning" (P3)

Contrastive: "If it shows me an answer that I know it's wrong, 
I will stay and think. This will help me stay engaged more" (P11)

"It should provide the user two or three ways 
of approaching the problem" (P12)

Контекст: Это дизайн-требования от самих студентов — они описывают что хотели бы от AI. Именно эти формулировки стали основой трёх режимов Deep3.


💡

Адаптации и экстраполяции

📌

💡 Адаптация для профессиональных переговоров

Тот же принцип "Future-Self" работает для подготовки к сложным разговорам — с клиентом, инвестором, начальником.

Представь, что я через 3 года — опытный переговорщик, который 
уже провёл 200 сделок. Я хочу объяснить себе нынешнему как 
думать о переговорах с [тип собеседника: инвестор/скептичный 
клиент/конкурент].

Попроси меня сначала самому попробовать объяснить свою текущую 
тактику. Потом укажи пробелы — что упустил будущий я.

📌

🔧 Техника: убрать "жёсткий стоп" → режим коучинга

Базовый шаблон жёстко блокирует ответ до попытки. Если убрать это условие — получаешь мягкий коучинговый режим: AI отвечает, но каждый раз задаёт проверочный вопрос.

После каждого своего объяснения задавай один вопрос, 
который проверяет понял ли я суть — не детали. 
Жди моего ответа перед следующим блоком.

Подходит когда времени мало, но хочется не просто читать, а думать.


📌

🔧 Техника: "Красная команда" как вариант контраста

Вместо "правильный vs неправильный" — попроси AI сыграть роль человека, который будет атаковать твою идею.

Я объясню свою идею. Ты выступаешь как самый скептичный 
инвестор на рынке — Евгений Гордеев из Flint Capital. 
Найди три самые слабые точки в моей логике.
Потом объясни как их усилить.

Острее, чем "покажи ошибку" — конкретная роль даёт конкретную критику.


🔗

Ресурсы

Работа: Eleftheriou E., Pallis G., Constantinides M. Confidence Without Competence in AI-Assisted Knowledge Work. CHIWORK '26, June 22–25, 2026, Linz, Austria. ACM.

Авторы: Elena Eleftheriou (University of Cyprus), George Pallis (University of Cyprus), Marios Constantinides (CYENS Centre of Excellence / University of Cyprus / University College London)

Ключевые отсылки из исследования: - Kosmyna et al. — EEG-исследование про снижение активности мозга при использовании AI - MIT Media Lab (2025) — "нейронный режим ожидания" при работе с AI - Sarkar et al. — инструмент для электронных таблиц с "провокациями" от AI - Buçinca et al. — контрастивные объяснения улучшают принятие решений


📋 Дайджест исследования

Ключевая суть

Парадокс: чем полнее и быстрее AI отвечает на вопрос — тем выше твоё ощущение понимания и тем ниже реальные знания. Это не метафора — это измеренный эффект. Три режима работы с моделью позволяют освоить концепцию по-настоящему, а не просто почувствовать, что разобрался. Каждый режим создаёт намеренное трение между тобой и готовым ответом — подсказки вместо объяснений, сравнение правильного с неправильным, объяснение концепции самому себе из будущего. Мозг работает — значит запоминает.

Принцип работы

Стандартная схема: спросил — получил красивый текст — прочитал — кажется, что понял. Мозг не напрягался. Ничего не освоил. Три режима переворачивают схему: не потребляй ответ — создавай усилиеРежим подсказок: AI задаёт наводящие вопросы по одному. Ты пробуешь ответить. Получаешь коррекцию. Полный ответ — только после нескольких попыток. — Режим контраста: AI показывает правильный и типичный ошибочный подход на одном примере с цифрами. Ты объясняешь разницу своими словами — AI проверяет. — Режим будущего себя: Ты объясняешь концепцию себе через 5-7 лет, когда стал экспертом. AI ищет пробелы в твоём объяснении и помогает их закрыть.

Почему работает

Мозг запоминает то, над чем работал, а не то, что прочитал. Исследователи называют это «замещённым мышлением»: AI думает вместо тебя, ты смотришь на результат и принимаешь чужое мышление за своё. Выходишь с красивым текстом и ощущением знания — без самого знания. Это как смотреть как тренер отжимается, и думать что сам прокачался. Все три режима работают через одно: они не дают AI думать вместо тебя. Режим будущего себя по данным исследования даёт лучший баланс — высокое реальное понимание при приемлемой нагрузке. Режим контраста особенно силён в точных областях: право, финансы, программирование — там легко показать «вот ошибка, вот почему она ломает».

Когда применять

Обучение и профессиональный рост — для освоения концепций перед встречей с инвестором или экспертом, подготовки к переговорам или собеседованию, разбора сложных тем (финансы, право, дизайн, аналитика данных), особенно когда нужно не просто знать определение, а уметь объяснить и применить. НЕ подходит: когда нужен быстрый факт — «какой дедлайн», «сколько стоит», «когда вышел закон». Трение только мешает. И слабее работает для творческих задач — там сложнее показать чёткую «ошибку» в режиме контраста.

Мини-рецепт

1. Выбери тему и режим: Запутанная концепция — режим контраста (покажет механику через ошибку). Нужно закрепить — режим подсказок (ты пробуешь, потом получаешь коррекцию). Готовишься объяснять другим — режим будущего себя (вскроет пробелы в твоей логике).

2. Создай рамку явно в промпте: Без инструкции модель вернётся к стандартному объяснению. Пиши конкретно: «Не давай полный ответ — задавай наводящие вопросы по одному» или «Покажи правильный и ошибочный подход на одном примере».

3. Держи режим до конца: Не ломай схему фразой «ну ладно, просто скажи». Эффект появляется только если ты попробуешь сам хотя бы 2-3 раза перед тем как получить полный ответ.

4. Попроси финальный разбор пробелов: Добавь в конце: «Перечисли что я понял неточно или пропустил». Это лучше любого теста — персонализировано под твои конкретные ошибки.

Примеры

[ПЛОХО] : Объясни мне юнит-экономику стартапа
[ХОРОШО] : Я хочу разобраться в юнит-экономике. Не объясняй сразу — работай в режиме подсказок. Задавай по одному наводящему вопросу. После каждого моего ответа говори: что верно, что нет и почему. Полное объяснение — только после 3 моих попыток. В конце — список пробелов в моём понимании. В первом случае получишь текст про юнит-экономику, прочитаешь, скажешь себе «ясно» и через неделю ничего не вспомнишь. Во втором — после 3 итераций у тебя будет собственное понимание с закрытыми пробелами, потому что мозг работал, а не читал.
Источник: Confidence Without Competence in AI-Assisted Knowledge Work
ArXiv ID: 2604.09444 | Сгенерировано: 2026-04-13 04:48

Проблемы LLM

ПроблемаСутьКак обойти
Полный готовый ответ создаёт иллюзию пониманияМодель отвечает быстро и полно. Ты читаешь, думаешь "понял" — и идёшь дальше. Мозг не работал. Значит, ничего не усвоил. Чем лучше ответ — тем выше ложное ощущение понимания. Работает для любой задачи где цель — освоить, а не узнать фактНе проси готовый ответ. Установи режим: подсказки ты пробуешь AI корректирует. Или: ты объясняешь своими словами AI находит пробелы. Только попытка до ответа ведёт к реальному усвоению

Методы

МетодСуть
Режим подсказок — обучение через попыткуСкажи модели: не давай ответ сразу. Пусть задаёт наводящие вопросы. Ты отвечаешь. Модель говорит где верно, где нет. Полное объяснение — только после 2-3 твоих попыток. В конце — список твоих пробелов. "Не объясняй сразу. Задавай вопросы по одному. Полный ответ — только после двух моих попыток." Работает: хочешь освоить концепцию, есть 10-15 минут. Не работает: нужен быстрый факт
Контрастный режим — правильное рядом с ошибочнымПопроси показать правильный подход и типичную ошибку — на одном примере с цифрами. Затем — проверочный вопрос без подсказки. Ты отвечаешь. Модель разбирает твой ответ. "Покажи правильный подход и типичную ошибку на одном примере. Объясни почему одно работает, другое нет. Задай проверочный вопрос. Жди моего ответа." Работает лучше всего: точные предметные области — право, финансы, код. Слабее: субъективные и творческие задачи
Режим "объясни сам" — ты учишь, AI критикуетПопроси модель не объяснять тебе, а наоборот — попросить тебя объяснить концепцию. Например, будущему себе через 5 лет. Ты объясняешь. Модель находит пробелы. Ты переформулируешь. Повтор до точного объяснения. "Не объясняй мне. Попроси меня объяснить [тему] себе через 5 лет. Найди пробелы. Помогай пока объяснение не станет точным." Этот режим сложнее остальных. Зато вскрывает пробелы в логике которые ты сам не замечал
📖 Простыми словами

Confidence Without Competence inAI-Assisted Knowledge Work

arXiv: 2604.09444

Проблема в том, что AI-ассистенты работают слишком хорошо, и это нас отупляет. Когда ты получаешь от модели мгновенный и идеально упакованный ответ, в мозгу срабатывает ловушка: ты путаешь доступность информации с собственным знанием. Это фундаментальный баг нашего восприятия — если ответ лежит перед глазами, кажется, что он уже у тебя в голове. На деле же происходит замещенное мышление: нейронка проделала всю когнитивную работу за тебя, а ты просто потребил готовый продукт, не оставив в памяти ни одного полезного нейронного союза.

Это как смотреть, как профессиональный атлет поднимает штангу, и искренне верить, что от этого растут твои бицепсы. Ты выходишь из спортзала с чувством выполненного долга, но по факту остаешься таким же слабым, как и был. В работе с AI это превращается в иллюзию компетентности: ты чувствуешь себя гением, пока чат открыт, но стоит закрыть вкладку — и ты не можешь связать двух слов по теме. Мозг просто отказывается запоминать то, над чем ему не пришлось попотеть.

Чтобы не превратиться в овощ, нужно использовать три конкретных режима, которые заставляют извилины шевелиться. Первый — Socratic Tutor, когда ты запрещаешь AI давать ответы и заставляешь его задавать наводящие вопросы. Второй — Knowledge Retrieval, где модель подкидывает только сырые факты, а выводы ты строишь сам. И третий — Co-design, когда вы перебрасываетесь идеями, как мячом, постоянно дополняя друг друга. Суть в том, чтобы превратить AI из всезнающего оракула в вредного тренера, который не дает тебе расслабиться.

Хотя исследование проводили на офисных задачах и обучении, этот принцип — база для любого интеллектуального труда. Будь то написание кода, разбор юнит-экономики или подготовка к переговорам: если ты просто копипастишь ответ, ты проиграл в долгосроке. Настоящий профи использует AI не как костыль, а как тренажер для ума. Нужно сознательно усложнять себе жизнь, вставляя палки в колеса автоматизации, иначе через год ты обнаружишь, что без подсказки чат-бота не можешь даже составить план на день.

Короче: хватит жрать готовый контент, начни заставлять AI работать на твое развитие, а не вместо него. Уверенность без компетенции — это прямой путь к профнепригодности, когда ты кажешься умным, но по факту не стоишь ничего. Либо ты контролируешь процесс и заставляешь мозг напрягаться, либо AI окончательно атрофирует твою способность думать. Выбор за тобой, но помни: на реальной встрече с инвестором или боссом ChatGPT за тебя не ответит.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с