TL;DR
Чем больше студент чатился с AI-ассистентом, тем хуже сдавал экзамены — даже после поправки на изначальный уровень подготовки. При этом студенты, которые прикрепляли свою работу и получали структурированный фидбек по конкретным фрагментам, такого эффекта не показали. Разница не в том, использовал ли человек AI, а в том, как именно: открытый чат или проверка своей работы.
Проблема — в режиме поиска ответа. Когда человек не понимает что-то, он инстинктивно идёт к AI с вопросом "объясни" или "как решить". AI отвечает — человек читает, кивает, чувствует что понял. Но это понимание чужого объяснения, а не своего рассуждения. На экзамене, без подсказок, оказывается что думать самостоятельно не научился. Чем чаще человек так делал, тем сильнее эффект.
Работает другое: привязать запрос к своей работе. Не "как доказать теорему" — а "вот моё доказательство, покажи где логическая ошибка". AI указывает на конкретный фрагмент, человек сам разбирается почему это ошибка. Мышление остаётся у человека, AI играет роль критика, а не источника готовых ответов.
Схема принципа
Два режима использования AI — с противоположным эффектом:
РЕЖИМ 1 — Чат-поиск ответа:
Вопрос → AI объясняет → Человек читает → Иллюзия понимания
Результат: хорошо для выполнения задания, плохо для самостоятельной работы
РЕЖИМ 2 — Заякоренный фидбек:
Своя работа → AI указывает на конкретную проблему → Человек исправляет
Результат: нейтральное или положительное влияние на самостоятельную работу
Разница в том, кто думает: в режиме 1 думает AI, в режиме 2 думает человек с помощью AI.
Пример применения
Задача: Ты пишешь питч-презентацию для инвесторов. Хочешь улучшить логику аргументации.
❌ Чат-режим (вредный):
Напиши мне убедительный питч для стартапа
в сфере EdTech. Рынок 500 млрд рублей,
команда 5 человек, MVP готов.
AI напишет красивый текст. Ты отправишь инвесторам. На встрече, когда начнут задавать вопросы, окажется, что ты не думал о логике сам — ты прочитал чужую.
✅ Заякоренный фидбек (рабочий):
Вот мой питч для инвесторов:
[вставить свой текст целиком]
Не переписывай его. Твоя задача:
1. Найди места, где логика рвётся или аргумент
повисает в воздухе — процитируй конкретный
фрагмент и объясни что именно не держится.
2. Укажи где я делаю заявление без доказательства.
3. Задай мне 3 вопроса, которые задаст скептичный
инвестор после прочтения — на которые
в тексте нет ответа.
Не предлагай улучшенные формулировки.
Результат: AI вернёт цитаты из твоего текста с объяснением конкретных слабостей. Ты будешь сам думать над каждой — и разберёшься по-настоящему. Финальный питч останется твоим мышлением, AI выступит как строгий редактор.
Почему это работает
Слабость LLM-чата — он слишком хорош в объяснениях. Когда AI выдаёт стройный ответ, у человека возникает ощущение понимания. Но понимание — это не воспоминание об объяснении, это способность воспроизвести логику самому. Чат-формат создаёт первое, не второе.
Что AI умеет хорошо — находить конкретное место в конкретном тексте и точечно сказать "вот здесь не сходится". Это и есть режим критика. AI не думает вместо тебя — он указывает на место, где тебе нужно подумать.
Рычаги управления в заякоренном промпте:
- "Не переписывай" — главный ограничитель. Убери его и AI начнёт генерировать, а не критиковать
- "Процитируй конкретный фрагмент" — заставляет AI привязаться к твоей работе, не уходить в абстракции
- "Задай вопросы, а не давай советы" — переводит тебя в активный режим обработки, не пассивный
- Запрет на улучшенные формулировки — блокирует соблазн скопировать вместо того чтобы понять
Шаблон промпта
Вот моя работа:
[{вставить текст, решение, аргумент, план}]
Не переписывай и не улучшай.
Найди:
1. Конкретные места где логика рвётся —
процитируй фрагмент, объясни что не держится
2. Заявления без обоснования — где я говорю
что-то как факт, но не доказываю
3. {дополнительный критерий под задачу —
например: пробелы в аргументации /
несоответствия / слабые места}
В конце задай мне {число} вопросов,
на которые в тексте нет ответа.
Не предлагай готовых формулировок.
Что подставлять:
- {вставить текст} — любая твоя работа: эссе, питч, план, аргумент в споре, резюме, стратегия
- {дополнительный критерий} — зависит от задачи: для кода "где логика может сломаться", для переговоров "где позиция слабая"
- {число} вопросов — 3-5 для обычных задач, больше для сложных
🚀 Быстрый старт — вставь в чат:
Я хочу использовать принцип заякоренного фидбека:
ты критикуешь мою работу, не переписываешь её.
Адаптируй этот шаблон под мою задачу и задай
уточняющие вопросы:
[вставить шаблон выше]
LLM спросит о чём твоя работа и что именно ты хочешь проверить — потому что без этого нельзя настроить критерии фидбека. Она возьмёт структуру "цитата + объяснение + вопросы без ответа" и адаптирует под твою задачу.
Почему это работает (механика)
Исследование поймало каузальный механизм: чат-режим частично опосредует связь между низкой уверенностью в себе и плохим результатом на экзамене. То есть паттерн такой: неуверенный студент → идёт в чат за ответами → ещё хуже сдаёт экзамен.
Это не значит, что AI сделал человека хуже. Скорее всего, человек с низкой уверенностью в себе склонен искать готовые ответы — и AI-чат идеально это обеспечивает, закрепляя паттерн зависимости вместо развития мышления.
Структурированный фидбек разрывает этот цикл: он технически не может дать прямой ответ — только указать на проблему в конкретном месте твоей работы. Человек вынужден думать сам.
Для пользователя ChatGPT это переводится в простое правило: приноси своё — не проси чужое.
Ограничения
⚠️ Эффект — не приговор: Связь статистическая, не причинно-следственная. Возможно, в чат шли изначально более слабые студенты — и дело в отборе, а не в самом чате.
⚠️ Контекст — обучение: Исследование про усвоение материала. В рабочих задачах (написать письмо, разобрать данные, составить план) чат-режим может работать хорошо — там цель другая.
⚠️ Поведение важнее формата: Среди тех, кто пользовался чатом "по-хорошему" (без попыток выбить прямой ответ), негативного эффекта не было. Проблема не в чате как таковом — в стратегии поиска ответа вместо понимания.
Как исследовали
148 студентов курса дискретной математики в Carnegie Mellon University получили доступ к GPTutor — системе с двумя компонентами: обычным чатом и инструментом проверки доказательств. Хитрость дизайна: половину студентов пустили раньше, половину позже — стагрированный доступ. Это позволило сравнить группы в период, когда одни имели доступ, а другие нет.
Результат по домашним заданиям оказался позитивным — те, кто имел доступ раньше, делали домашние лучше. Но на экзаменах разницы не было. Когда команда копнула глубже и посмотрела кто именно и как использовал оба инструмента, картина стала интереснее: частое использование чата предсказывало более низкие баллы на следующем экзамене — даже после поправки на исходный уровень.
Самое неожиданное: AI-чат в исследовании был настроен не давать прямых ответов — использовал Сократовский метод, подсказки, наводящие вопросы. Но студенты всё равно показывали worse outcomes. Значит дело не в том, что AI давал готовые решения — а в самой стратегии поиска ответа: студент, который идёт в чат за ответом, думает иначе, чем тот, кто идёт за проверкой своей работы.
Адаптации
🔧 Техника: Принудительный Сократ → ты не получишь ответ, пока не попробуешь сам
Если ты хочешь разобраться в теме, а не просто получить объяснение — заблокируй AI от прямых ответов так же, как это делал GPTutor:
Я хочу разобраться в {теме}.
Правила для тебя:
- Не объясняй мне концепцию напрямую
- Задавай вопросы, которые заставят меня
прийти к пониманию самостоятельно
- Если я даю неверный ответ — не поправляй,
а спроси что-то, что заставит меня усомниться
Начни с первого вопроса.
Это имитирует структурированный режим из исследования: AI не делает работу, он заставляет тебя думать.
🔧 Техника: Двухэтапная работа над задачей
Принцип из исследования можно формализовать как правило для любой сложной задачи:
ЭТАП 1 — Делаю сам:
Записать свой вариант решения/текста/аргумента
ЭТАП 2 — Заякоренный фидбек:
Принести AI свою работу + запрос "найди проблемы,
не давай решения"
Это работает для: разбора сложных текстов, написания аргументов, планирования стратегии, подготовки к переговорам.
Ресурсы
"Chat-Based Support Alone May Not Be Enough: Comparing Conversational and Embedded LLM Feedback for Mathematical Proof Learning"
Авторы: Eason Chen, Sophia Judicke, Kayla Beigh и др. — Carnegie Mellon University; Jionghao Lin — The University of Hong Kong
Ключевые отсылки в работе: теория генеративной обработки информации, продуктивная борьба (productive struggle) в обучении, самоэффективность по Бандуре
