3,583 papers
arXiv:2602.18807 72 21 фев. 2026 г. FREE

Принцип заякоренного фидбека: почему чат-режим с AI вредит результату, а структурированная проверка — нет

КЛЮЧЕВАЯ СУТЬ
Парадокс: чем больше студент чатился с AI, тем хуже сдавал экзамены — даже после поправки на исходный уровень подготовки. Метод заякоренного фидбека позволяет учиться с AI и не потерять способность думать самостоятельно: ты приносишь свою работу, AI указывает на конкретные слабые места, ты сам разбираешься. Ключевой запрет в промпте: «не переписывай — только процитируй фрагмент и объясни что не держится». Без него AI становится генератором готовых ответов. С ним — строгим критиком. Кто думает — ты, AI только показывает куда смотреть.
Адаптировать под запрос

TL;DR

Чем больше студент чатился с AI-ассистентом, тем хуже сдавал экзамены — даже после поправки на изначальный уровень подготовки. При этом студенты, которые прикрепляли свою работу и получали структурированный фидбек по конкретным фрагментам, такого эффекта не показали. Разница не в том, использовал ли человек AI, а в том, как именно: открытый чат или проверка своей работы.

Проблема — в режиме поиска ответа. Когда человек не понимает что-то, он инстинктивно идёт к AI с вопросом "объясни" или "как решить". AI отвечает — человек читает, кивает, чувствует что понял. Но это понимание чужого объяснения, а не своего рассуждения. На экзамене, без подсказок, оказывается что думать самостоятельно не научился. Чем чаще человек так делал, тем сильнее эффект.

Работает другое: привязать запрос к своей работе. Не "как доказать теорему" — а "вот моё доказательство, покажи где логическая ошибка". AI указывает на конкретный фрагмент, человек сам разбирается почему это ошибка. Мышление остаётся у человека, AI играет роль критика, а не источника готовых ответов.


📌

Схема принципа

Два режима использования AI — с противоположным эффектом:

РЕЖИМ 1 — Чат-поиск ответа:
Вопрос → AI объясняет → Человек читает → Иллюзия понимания
Результат: хорошо для выполнения задания, плохо для самостоятельной работы

РЕЖИМ 2 — Заякоренный фидбек:
Своя работа → AI указывает на конкретную проблему → Человек исправляет
Результат: нейтральное или положительное влияние на самостоятельную работу

Разница в том, кто думает: в режиме 1 думает AI, в режиме 2 думает человек с помощью AI.


🚀

Пример применения

Задача: Ты пишешь питч-презентацию для инвесторов. Хочешь улучшить логику аргументации.

❌ Чат-режим (вредный):

Напиши мне убедительный питч для стартапа 
в сфере EdTech. Рынок 500 млрд рублей, 
команда 5 человек, MVP готов.

AI напишет красивый текст. Ты отправишь инвесторам. На встрече, когда начнут задавать вопросы, окажется, что ты не думал о логике сам — ты прочитал чужую.


✅ Заякоренный фидбек (рабочий):

Вот мой питч для инвесторов:

[вставить свой текст целиком]

Не переписывай его. Твоя задача:
1. Найди места, где логика рвётся или аргумент 
   повисает в воздухе — процитируй конкретный 
   фрагмент и объясни что именно не держится.
2. Укажи где я делаю заявление без доказательства.
3. Задай мне 3 вопроса, которые задаст скептичный 
   инвестор после прочтения — на которые 
   в тексте нет ответа.

Не предлагай улучшенные формулировки.

Результат: AI вернёт цитаты из твоего текста с объяснением конкретных слабостей. Ты будешь сам думать над каждой — и разберёшься по-настоящему. Финальный питч останется твоим мышлением, AI выступит как строгий редактор.


🧠

Почему это работает

Слабость LLM-чата — он слишком хорош в объяснениях. Когда AI выдаёт стройный ответ, у человека возникает ощущение понимания. Но понимание — это не воспоминание об объяснении, это способность воспроизвести логику самому. Чат-формат создаёт первое, не второе.

Что AI умеет хорошо — находить конкретное место в конкретном тексте и точечно сказать "вот здесь не сходится". Это и есть режим критика. AI не думает вместо тебя — он указывает на место, где тебе нужно подумать.

Рычаги управления в заякоренном промпте:

  • "Не переписывай" — главный ограничитель. Убери его и AI начнёт генерировать, а не критиковать
  • "Процитируй конкретный фрагмент" — заставляет AI привязаться к твоей работе, не уходить в абстракции
  • "Задай вопросы, а не давай советы" — переводит тебя в активный режим обработки, не пассивный
  • Запрет на улучшенные формулировки — блокирует соблазн скопировать вместо того чтобы понять

📋

Шаблон промпта

Вот моя работа:

[{вставить текст, решение, аргумент, план}]

Не переписывай и не улучшай.

Найди:
1. Конкретные места где логика рвётся — 
   процитируй фрагмент, объясни что не держится
2. Заявления без обоснования — где я говорю 
   что-то как факт, но не доказываю
3. {дополнительный критерий под задачу — 
   например: пробелы в аргументации / 
   несоответствия / слабые места}

В конце задай мне {число} вопросов, 
на которые в тексте нет ответа.

Не предлагай готовых формулировок.

Что подставлять: - {вставить текст} — любая твоя работа: эссе, питч, план, аргумент в споре, резюме, стратегия - {дополнительный критерий} — зависит от задачи: для кода "где логика может сломаться", для переговоров "где позиция слабая" - {число} вопросов — 3-5 для обычных задач, больше для сложных


🚀 Быстрый старт — вставь в чат:

Я хочу использовать принцип заякоренного фидбека: 
ты критикуешь мою работу, не переписываешь её. 
Адаптируй этот шаблон под мою задачу и задай 
уточняющие вопросы:

[вставить шаблон выше]

LLM спросит о чём твоя работа и что именно ты хочешь проверить — потому что без этого нельзя настроить критерии фидбека. Она возьмёт структуру "цитата + объяснение + вопросы без ответа" и адаптирует под твою задачу.


🧠

Почему это работает (механика)

Исследование поймало каузальный механизм: чат-режим частично опосредует связь между низкой уверенностью в себе и плохим результатом на экзамене. То есть паттерн такой: неуверенный студент → идёт в чат за ответами → ещё хуже сдаёт экзамен.

Это не значит, что AI сделал человека хуже. Скорее всего, человек с низкой уверенностью в себе склонен искать готовые ответы — и AI-чат идеально это обеспечивает, закрепляя паттерн зависимости вместо развития мышления.

Структурированный фидбек разрывает этот цикл: он технически не может дать прямой ответ — только указать на проблему в конкретном месте твоей работы. Человек вынужден думать сам.

Для пользователя ChatGPT это переводится в простое правило: приноси своё — не проси чужое.


⚠️

Ограничения

⚠️ Эффект — не приговор: Связь статистическая, не причинно-следственная. Возможно, в чат шли изначально более слабые студенты — и дело в отборе, а не в самом чате.

⚠️ Контекст — обучение: Исследование про усвоение материала. В рабочих задачах (написать письмо, разобрать данные, составить план) чат-режим может работать хорошо — там цель другая.

⚠️ Поведение важнее формата: Среди тех, кто пользовался чатом "по-хорошему" (без попыток выбить прямой ответ), негативного эффекта не было. Проблема не в чате как таковом — в стратегии поиска ответа вместо понимания.


🔍

Как исследовали

148 студентов курса дискретной математики в Carnegie Mellon University получили доступ к GPTutor — системе с двумя компонентами: обычным чатом и инструментом проверки доказательств. Хитрость дизайна: половину студентов пустили раньше, половину позже — стагрированный доступ. Это позволило сравнить группы в период, когда одни имели доступ, а другие нет.

Результат по домашним заданиям оказался позитивным — те, кто имел доступ раньше, делали домашние лучше. Но на экзаменах разницы не было. Когда команда копнула глубже и посмотрела кто именно и как использовал оба инструмента, картина стала интереснее: частое использование чата предсказывало более низкие баллы на следующем экзамене — даже после поправки на исходный уровень.

Самое неожиданное: AI-чат в исследовании был настроен не давать прямых ответов — использовал Сократовский метод, подсказки, наводящие вопросы. Но студенты всё равно показывали worse outcomes. Значит дело не в том, что AI давал готовые решения — а в самой стратегии поиска ответа: студент, который идёт в чат за ответом, думает иначе, чем тот, кто идёт за проверкой своей работы.


📌

Адаптации

🔧 Техника: Принудительный Сократ → ты не получишь ответ, пока не попробуешь сам

Если ты хочешь разобраться в теме, а не просто получить объяснение — заблокируй AI от прямых ответов так же, как это делал GPTutor:

Я хочу разобраться в {теме}. 

Правила для тебя:
- Не объясняй мне концепцию напрямую
- Задавай вопросы, которые заставят меня 
  прийти к пониманию самостоятельно
- Если я даю неверный ответ — не поправляй, 
  а спроси что-то, что заставит меня усомниться

Начни с первого вопроса.

Это имитирует структурированный режим из исследования: AI не делает работу, он заставляет тебя думать.


🔧 Техника: Двухэтапная работа над задачей

Принцип из исследования можно формализовать как правило для любой сложной задачи:

ЭТАП 1 — Делаю сам:
Записать свой вариант решения/текста/аргумента

ЭТАП 2 — Заякоренный фидбек:
Принести AI свою работу + запрос "найди проблемы, 
не давай решения"

Это работает для: разбора сложных текстов, написания аргументов, планирования стратегии, подготовки к переговорам.


🔗

Ресурсы

"Chat-Based Support Alone May Not Be Enough: Comparing Conversational and Embedded LLM Feedback for Mathematical Proof Learning"

Авторы: Eason Chen, Sophia Judicke, Kayla Beigh и др. — Carnegie Mellon University; Jionghao Lin — The University of Hong Kong

Ключевые отсылки в работе: теория генеративной обработки информации, продуктивная борьба (productive struggle) в обучении, самоэффективность по Бандуре


📋 Дайджест исследования

Ключевая суть

Парадокс: чем больше студент чатился с AI, тем хуже сдавал экзамены — даже после поправки на исходный уровень подготовки. Метод заякоренного фидбека позволяет учиться с AI и не потерять способность думать самостоятельно: ты приносишь свою работу, AI указывает на конкретные слабые места, ты сам разбираешься. Ключевой запрет в промпте: «не переписывай — только процитируй фрагмент и объясни что не держится». Без него AI становится генератором готовых ответов. С ним — строгим критиком. Кто думает — ты, AI только показывает куда смотреть.

Принцип работы

Два режима — противоположные результаты. Режим 1 — чат-поиск: вопрос → AI объясняет → ты читаешь → кажется что понял. На экзамене выясняется: ты помнишь чужое объяснение, а не своё рассуждение. Думать самому так и не научился. Режим 2 — заякоренный фидбек: своя работа → AI указывает на конкретную ошибку → ты сам разбираешься почему. Разница в том кто думает: в режиме 1 думает AI, в режиме 2 думаешь ты — AI только показывает место где застрял.

Почему работает

AI слишком хорошо объясняет — в этом и проблема. Слышишь стройный ответ, возникает ощущение понимания. Но понимание — это не воспоминание об объяснении. Это способность самому воспроизвести логику. Чат создаёт первое, а не второе. Заякоренный фидбек технически не может дать прямой ответ — только указать на место в твоей работе. Человек вынужден думать сам. Исследование нашло каузальный механизм: неуверенный в себе человек идёт в чат за ответами — и ещё хуже справляется самостоятельно. AI-чат идеально обслуживает зависимость от готовых ответов. Заякоренный фидбек этот цикл разрывает — потому что структурно не может дать то что человек ищет.

Когда применять

Любое обучение и развитие навыков — математика, программирование, написание текстов, аргументация, стратегическое мышление. Особенно когда важно уметь воспроизвести логику самому, а не просто получить готовый результат. НЕ подходит: рабочие задачи где цель — выход, а не обучение (написать письмо, разобрать таблицу, составить список). Там чат-режим работает нормально — там другая цель.

Мини-рецепт

1. Сделай своё: напиши аргумент, реши задачу, набросай план — любую свою работу. Даже черновую. Главное — твоё мышление на бумаге.
2. Вставь с запретом: добавь в начало промпта «не переписывай и не улучшай». Это главный ограничитель — без него AI начнёт генерировать вместо того чтобы критиковать.
3. Попроси цитаты: «найди места где логика рвётся — процитируй конкретный фрагмент и объясни что не держится». Цитата привязывает AI к твоей работе, не даёт уходить в абстракции.
4. Добавь вопросы без ответа: «задай 3 вопроса на которые в тексте нет ответа». Это переводит тебя в активный режим — ты думаешь, а не читаешь.
5. Исправляй сам: не проси «дай правильный вариант». Разберись с каждым замечанием самостоятельно — именно здесь происходит настоящее обучение.

Примеры

[ПЛОХО] : Объясни мне как правильно аргументировать позицию. Никак не получается убедительно.
[ХОРОШО] : Вот мой аргумент почему мы должны сменить подрядчика: [вставить свой текст] Не переписывай. Найди: 1. Конкретные места где логика рвётся — процитируй фрагмент, объясни что не держится 2. Утверждения без доказательства — где я говорю что-то как факт, но не обосновываю 3. Слабые места которые использует оппонент против меня Задай мне 3 вопроса на которые в тексте нет ответа. Не предлагай готовых формулировок.
Источник: Chat-Based Support Alone May Not Be Enough: Comparing Conversational and Embedded LLM Feedback for Mathematical Proof Learning
ArXiv ID: 2602.18807 | Сгенерировано: 2026-02-24 05:30

Проблемы LLM

ПроблемаСутьКак обойти
Запрос объяснения создаёт иллюзию пониманияПишешь "объясни" или "как решить". AI выдаёт стройный ответ. Читаешь — кажется, всё понял. Но понял ты чужое рассуждение. Своего — не было. Когда нужно воспроизвести логику самому — не получается. Работает для любой задачи где важен результат твоего мышления: питч, аргумент, стратегия, код, планВместо "объясни X" приноси свою работу. Пиши "вот моё решение — найди где именно ошибка". AI указывает на конкретный фрагмент. Ты сам разбираешься почему

Методы

МетодСуть
Критик вместо автора — режим заякоренного отзываЧто делать: Вставь свою работу целиком. Запрети переписывать. Попроси найти конкретные проблемные места с цитатой. Попроси задать вопросы — не давать советы. Синтаксис: Вот моя работа: [текст]. Не переписывай. Найди: 1) конкретные места где логика рвётся — процитируй фрагмент, объясни что не держится. 2) заявления без доказательства. Задай мне {N} вопросов на которые в тексте нет ответа. Не предлагай готовых формулировок. Почему работает: AI не может дать прямой ответ — только указать на место в твоём тексте. Ты вынужден думать сам. Мышление остаётся у тебя. Ключевые ограничители: "не переписывай" — главный. "процитируй фрагмент" — привязывает к твоей работе. "задай вопросы" — переводит в активный режим. Когда не работает: задачи где нужен готовый результат, а не развитие мышления (написать письмо, разобрать данные)
📖 Простыми словами

Chat-Based Support Alone May Not Be Enough: Comparing Conversational and EmbeddedLLMFeedback for Mathematical Proof Learning

arXiv: 2602.18807

Проблема не в том, что AI тупой, а в том, что он слишком услужливый. Когда ты учишь математику или логику через обычный чат, мозг переходит в режим пассивного потребления. Нейронка выдает стройный, логичный ответ, и тебе кажется, что ты всё понял. На самом деле ты просто узнал знакомые слова, но не простроил нейронные связи в своей голове. Это иллюзия компетентности: ты путаешь чужое качественное объяснение со своим собственным навыком, и на экзамене этот карточный домик рушится.

Это как смотреть видео, где профессиональный повар виртуозно шинкует лук. Пока смотришь — всё кажется элементарным, но стоит взять нож в руки, и пальцы в опасности. Формально ты знаешь, как это делать, но твои мышцы не в курсе. Обычный чат с LLM — это бесконечный кулинарный ролик, который создает ощущение мастерства, пока ты сидишь на диване. В итоге, чем больше ты «смотришь», тем меньше практикуешься сам, и результаты на тестах летят в трубу.

Исследование четко разделяет два метода: свободный чат и контекстный фидбек. В первом случае ты просто переписываешься с ботом, и это путь к деградации. Во втором — ты прикрепляешь свой черновик и просишь AI разобрать конкретные косяки в твоей логике. Это работает, потому что фокус смещается с «расскажи мне, как надо» на «проверь, где я лажанул». Ты остаешься в позиции автора, а AI работает как строгий редактор, а не как лектор-всезнайка.

Хотя ученые мучили студентов на математических доказательствах, принцип универсален. Это касается написания кода, подготовки питчей для инвесторов или изучения языков. Если ты просишь ChatGPT «напиши за меня» или «объясни тему», ты тупеешь. Если ты приносишь свой кривой набросок и требуешь критики конкретных фрагментов, ты растешь. Метод встраивания (Embedded Feedback) заставляет мозг работать, а не просто кивать в ответ на умные фразы бота.

Короче: чат-боты в их классическом виде — это ловушка для ленивого мозга. Если хочешь реально чему-то научиться, забудь про кнопку «объясни мне на пальцах». Используй AI только для проверки своих гипотез и поиска дыр в собственной логике. Либо ты используешь нейронку как тренажер для ума, либо она превращает тебя в овоща, который не может связать двух слов без подсказки. Кто продолжит просто «чатиться», тот гарантированно проиграет тем, кто заставляет AI работать над своими ошибками.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с