TL;DR
Когда вы пишете с одним AI — он тянет вас к «среднему по больнице»: ваши идеи становятся похожи на идеи всех остальных пользователей этого же AI. Это не метафора — исследование зафиксировало эффект статистически. Решение простое: использовать два разных AI одновременно — Claude и ChatGPT дают качество такое же, но разнообразие идей восстанавливается до уровня «без AI».
Второй ключевой инсайт — про обучение. Комбинация «тьютор + неправильные сверстники» даёт лучший результат, чем просто тьютор или просто верный ответ. Когда рядом есть кто-то, кто делает понятные ошибки, и вы анализируете почему он неправ — вы запоминаете глубже. Один AI-тьютор не даёт этого эффекта, потому что всегда говорит правильно.
Исследование проверяет два сценария: сходящиеся задачи (математика с одним верным ответом) и расходящиеся задачи (написание текстов, генерация идей). В обоих случаях мультиагентная конфигурация выигрывает у одиночного AI — по разным причинам и через разные механики.
Схема метода
Два независимых применения — для разных задач:
Сценарий А: Обучение и решение задач
ШАГ 1: Вы → даёте свой ответ на задачу
ШАГ 2: Пир-агент А → даёт ответ с арифметической ошибкой
ШАГ 3: Пир-агент Б → даёт ответ с концептуальной ошибкой
ШАГ 4: Тьютор-агент → обсуждает, задаёт вопросы (не даёт ответ напрямую)
ШАГ 5: Вы → анализируете ошибки сверстников, корректируете понимание
→ Всё в одном диалоге, AI играет все роли
Сценарий Б: Написание текстов и генерация идей
ШАГ 1: Claude → пишет/брейнштормит по теме [отдельный чат]
ШАГ 2: ChatGPT → пишет/брейнштормит по той же теме [отдельный чат]
ШАГ 3: Вы → сравниваете, берёте лучшее из обоих
→ Два параллельных диалога в разных интерфейсах
Пример применения
Задача: Нина запускает сервис подписки на домашнюю еду в Екатеринбурге. Ей нужно написать сильный питч для инвесторов — но она боится, что идеи будут «как у всех».
Промпт (для сценария А — обучение механике питча):
Я учусь писать инвестиционные питчи. Выступи в трёх ролях одновременно.
Моя идея: сервис доставки домашней еды от местных хозяек в Екатеринбурге.
Роль 1 — Маша (пир с концептуальной ошибкой):
Дай совет по питчу, который звучит логично,
но строится на неверном понимании того,
что инвесторы ищут на ранней стадии.
Роль 2 — Дима (пир с фактической ошибкой):
Дай совет с правильным пониманием концепции,
но с неверными данными о рынке или неправильной арифметикой.
Роль 3 — Наставник Борис:
Не давай прямого ответа. Задай мне 2 вопроса,
которые помогут мне самой найти ошибки Маши и Димы.
После того как я отвечу — поправь моё понимание,
если я что-то упустила.
Для сценария Б (разнообразие идей) — два параллельных запроса:
В Claude:
Придумай 5 неочевидных ценностных предложений для питча сервиса
доставки домашней еды от местных хозяек.
Аудитория — частные инвесторы Екатеринбурга.
Избегай очевидного: качество, домашнее, натуральное.
В ChatGPT — дословно тот же запрос.
Результат: - В сценарии А: модель покажет две «неправильные» версии совета, потом вопросы тьютора. Вы ищете ошибки сами — и именно это создаёт понимание. После вашего ответа — разбор. - В сценарии Б: Claude и ChatGPT дадут заметно разные идеи. Не потому что один лучше — у них разные «паттерны усреднения» по обучающим данным. Объединив оба списка, вы получите шире.
Почему это работает
Один AI всегда отвечает правильно — и в этом его слабость для обучения. Когда вам сразу дают верный ответ, мозг не активирует то, что уже знает, не замечает пробелы. Психологи называют это «продуктивным провалом» — когда вы сначала ошибаетесь или видите чужую ошибку, понимание становится глубже. LLM, настроенный всегда отвечать правильно, убирает именно тот момент напряжения, который и создаёт запоминание.
Один AI лепит из всех одинаковые тексты. Каждая модель обучена на определённом корпусе данных и усредняет паттерны. Если тысячи людей просят ChatGPT написать питч — все получают схожие структуры и аргументы. Это не значит плохо — значит предсказуемо. Claude усредняет иначе. Когда вы берёте оба ответа — диапазон идей шире, потому что два «центра тяжести» сдвинуты в разные стороны.
Наблюдение чужих ошибок — отдельный механизм обучения. Когда вы видите, как «Маша» применяет формулу правильно, но неверно понимает задачу — вы думаете: «Стоп, а я не делаю то же самое?» Это активирует самопроверку, которую просто правильный ответ не запускает. Исследователи специально разделили ошибки на два типа: концептуальные (неверное понимание) и арифметические (верное понимание, неверный расчёт) — потому что каждый тип учит разному.
Рычаги управления: - Тип ошибки пира → меняй под область: для написания текста — «верная структура, слабые аргументы» vs «сильные аргументы, слабая структура» - Стиль тьютора → «задавай только вопросы, не давай ответов» vs «давай подсказки по шагам» — разная глубина самостоятельной работы - Число моделей → для генерации идей: больше двух не проверялось, но принцип тот же
Шаблон промпта
Шаблон А — Тьютор + Пиры с ошибками (для обучения)
Я изучаю {тему}. Выступи в трёх ролях одновременно.
Моя задача / вопрос: {опиши задачу или вопрос}
Мой текущий ответ: {напиши свой ответ или "ещё не думал"}
Роль 1 — {имя_пира_А} (разбирается в концепции,
но делает ошибки в расчётах/деталях):
Дай свой ответ на задачу с этим профилем ошибок.
Роль 2 — {имя_пира_Б} (правильно считает/выполняет шаги,
но неверно понимает суть/концепцию):
Дай свой ответ на задачу с этим профилем ошибок.
Роль 3 — {имя_тьютора} (наставник, не даёт ответов напрямую):
Задай мне 2-3 вопроса, которые помогут найти ошибки
в ответах {имя_пира_А} и {имя_пира_Б}.
Жди моего ответа. После — дай разбор:
где я был(а) прав(а), что упустил(а).
Что подставлять:
- {тему} — что изучаете: финансы, программирование, переговоры, маркетинг
- {задачу} — конкретный вопрос или кейс для разбора
- {имена} — любые имена, придают агентам чёткость роли
- Описание ошибок можно адаптировать под область: для бизнеса — «верная логика, неверные допущения о рынке» vs «верные данные, неверный вывод»
Шаблон Б — Дуэт моделей (для текстов и идей)
[Запускается параллельно в Claude и ChatGPT — один и тот же промпт]
Мне нужно {что создать}: {кратко опиши задачу}.
Аудитория: {кто читатель / слушатель}
Контекст: {ключевые детали ситуации}
Цель: {что должен сделать читатель после знакомства с текстом}
Ограничения: {что точно НЕ нужно включать или какой подход НЕ работает}
Дай {5 вариантов / первый черновик / список идей}.
Не объясняй выбор — сразу результат.
Как работать с двумя ответами: 1. Скопируй оба ответа в третий чат (любой AI) 2. Попроси: «Вот два варианта. Синтезируй лучшее из обоих, убери повторы»
🚀 Быстрый старт — вставь в чат:
Вот шаблон обучения через пиров с ошибками.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить все поля.
[вставить шаблон А выше]
LLM спросит тему, конкретную задачу и твой текущий уровень понимания — потому что без этого он не сможет настроить правдоподобные ошибки под нужный уровень сложности. Дальше скопируй готовый промпт и запускай сессию.
Ограничения
⚠️ Пиры без тьютора слабее: Одни только «ошибающиеся сверстники» без наставника дают прирост, но намного меньший. Не убирай роль тьютора из шаблона — именно связка работает сильно.
⚠️ Уверенность ≠ результат: Участники в группе «только пиры» чувствовали себя увереннее, но объективно знали меньше, чем в группе с тьютором. Хорошо себя чувствовать после урока — не гарантия, что усвоил.
⚠️ Для дивергентных задач — два AI, не один: Если просить Claude сгенерировать «разные перспективы» в одном чате — диапазон всё равно будет уже, чем при реальном использовании двух моделей. Однородность — свойство одной модели, не число запросов к ней.
⚠️ Простые задачи — не для этого метода: Для быстрого справочного вопроса («в чём разница между X и Y?») мультиагентная схема избыточна. Метод окупается на сложных, многошаговых задачах с неочевидным ответом.
⚠️ Эффект самоуверенности пиров: Исследование зафиксировало — участники сильнее наказывали «Алису» (арифметические ошибки) чем «Чарли» (концептуальные), хотя концептуальные ошибки серьёзнее. Арифметические ошибки заметнее, концептуальные — опаснее. Учитывай это: если в тексте/ответе пира закралась концептуальная ошибка, её легче пропустить.
Как исследовали
Команда из Университета Торонто запустила два контролируемых эксперимента на реальных людях через Prolific — краудсорсинговую платформу.
Эксперимент 1 (математика, N=315): Участники решали задачи уровня американского SAT в четырёх условиях — без AI, только пиры, только тьютор, тьютор + пиры. Любопытная деталь дизайна: после урока все играли в тетрис минуту, чтобы «очистить» кратковременную память — и потом решали аналогичные задачи уже без какой-либо помощи. Результат монотонно растёт: контроль ~42% → пиры ~48% → тьютор ~59% → тьютор + пиры ~65%. Добавление пиров к тьютору дало статистически значимый прирост, хотя одни пиры без тьютора — нет.
Эксперимент 2 (написание, N=247): Участники писали аргументативные и творческие эссе в трёх условиях — без AI, с одним AI (ChatGPT или Claude), с двумя AI одновременно (Claude + ChatGPT). Оба AI-условия улучшили качество текста по сравнению с «без AI». Но вот что удивило: однородность идей — когда один AI участники давали схожие аргументы. Два AI это нивелировали: качество осталось высоким, а разнообразие идей вернулось к базовому уровню «без AI».
Неожиданная находка: самоуверенность не коррелирует с результатом. Группа «только пиры» чувствовала, что было легче и что они справились — но тест показал, что усвоили меньше, чем группа с тьютором. Ощущение понимания и реальное понимание — разные вещи, и пиры без наставника дают ложное ощущение уверенности.
Оригинал из исследования
Описание агентов-пиров из Эксперимента 1 (система промптов):
Bob (Tutor). Bob acts as a supportive math tutor who guides the
discussion and provides feedback on the participant's answers.
Rather than supplying solutions directly, Bob responds with
clarifications, hints, and encouragement (consistent with
Socratic tutoring practices shown to promote deeper reasoning).
Alice (Arithmetic-Error Peer). Alice has a strong conceptual
understanding of the material but frequently makes arithmetic
mistakes (mixing up numbers or making calculation errors). She
represents a common student profile where the underlying
reasoning is sound, but execution falters.
Charlie (Conceptual-Error Peer). Charlie computes things
accurately but sometimes misunderstands the underlying concepts,
applying formulas incorrectly despite doing the math correctly.
He represents the complementary error profile: procedurally
fluent but conceptually fragile.
Контекст: Исследователи создавали трёх агентов на GPT с отдельными системными промптами. Тьютор — Сократовский стиль (не даёт ответов, задаёт вопросы). Два пира — с намеренно разными профилями ошибок, которые в реальности отражают два самых распространённых типа ошибок студентов в математике.
Адаптации и экстраполяции
💡 Адаптация: пиры с ошибками для профессиональных навыков
Та же схема работает вне математики — для любой области где есть «правильный» и «неправильный» подход:
Я учусь писать коммерческие предложения.
Ситуация: Клиент — средний ресторан в Новосибирске,
хочет заказать SMM-продвижение.
Сыграй три роли:
Катя (сильная в структуре, слабая в ценообразовании):
Напиши КП с правильной структурой и логикой,
но с ошибочной стратегией ценообразования —
слишком низкой, не учитывающей все расходы.
Петя (верно считает деньги, но не понимает клиента):
Напиши КП с правильными цифрами и маржой,
но без понимания реальных болей ресторана.
Наставник Алина:
Не пиши альтернативу. Задай мне 2 вопроса,
которые помогут найти слабые места в обоих КП.
🔧 Техника: имена вместо ролей → острее выполнение
По умолчанию: «выступи как критик» — размыто.
При именах агентов + описании их характера: «Антон резко критикует за слабые данные» — точнее.
Исследование показало: участники оценивали агентов по-разному в зависимости от их имён и описанных характеристик, что влияло на то, как они взаимодействовали с каждым. Дай агентам имена и одну ключевую характеристику — AI выполняет роль точнее.
[Вместо "Сыграй роль скептика"]
↓
[Сыграй роль Михаила — инвестора, который не
верит ни одной цифре без источника. Михаил
перебивает, требует доказательств, не вежлив]
🔄 Экстраполяция: комбо с Chain-of-Thought
Объедини мультиагентную схему с Chain-of-Thought (пошаговым рассуждением):
Три агента анализируют мой бизнес-план.
Каждый думает вслух, шаг за шагом.
Оптимист Сергей: ищет сильные стороны →
думает вслух → формулирует вывод
Пессимист Ирина: ищет риски →
думает вслух → формулирует вывод
Реалист Андрей: слушает обоих →
думает вслух → предлагает конкретные правки
[Мой план: ...]
Это усиливает оба метода: разнообразие перспектив + прозрачность рассуждений.
Ресурсы
Название работы: Beyond the AI Tutor: Social Learning with LLM Agents
Авторы: Harsh Kumar, Jonathan Vincentius, Zi Kang (Jace) Mu, Ashton Anderson
Институт: University of Toronto, Department of Computer Science
Статус: Working Paper, March 2026
Теоретическая база: Vygotsky (Zone of Proximal Development), Bandura (Social Learning Theory), Kapur (Productive Failure), Bjork (Desirable Difficulties)
Сервисы из исследования: KhanMigo, Claude for Education, ChatGPT Edu
