3,583 papers
arXiv:2604.17399 76 19 апр. 2026 г. FREE

MC² (Metacognitive Consolidation): тройная проверка внутри каждого ответа + память об ошибках между задачами

КЛЮЧЕВАЯ СУТЬ
Попросишь модель проверить себя — она скажет «всё верно» и подтвердит ту же ошибку другими словами. Не потому что ленится — потому что самопроверка течёт в том же потоке токенов что и генерация: модель просто продолжает цепочку. MC² позволяет получить реальную проверку — не «повторить увереннее», а найти конкретный провальный шаг и пересмотреть его. Фишка: три явные роли в одном промпте разрывают инерцию самоподтверждения — Решатель генерирует, Монитор аудирует, Контроллер выносит вердикт: ПРИНЯТЬ, ИСПРАВИТЬ или НАЧАТЬ ЗАНОВО с конкретным фидбэком.
Адаптировать под запрос

TL;DR

MC² — техника, которая разбивает одну задачу на три роли внутри одного запроса: Решатель генерирует ответ, Монитор его проверяет, Контроллер решает что делать дальше — принять, поправить или выбросить и начать заново. Если Контроллер говорит "начать заново" — Решатель получает конкретный фидбэк и пробует другой подход. Максимум N итераций внутри одного диалога.

Главная проблема, которую решает метод: LLM делает ошибки с уверенным видом. Спросишь "проверь себя" — она скажет "всё верно" и подтвердит ту же ошибку другими словами. Почему? Потому что самопроверка и генерация текут в одном потоке: модель продолжает цепочку слов, а не реально перепроверяет. Это как попросить человека найти ошибку в тексте, который он только что написал — глаз замылен.

MC² разрывает этот поток: каждая роль получает отдельный контекст задачи и чёткие инструкции. Монитор не продолжает решение — он его аудирует. Контроллер не генерирует ответ — он выносит вердикт. Этот структурный разрыв и даёт точность. Второй слой — память об ошибках: после серии задач система извлекает уроки и инжектит их в следующие запросы. Применительно к чату — это мануальный "дневник ошибок", который вы держите и вставляете в промпт.


🔬

Схема метода

┌─────────────────────────── КАЖДАЯ ЗАДАЧА ────────────────────────────┐
│                                                                       │
│  ШАГ 1: Решатель → генерирует ответ + ход рассуждений               │
│              ↓                                                        │
│  ШАГ 2: Монитор → находит первый сомнительный шаг + вердикт         │
│              ↓                                                        │
│  ШАГ 3: Контроллер → принимает решение:                              │
│         • ПРИНЯТЬ   → финальный ответ                                │
│         • ИСПРАВИТЬ → мелкая правка → финальный ответ               │
│         • НАЧАТЬ ЗАНОВО → фидбэк → обратно к Шагу 1                │
│                                                                       │
│  Максимум N итераций, всё в одном промпте                            │
└───────────────────────────────────────────────────────────────────────┘

┌──────────────────── МЕЖДУ ЗАДАЧАМИ (опционально) ────────────────────┐
│                                                                       │
│  После серии задач → выдели паттерны ошибок → запиши уроки          │
│  Перед следующей задачей → вставь уроки в промпт                    │
└───────────────────────────────────────────────────────────────────────┘

Всё в рамках одного диалога в ChatGPT/Claude. Внешний цикл памяти — мануально, через ваш текстовый файл.


🚀

Пример применения

Задача: Вы решаете, открывать ли ПВЗ Wildberries в спальном районе Екатеринбурга. Попросили GPT проанализировать — он бодро выдал "хорошая идея". Хочется реальной проверки, а не оптимистичного резюме.

Промпт:

Ты работаешь в трёх ролях. Выполняй их последовательно и явно.

**ЗАДАЧА:** Оцени бизнес-смысл открытия ПВЗ Wildberries 
в спальном районе Екатеринбурга с вложением 600 000 рублей.
Аренда 35 000 руб/мес, конкурентов поблизости нет, 
трафик пешеходный — район у метро.

---

**РОЛЬ 1 — РЕШАТЕЛЬ:**
Дай развёрнутую оценку: окупаемость, риски, ключевые факторы.
Показывай ход рассуждений пошагово.

---

**РОЛЬ 2 — МОНИТОР:**
Проверь ответ Решателя. Найди:
- Первый шаг, где рассуждение под вопросом
- Допущения, которые не проверены
- Что Решатель проигнорировал или преувеличил
Вынеси вердикт: ВЕРНО / ЕСТЬ ПРОБЛЕМЫ (укажи конкретно что)

---

**РОЛЬ 3 — КОНТРОЛЛЕР:**
На основе вердикта Монитора прими решение:
- ПРИНЯТЬ — аргументация надёжная, выдай финальный вывод
- ИСПРАВИТЬ — есть неточности, исправь их и выдай финальный вывод  
- НАЧАТЬ ЗАНОВО — фундаментальная ошибка в подходе, 
  укажи что именно пересмотреть и запусти Решателя заново 
  с этим фидбэком

Максимум 2 итерации.

Результат: Модель покажет работу трёх ролей явно и последовательно. Решатель выдаст первичный анализ с расчётами. Монитор укажет на непроверенные допущения — например, что "отсутствие конкурентов" может означать отсутствие спроса, а не свободную нишу. Контроллер либо примет ответ, либо попросит пересчитать с учётом этого. В финале — вывод, который прошёл явную проверку, а не просто "звучит уверенно".


🧠

Почему это работает

Почему не работает "просто попроси проверить": LLM генерирует текст как продолжение цепочки. Когда вы пишете "проверь свой ответ", модель продолжает ту же цепочку — и с высокой вероятностью подтверждает себя. Это не лень, это механика: следующий токен предсказывается на основе уже сказанного.

Что умеет модель хорошо: Следовать структурированным ролям. Когда роль Монитора прописана отдельно с конкретными инструкциями ("найди первый сомнительный шаг"), модель генерирует текст в другом регистре — критически. Структура в промпте разрывает инерцию продолжения.

Как метод использует это: Три роли создают три разных контекста для генерации текста. Решатель работает в режиме "предложи решение". Монитор — в режиме "найди слабое место". Контроллер — в режиме "реши что делать". Один и тот же вопрос, три разные рамки → разные ответы → реальная проверка.

Рычаги управления: - Число итераций (1–3) → больше итераций = глубже проверка, но дольше и дороже; для простых задач хватит 1 - Строгость Монитора → можно добавить "будь особенно критичен к цифрам и причинно-следственным связям" - Условие "Начать заново" → можно заменить на "переформулируй с другой точки зрения" вместо полного перезапуска - Дневник ошибок → если вы регулярно делаете похожие задачи, добавьте в начало промпта блок "Известные ловушки: [ваши уроки]"


📋

Шаблон промпта

Ты работаешь в трёх ролях. Выполняй последовательно и явно.

**ЗАДАЧА:** {задача с контекстом и данными}

---

**РОЛЬ 1 — РЕШАТЕЛЬ:**
Реши задачу. Показывай ход рассуждений пошагово.

---

**РОЛЬ 2 — МОНИТОР:**
Проверь ответ Решателя:
- Найди первый шаг, вызывающий сомнение
- Укажи непроверенные допущения
- Вынеси вердикт: ВЕРНО / ЕСТЬ ПРОБЛЕМЫ

---

**РОЛЬ 3 — КОНТРОЛЛЕР:**
На основе вердикта Монитора:
- ПРИНЯТЬ → финальный ответ как есть
- ИСПРАВИТЬ → поправь конкретные места → финальный ответ
- НАЧАТЬ ЗАНОВО → скажи что именно пересмотреть 
  и запусти Решателя заново с этим фидбэком

Максимум {число_итераций} итераций.

Что подставлять: - {задача с контекстом и данными} — конкретная задача с цифрами, условиями, вводными; чем конкретнее, тем точнее проверка - {число_итераций} — 1 для быстрой проверки, 2–3 для сложных аналитических задач


🚀 Быстрый старт — вставь в чат:

Вот шаблон MC² (трёхролевая проверка). Адаптируй под мою задачу. 
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит о задаче и желаемом количестве итераций — потому что без конкретного содержания задачи и глубины проверки шаблон не заработает. Она возьмёт структуру трёх ролей и подставит ваши данные.


⚠️

Ограничения

⚠️ Простые задачи: Не применяй для вопросов с очевидным ответом — три роли добавят объём, но не качество. Метод светит на сложных аналитических или логических задачах.

⚠️ Внешний цикл памяти требует ручной работы: Автоматическое накопление уроков между задачами (то, что авторы называют MCA) работает только в коде. В чате — нужно самому выписывать паттерны ошибок и вставлять их в следующий промпт.

⚠️ Слабые модели: На маломощных моделях (не GPT-4o, не Claude Sonnet и выше) роли могут смешиваться — Монитор начинает предлагать решения вместо критики. Метод лучше работает с сильными моделями.

⚠️ Токены: Три роли + итерации = заметно длиннее обычного ответа. На задачах где токены ограничены — выбирай 1 итерацию.


🔗

Ресурсы

Работа: Beyond Meta-Reasoning: Metacognitive Consolidation for Self-Improving LLM Reasoning

Авторы: Ziqing Zhuang, Linhai Zhang, Jiasheng Si, Deyu Zhou, Yulan He

Организации: Southeast University, King's College London, The Alan Turing Institute, Qilu University of Technology


📋 Дайджест исследования

Ключевая суть

Попросишь модель проверить себя — она скажет «всё верно» и подтвердит ту же ошибку другими словами. Не потому что ленится — потому что самопроверка течёт в том же потоке токенов что и генерация: модель просто продолжает цепочку. MC² позволяет получить реальную проверку — не «повторить увереннее», а найти конкретный провальный шаг и пересмотреть его. Фишка: три явные роли в одном промпте разрывают инерцию самоподтверждения — Решатель генерирует, Монитор аудирует, Контроллер выносит вердикт: ПРИНЯТЬ, ИСПРАВИТЬ или НАЧАТЬ ЗАНОВО с конкретным фидбэком.

Принцип работы

Модель предсказывает следующий токен на основе предыдущих. Попросишь «проверь» — следующий токен будет продолжением той же цепочки, а не критикой. Три отдельные роли создают три отдельных контекста генерации. Монитор получает инструкцию «найди первый сомнительный шаг» — и переключается в режим критики, а не продолжения. Контроллер получает инструкцию «вынеси вердикт» — и не генерирует новый ответ, а принимает решение. Это рвёт петлю самоподтверждения. Один и тот же вопрос, три разных рамки — три реально разных взгляда.

Почему работает

Стандартная самопроверка — это как попросить человека найти опечатку в тексте который он только что написал. Глаз замылен, мозг видит то что хотел написать. Модель работает так же: она видит свой вывод и подтверждает его следующим токеном. Явная роль Монитора с конкретной инструкцией «найди где рассуждение под вопросом» выбивает модель из этого режима. Структурный разрыв важнее числа проверок: одна роль с конкретной задачей бьёт три открытых «проверь ещё раз». Контроллер добавляет второй слой — он не просто замечает проблему, а принимает решение: мелкая правка или полный пересмотр подхода.

Когда применять

Аналитические и логические задачи — особенно оценка бизнес-решений, проверка аргументов, разбор технических планов — когда первый уверенный ответ модели нельзя принимать как финальный. Особенно хорошо работает когда задача содержит непроверенные допущения и цифры которые модель может подтасовать под красивый вывод. НЕ подходит для простых вопросов с очевидным ответом — три роли добавят объём, но не качество. Также плохо работает на маломощных моделях: роли начинают смешиваться, Монитор вместо критики предлагает решения.

Мини-рецепт

1. Опиши задачу с данными: цифры, условия, вводные — чем конкретнее, тем точнее сработает Монитор. «Оцени бизнес» хуже чем «оцени ПВЗ, аренда 35к, вложение 600к, конкурентов нет».
2. Вставь три роли явно: РОЛЬ 1 — РЕШАТЕЛЬ (пошаговое решение), РОЛЬ 2 — МОНИТОР (найди первый сомнительный шаг + вердикт ВЕРНО / ЕСТЬ ПРОБЛЕМЫ), РОЛЬ 3 — КОНТРОЛЛЕР (ПРИНЯТЬ / ИСПРАВИТЬ / НАЧАТЬ ЗАНОВО с конкретным фидбэком).
3. Задай число итераций: 1 — для быстрой проверки, 2–3 — для сложной аналитики где важно поймать непроверенные допущения.
4. Опционально — дневник ошибок: если решаешь похожие задачи регулярно, выпиши паттерны прошлых ошибок и вставь в начало промпта блоком «Известные ловушки: [твои уроки]». Это мануальный аналог того, что в исследовании работает автоматически через код.

Примеры

[ПЛОХО] : Напиши анализ: стоит ли открывать кофейню в спальном районе? Потом проверь себя.
[ХОРОШО] : Ты работаешь в трёх ролях. Выполняй последовательно и явно. ЗАДАЧА: Оцени открытие кофейни в спальном районе Казани. Аренда 40к/мес, вложение 700к, конкурентов в радиусе 500м нет, рядом метро и школа. РОЛЬ 1 — РЕШАТЕЛЬ: Дай оценку пошагово — окупаемость, риски, ключевые допущения. РОЛЬ 2 — МОНИТОР: Найди первый шаг где рассуждение под вопросом. Укажи непроверенные допущения. Вердикт: ВЕРНО / ЕСТЬ ПРОБЛЕМЫ. РОЛЬ 3 — КОНТРОЛЛЕР: На основе вердикта — ПРИНЯТЬ, ИСПРАВИТЬ, или НАЧАТЬ ЗАНОВО с конкретным указанием что пересмотреть. Максимум 2 итерации.
Источник: Beyond Meta-Reasoning: Metacognitive Consolidation for Self-Improving LLM Reasoning
ArXiv ID: 2604.17399 | Сгенерировано: 2026-04-21 05:38

Проблемы LLM

ПроблемаСутьКак обойти
Самопроверка подтверждает ту же ошибкуПишешь "проверь свой ответ". Модель продолжает ту же цепочку слов. Предсказывает следующий токен на основе уже сказанного. Итог: переформулирует ту же ошибку другими словами. Говорит "всё верно". Работает для любой задачи где нужна реальная критическая проверкаДай роль Монитора отдельно от роли Решателя. Каждая роль получает свои инструкции и свою рамку. Монитор не продолжает решение — он его аудирует

Методы

МетодСуть
Три роли в одном промпте — реальная проверкаОпиши три роли явно. Решатель: реши задачу, покажи ход рассуждений пошагово. Монитор: найди первый шаг под вопросом, укажи непроверенные допущения, вынеси вердикт ВЕРНО / ЕСТЬ ПРОБЛЕМЫ. Контроллер: на основе вердикта — ПРИНЯТЬ (ответ надёжен) / ИСПРАВИТЬ (поправь конкретное место) / НАЧАТЬ ЗАНОВО (опиши что пересмотреть и запусти Решателя снова). Шаблон: РОЛЬ 1 — РЕШАТЕЛЬ: ... РОЛЬ 2 — МОНИТОР: ... РОЛЬ 3 — КОНТРОЛЛЕР: ... Максимум N итераций. Почему работает: каждая роль создаёт отдельный контекст генерации. Монитор не продолжает решение — он его критикует. Структурный разрыв ломает инерцию самоподтверждения. Управляй глубиной: 1 итерация — для быстрой проверки. 2–3 — для сложного анализа. Усиль Монитора: добавь "будь особенно критичен к цифрам и причинно-следственным связям". Не применяй: на простых вопросах с очевидным ответом — три роли добавят объём, но не качество. На слабых моделях роли смешиваются
📖 Простыми словами

Beyond Meta-Reasoning: Metacognitive Consolidation for Self-ImprovingLLMReasoning

arXiv: 2604.17399

Суть проблемы в том, что нейронки патологически не умеют признавать свои ошибки. Когда ты просишь модель «проверь себя», она просто продолжает гнуть свою линию, потому что архитектурно обучена предсказывать следующее слово на основе уже сказанного бреда. Метод MC² (Metacognitive Consolidation) ломает эту инерцию, заставляя модель играть в «лебедя, рака и щуку» внутри одного запроса. Вместо того чтобы просто вывалить текст, LLM разделяется на три субличности: Решателя, Монитора и Контроллера, которые устраивают жесткий аудит каждой мысли еще до того, как ты увидишь финальный результат.

Это как если бы ты писал диплом, а у тебя за спиной стояли два занудных профессора. Один — Монитор — бьет тебя по рукам, как только ты пишешь первую глупость, и тычет пальцем в конкретную ошибку. Второй — Контроллер — решает твою судьбу: либо ты просто правишь опечатку, либо выкидываешь лист в корзину и начинаешь с чистого листа, учитывая прошлый позор. Формально это делает один и тот же мозг, но за счет жесткого разделения ролей модель перестает слепо верить своему первому импульсу.

В деталях это работает через циклический фидбэк: Решатель выдает базу, Монитор ищет первый же сомнительный шаг, а Контроллер выносит вердикт. Если всё плохо, запускается режим «начать заново», где модели дают конкретный подзатыльник: «ты облажался вот здесь, попробуй другой подход». Весь этот цирк может повторяться до N раз внутри одного диалога, пока система не придет к консенсусу. Это не просто «подумай еще раз», а принудительная работа над ошибками в реальном времени.

Тестировали это на сложных логических задачах, но принцип универсален для любого серьезного анализа — от бизнес-стратегий до написания кода. Если ты просишь AI оценить риски открытия бизнеса, обычная модель выдаст тебе оптимистичную копипасту. Система с MC² же сама себя затроллит, найдет слабые места в расчетах и выдаст ответ только тогда, когда Контроллер убедится, что аргументация не рассыпается при первом же досмотре. SEO-тексты уходят в прошлое, наступает эра глубокой верификации.

Короче: хватит ждать от нейронки честности «из коробки» — она всегда будет пытаться тебе угодить и подтвердить свою правоту. Нужно внедрять многоролевые структуры, которые имитируют внутренний диалог и критическое мышление. Три роли, итеративный фидбэк и право на перезапуск — это единственный способ заставить LLM не просто генерировать текст, а реально соображать. Кто не научит свои промпты самокритике, тот так и будет получать красиво упакованные галлюцинации.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с