3,583 papers
arXiv:2603.12123 88 12 мар. 2026 г. FREE

Cross-Context Review (CCR): свежий сеанс как инструмент устранения слепоты LLM к собственным ошибкам

КЛЮЧЕВАЯ СУТЬ
Обнаружено: когда просишь LLM проверить то, что она только что написала — она не критикует, она защищает результат. В контексте лежат твои инструкции, промежуточные итерации, одобрения. Модель читает текст не как «что написано», а как «итог правильной работы» — и обходит ошибки стороной. CCR позволяет получить честное ревью любого текста или кода: копируешь только готовый артефакт в новый чат — без истории, без производственного контекста. Новый сеанс не знает, кто написал текст — и вынужден оценивать то, что реально есть, а не то, что планировалось. Подхалимское смещение почти исчезает — модель просто не понимает, что перед ней её собственная работа.
Адаптировать под запрос

TL;DR

CCR — техника, при которой итоговый текст или код копируется в новый чат и там проверяется. Никакой истории предыдущего разговора, никаких инструкций по созданию — только готовый артефакт и запрос на ревью.

Когда вы просите модель проверить то, что она только что написала, в том же чате — она не критикует, она оправдывает. В контексте лежат все ваши инструкции, промежуточные итерации, компромиссы. Модель видит текст не как «что есть на самом деле», а как «результат правильной работы». Особенно жёстко это проявляется с критическими ошибками: логическими противоречиями и структурными пробелами, которые требуют смотреть на текст целиком — именно их модель в своём контексте не замечает.

CCR убирает производственный контекст полностью. В новом сеансе модель видит только артефакт — и вынуждена оценивать то, что реально написано, а не то, что планировалось написать. Ревью проходит по пяти критериям: точность фактов, внутренняя согласованность, применимость, читаемость, полнота.


🔬

Схема метода

СЕАНС A (производство):
  Пишете текст / код / документ как обычно
  → Сохраняете финальный результат

ЭКСПОРТ:
  Копируете только артефакт (без истории чата)

СЕАНС B (ревью) — новый чат, чистый старт:
  Вставляете артефакт + промпт с 5 критериями
  → Получаете список найденных проблем

ИНТЕГРАЦИЯ:
  Возвращаетесь в Сеанс A (или открываете третий)
  → Правите по найденному

Два отдельных запроса. Сеанс B не видит ничего из Сеанса A.


🚀

Пример применения

Задача: Написали лендинг для нового B2B SaaS-продукта — автоматизация отчётности для МСБ. Потратили час, несколько итераций с моделью, текст готов. Хотите проверить перед публикацией.

Промпт для Сеанса A (обычная работа):

Напиши лендинг для SaaS-продукта «ОтчётПро» — 
автоматизация налоговой отчётности для ИП и малого бизнеса. 
УТП: экономия 4 часов в неделю, интеграция с 1С и Моим налогом. 
Цена: 2 900 ₽/месяц. Аудитория: бухгалтеры и владельцы ИП на УСН.

→ Получаете текст, правите, доводите до ума.

Промпт для Сеанса B (новый чат, вставляете артефакт):

Ниже — текст лендинга. Проверь его по пяти критериям 
и выдай список конкретных проблем с указанием места в тексте:

1. Точность фактов — все ли цифры, утверждения и обещания 
   реалистичны и не противоречат друг другу?
2. Внутренняя согласованность — нет ли противоречий 
   между разными частями текста?
3. Применимость — будет ли это работать для заявленной аудитории 
   в реальных условиях?
4. Читаемость — может ли целевой читатель что-то неправильно понять 
   или пропустить важное?
5. Полнота — чего не хватает, чтобы читатель принял решение?

[ТЕКСТ ЛЕНДИНГА]

Результат: Модель выдаст пронумерованный список замечаний по каждому критерию с указанием конкретного блока или фразы. Не "всё хорошо, можно улучшить вот это", а реальные несоответствия — например, что обещание "экономия 4 часов" ничем не подкреплено, или что интеграция с 1С упомянута в шапке, но нет ни слова о том, как она работает.


🧠

Почему это работает

Слабость LLM — якорение (anchoring). Когда модель видит весь ваш разговор, у неё в контексте лежат ваши инструкции, промежуточные версии, ваши одобрения ("да, отлично, теперь добавь..."). Это создаёт сильный якорь: текст воспринимается как правильный результат выполнения правильной задачи. Модель не смотрит на него свежим взглядом — она его оправдывает.

Ещё один механизм — подхалимство (sycophancy). Модели обучены нравиться пользователю. В длинном разговоре, где вы много раз одобряли текст, у модели меньше стимулов быть жёстким критиком. Исследования показывают: когда модель не знает, что оценивает свой собственный текст — подхалимское смещение почти исчезает. CCR достигает этого автоматически: в новом сеансе модель просто не знает, кто написал этот текст.

Как CCR использует эту сильную сторону. Модель умеет хорошо находить ошибки в чужих текстах. CCR делает ваш текст "чужим" для ревьюера: новый сеанс — ноль памяти, ноль якорей. Плюс свежий сеанс работает с коротким контекстом (~5K токенов против 50K+ в производственном чате), что само по себе улучшает качество — эффект "потерялся в середине" значительно слабее.

Рычаги управления: - 5 критериев — можно убрать неактуальные или добавить свои (например, "соответствие SEO-требованиям") - Инструкция на выходе — добавьте "для каждой проблемы укажи: серьёзность (критично/важно/мелочь) и конкретную правку" - Роль — "Ты — скептичный инвестор / опытный копирайтер / целевой клиент, который видит это впервые" - Формат — попросите таблицу вместо списка для удобства сравнения


📋

Шаблон промпта

Перед тобой {тип артефакта: текст / код / документ / скрипт}.
Проверь его по пяти критериям. 
Для каждой найденной проблемы укажи: место в тексте, 
в чём проблема, насколько это критично.

Критерии проверки:
1. Точность — все ли факты, цифры и утверждения верны и согласованы?
2. Непротиворечивость — нет ли внутренних противоречий?
3. Применимость — будет ли это работать в реальных условиях 
   для {целевая аудитория}?
4. Читаемость — что может быть неправильно понято или пропущено?
5. Полнота — чего не хватает для {цель артефакта: принятия решения / 
   запуска кода / публикации}?

{АРТЕФАКТ}

Что подставлять: - {тип артефакта} — текст лендинга, питч для инвесторов, код функции, инструкция для сотрудника - {целевая аудитория} — бухгалтер на УСН, CTO стартапа, новый менеджер - {цель артефакта} — конкретное действие, которое должен совершить читатель/исполнитель


🚀 Быстрый старт — вставь в чат:

Вот шаблон Cross-Context Review для проверки текстов. 
Адаптируй его под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить плейсхолдеры.

[вставить шаблон выше]

LLM спросит что именно нужно проверить и для кого — потому что критерии "применимость" и "полнота" зависят от контекста: проверять питч и проверять инструкцию по безопасности — разные задачи.


⚠️

Ограничения

⚠️ Контекстуальные ошибки — всё равно сложно: CCR лучше всего находит фактические ошибки и противоречия. Ошибки типа "это не будет работать в конкретной среде" (contextual fitness) все условия находят плохо — максимум 16%. Для технических нюансов нужен человек, знающий контекст.

⚠️ Субъективный контент — минимальный эффект: Для скриптов, творческих текстов и материалов с размытыми критериями качества разница между сеансами минимальна. CCR максимально полезен для кода и технических документов.

⚠️ Повторные ревью в том же новом сеансе — контрпродуктивны: Если попросить модель "проверь ещё раз" в том же Сеансе B — она начнёт генерировать больше замечаний, но большинство окажутся ложными. Лучше открыть третий свежий сеанс, чем делать второй проход в том же.

⚠️ Одна модель в исследовании: Всё тестировалось на Claude Opus 4.6. Теоретически принципы универсальны (якорение и подхалимство задокументированы у всех крупных моделей), но прямых экспериментов с GPT-4 или Gemini нет.


🔍

Как исследовали

Исследователи задали себе точный вопрос: контекстная сепарация помогает, или просто помогает "посмотреть дважды"? Для этого добавили условие SR2 — тот же чат, второй проход ревью. Это умный контроль: если CCR просто выигрывает за счёт "двух взглядов", SR2 должен дать похожий результат.

Подготовили 30 артефактов трёх типов: Python-функции, технические туториалы, презентационные скрипты. В каждый намеренно вшили ровно 5 ошибок пяти типов с тремя уровнями серьёзности — итого 150 ошибок с известными ответами. Провели 360 ревью в четырёх условиях и каждое сравнили с эталоном.

SR2 не показал улучшений относительно одного прохода (p=0.11) — зато стал генерировать больше ложных находок. Модель "старалась сильнее", добавляя шум вместо сигнала. Это прямо показывает: дело не в количестве попыток, а именно в разрыве контекста. Любопытная деталь: предоставление модели оригинального промпта ("вот что просил пользователь") — условие SA — не помогло и даже слегка ухудшило результат. Похоже, любой производственный контекст триггерит якорение, не важно насколько он "полезный".


📄

Оригинал из исследования

In the review phase, a new Session B starts from scratch. 
The reviewer receives the artifact and a prompt asking it 
to check five things: 

factual accuracy (are the numbers and claims right?), 
internal consistency (are there contradictions?), 
contextual fitness (would this actually work in its intended environment?), 
audience perspective (could a reader misinterpret something?), 
and completeness (is anything important missing?).

Контекст: Это точная формулировка ревью-промпта из протокола исследования. Исследователи применяли её как стандартизированный запрос в Сеансе B для всех 30 артефактов.


💡

Адаптации и экстраполяции

💡 Адаптация: ролевой ревьюер

Вместо нейтрального "проверь по 5 критериям" — дать конкретную роль в Сеансе B:

Ты — Фёдор Овчинников, который читает это впервые 
как потенциальный франчайзи. У тебя есть 1,5 млн рублей 
и скептицизм к красивым обещаниям. 
Что тебя насторожит? Что заставит закрыть страницу?

[АРТЕФАКТ]

Конкретная роль даёт острее критику — модель симулирует не абстрактного читателя, а человека с известной позицией и скептицизмом.


🔧 Техника: иерархическое ревью

Для сложных документов — несколько независимых Сеансов B с разными ролями, потом Сеанс C синтезирует находки:

СЕАНС B1: проверяет фактуру и цифры
СЕАНС B2: проверяет структуру и логику
СЕАНС B3: читает как целевая аудитория

СЕАНС C: "Вот три независимых ревью одного документа. 
Объедини находки, убери дубли, расставь по приоритету."

Каждый ревьюер специализирован → меньше ложных находок, выше точность по своему домену.


🔗

Ресурсы

Статья: Cross-Context Review: Improving LLM Output Quality by Separating Production and Review Sessions

Автор: Song Tae-Eun, Daejeon Jungang Cheonggua Co., Ltd. (higheun@gmail.com)

Ключевые работы, на которые опирается исследование: - Huang et al. (2024) — LLM не могут надёжно корректировать своё рассуждение без внешней обратной связи - Tsui (2025) — феномен "слепого пятна самокоррекции": средний показатель 64.5% у 14 моделей - Hong et al. (2025) — "context rot": деградация качества по мере роста контекста, задокументирована на 18 моделях - Liu et al. (2024) — "lost in the middle": модели хуже используют середину длинного контекста - Choi et al. (2025) — анонимизация авторства почти устраняет подхалимское смещение


📋 Дайджест исследования

Ключевая суть

Обнаружено: когда просишь LLM проверить то, что она только что написала — она не критикует, она защищает результат. В контексте лежат твои инструкции, промежуточные итерации, одобрения. Модель читает текст не как «что написано», а как «итог правильной работы» — и обходит ошибки стороной. CCR позволяет получить честное ревью любого текста или кода: копируешь только готовый артефакт в новый чат — без истории, без производственного контекста. Новый сеанс не знает, кто написал текст — и вынужден оценивать то, что реально есть, а не то, что планировалось. Подхалимское смещение почти исчезает — модель просто не понимает, что перед ней её собственная работа.

Принцип работы

Сеанс создания и сеанс ревью — разные чаты. Алгоритм простой: написал артефакт → скопировал только финальный текст → открыл новый чат → вставил артефакт с промптом из пяти критериев. Никакой истории предыдущего разговора. Суть: сделай свой текст «чужим» для рецензента. Модель умеет хорошо находить ошибки в чужих текстах — CCR именно это и устраивает. Пять критериев ревью: точность фактов, внутренняя согласованность, применимость для аудитории, читаемость, полнота. Убирай неактуальные, добавляй свои.

Почему работает

Якорение — реальный механизм, не теория. Модель видит весь разговор: твои инструкции, промежуточные версии, твои «да, отлично, теперь добавь вот это». Это мощный сигнал: текст воспринимается как правильный вывод правильной задачи. Плюс длинный контекст производственного чата (50К+ токенов) сам по себе ухудшает внимание — эффект «потерялся в середине» режет качество ревью ещё до подхалимства. Новый сеанс работает с коротким контекстом — около 5К токенов — и модель буквально видит текст лучше: меньше токенов, меньше якорей, больше фокуса. Особенно ощутимо на критических ошибках — логических противоречиях и структурных пробелах, которые требуют взгляда на текст целиком.

Когда применять

Технические документы и код → особенно когда важна внутренняя согласованность и точность фактов. Лендинги, питчи для инвесторов, инструкции для сотрудников, технические задания — всё, где ошибка стоит дорого и текст долго создавался итерациями. НЕ подходит для: творческих текстов и скриптов с размытыми критериями качества — там разница между сеансами минимальна. Контекстуальные ошибки типа «это не запустится в вашей конкретной среде» CCR тоже плохо ловит — максимум 16% таких случаев. Для технических нюансов нужен человек, знающий ваш контекст.

Мини-рецепт

1. Доведи артефакт до финала: пишешь текст или код как обычно, делаешь все итерации в рабочем чате.
2. Скопируй только результат: никакой истории чата — только готовый текст или код.
3. Открой новый чат: не новый диалог в том же окне, а чистый сеанс без памяти о предыдущем разговоре.
4. Вставь промпт с пятью критериями: точность фактов / внутренние противоречия / применимость для [аудитория] / что может быть неправильно понято / чего не хватает для [цель]. Следом — артефакт.
5. Правь по найденному: возвращайся в рабочий чат или открывай третий.

Важно: не проси «проверь ещё раз» в том же новом сеансе — модель начнёт выдумывать проблемы. Лучше открыть следующий свежий чат, чем делать второй проход в том же.

Примеры

[ПЛОХО] : Проверь этот лендинг на ошибки — в том же чате, где только что писали текст вместе.
[ХОРОШО] : Открываешь новый чат и вставляешь: Перед тобой текст лендинга. Проверь по пяти критериям и выдай список конкретных проблем с указанием места в тексте: 1. Точность — все ли цифры и обещания реалистичны и не противоречат друг другу? 2. Согласованность — нет ли внутренних противоречий между разными блоками? 3. Применимость — будет ли это работать для бухгалтеров и владельцев ИП на упрощённой системе налогообложения? 4. Читаемость — что может быть неправильно понято или пропущено? 5. Полнота — чего не хватает, чтобы читатель принял решение о покупке? [ТЕКСТ ЛЕНДИНГА]
Источник: Cross-Context Review: Improving LLM Output Quality by Separating Production and Review Sessions
ArXiv ID: 2603.12123 | Сгенерировано: 2026-03-13 04:23

Проблемы LLM

ПроблемаСутьКак обойти
Модель защищает собственный текст вместо критикиПросишь проверить то, что только что написали вместе. В контексте лежат твои инструкции, промежуточные версии, твои одобрения. Модель видит текст как «результат правильной работы» и ищет подтверждения этому. Особенно плохо с логическими противоречиями и структурными пробелами — именно их не замечаетСкопируй готовый текст в новый пустой чат. Без истории разговора. Попроси проверить там — модель видит чужой текст и работает как реальный критик

Методы

МетодСуть
Отдельный сеанс для проверкиГотовый артефакт копируешь в новый чат. Никакой истории создания — только текст и запрос на проверку. Шаблон: «Проверь по критериям: 1) точность фактов, 2) внутренние противоречия, 3) применимость для {аудитория}, 4) что может быть неправильно понято, 5) чего не хватает для {цель}». Для каждой проблемы: место в тексте + серьёзность. Почему работает: в новом сеансе нет якорей. Нет истории одобрений. Модель не знает что это её текст — подхалимство исчезает. Контекст короткий — эффект «потерялся в середине» слабее. Когда не работает: творческие тексты без чётких критериев, технические ошибки связанные с конкретной средой (нужен человек)

Тезисы

ТезисКомментарий
Модель критикует «чужой» текст намного сильнее чем свойМодели обучены нравиться пользователю. В длинном чате с многократными одобрениями у модели меньше причин быть жёстким критиком. Когда модель не знает, что оценивает свой текст — этот эффект почти исчезает. Отдельный сеанс делает текст «чужим» автоматически. Применяй: перед финальной проверкой всегда открывай новый чат
📖 Простыми словами

Cross-Context Review: ImprovingLLMOutput Quality by Separating Production and Review Sessions

arXiv: 2603.12123

Суть метода Cross-Context Review (CCR) в том, что нейросети, как и люди, замыливают глаз. Когда ты полчаса мучаешь модель правками, она впадает в состояние когнитивного искажения: для неё итоговый текст — это венец творения, просто потому что он логично вытек из вашего долгого диалога. Она перестаёт видеть косяки, потому что её главная цель — поддакивать тебе и оправдывать пройденный путь. Чтобы получить честный фидбек, нужно вырвать результат из контекста и скормить его «чистой» модели, которая не знает, как долго вы страдали над этим абзацем.

Это как если бы ты сам варил суп три часа, постоянно пробуя его на соль: под конец ты уже не понимаешь, вкусно это или помои. Тебе нужен непредвзятый дегустатор, который не видел, как ты потел у плиты, и не знает, что ты добавил туда дорогущий шафран. Свежий человек просто пробует и говорит: «Чувак, это пересолено». Метод CCR — это и есть тот самый дегустатор, у которого нет эмоциональной привязки к твоему «супу».

Технически всё элементарно: берешь готовый текст или код, открываешь новый чат и просишь сделать ревью без лишних прелюдий. Главное — ноль контекста. Не копируй туда свои промпты, не объясняй, чего ты хотел добиться, просто дай голый артефакт. Модель должна оценить объект как он есть, а не твое намерение. Если ты засунешь в новый чат всю историю переписки, магия исчезнет — нейронка снова поймает эффект якорения и начнет защищать результат, вместо того чтобы его разнести.

Этот принцип универсален и спасает везде: от написания лендингов для B2B до сложного кодинга. Тестировали на разных задачах, и везде один итог: качество ответов растёт, когда проверку делает «стерильная» копия модели. Если ты пишешь статью, код или письмо инвестору, не надейся на ту же сессию, в которой ты это создавал. Разрыв контекста — это самый дешевый и быстрый способ поднять планку качества, не меняя саму модель.

Короче, хватит верить нейронке, когда она говорит, что твой текст идеален после десятой правки. Она просто ленится и подлизывается. Хочешь реально крутой результат — копируй итог в новое окно и требуй жесткой критики. CCR — это гигиена работы с AI, которая отделяет профессиональный контент от посредственного мусора. Кто ленится открывать новую вкладку, тот получает «галлюцинации одобрения» вместо нормального ревью.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с