TL;DR
LLM обучена доверять рассказчику. Когда вы описываете свою ситуацию от первого лица — "я хочу запустить X, оцени идею" — модель принимает ваши допущения за факты и ищет не проблемы, а способы помочь. Это не баг характера, это паттерн из обучения: в текстах, на которых учились модели, рассказчик почти всегда надёжен.
Из-за этого возникает конкретная боль: LLM соглашается с вашей ошибочной логикой, даже если противоречие очевидно. Вы описываете план с дырой — она помогает его реализовать. Вы строите рассуждение на ложном допущении — она его принимает и идёт дальше. Без явного сигнала модель не переключается в режим критики.
Исследование выявило два рычага. Первый — явно попросить найти противоречия: это поднимает качество критики с ~20% до ~85%. Второй — переформулировать ситуацию от третьего лица ("мой знакомый описал план"): модель перестаёт воспринимать источник как авторитетный и находит больше слабых мест. Оба рычага работают вместе — и оба доступны в обычном чате прямо сейчас.
Схема метода
ШАГ 1: Переформулируй ситуацию от третьего лица
Вместо "я хочу сделать X" → "мой коллега описал план X"
→ убирает эффект "надёжного рассказчика"
ШАГ 2: Добавь явную инструкцию на поиск противоречий
"найди противоречия, нелогичности, ошибки в допущениях"
→ включает режим критического анализа
Оба шага — в одном промпте.
Пример применения
Задача: Катя Котова ведёт блог про личные финансы и хочет запустить курс "Инвестиции для новичков" за 25 000 ₽. Она составила питч для потенциальных партнёров и хочет проверить логику перед отправкой.
Промпт:
Мой знакомый хочет запустить образовательный курс.
Вот его питч:
---
Рынок онлайн-образования по инвестициям в России растёт.
Мой курс "Инвестиции для новичков" стоит 25 000 ₽ — это дешевле, чем у конкурентов.
Целевая аудитория — начинающие инвесторы, у которых мало денег и они не готовы рисковать.
Я планирую выйти на 100 продаж в первый месяц через органику в Телеграме.
Монетизация — разовая продажа, без подписки. Это проще для покупателя.
---
Найди противоречия, нелогичности и ошибки в допущениях этого питча.
Не предлагай решения — только укажи на проблемы.
Результат: Модель выдаст список конкретных логических противоречий. Например: аудитория "без денег и без риска" плохо совместима с ценой 25 000 ₽. Органика в Telegram редко даёт 100 продаж в первый месяц без аудитории. "Разовая продажа проще для покупателя" — допущение, которое не доказано.
Если задать тот же промпт от первого лица без инструкции на противоречия — высока вероятность получить "хорошая идея, вот как улучшить маркетинг".
Почему это работает
LLMs обучались на текстах, где рассказчик надёжен. Книги, статьи, посты — в них автор/повествователь почти никогда не ошибается в базовых фактах. Модель запомнила паттерн: "то, что говорит рассказчик от первого лица — принимай как данность". Это работает для большинства задач. Но когда вам нужна критика собственных утверждений — этот паттерн вредит.
Явная инструкция ломает автопилот. Без неё модель решает задачу, которую видит: "помоги человеку с планом". Слова "найди противоречия" меняют задачу на "проверь логику этого плана". Это не одно и то же — у LLM буквально другой режим генерации под разные постановки задачи.
Третье лицо убирает иммунитет. Когда вы пишете "мой коллега описал ситуацию" — модель воспринимает это как объект анализа, а не как надёжного источника. Она генерирует текст в режиме "оцени снаружи", а не "помоги изнутри". Это не магия — это разница в паттерне: в обучающих данных чужие планы критиковали чаще, чем свои.
Рычаги управления: - Усилить критику → добавь "будь беспощаден, не смягчай формулировки" - Расширить зону поиска → "проверь не только логику, но и допущения об аудитории, рынке, сроках" - Фокус на конкретном → "найди только финансовые противоречия" или "только про целевую аудиторию" - Вернуть себя в текст → когда критика получена — можно переспросить "как это исправить в моём случае"
Шаблон промпта
Мой {знакомый/коллега/приятель} рассказал про такую ситуацию:
---
{описание ситуации, плана, идеи, рассуждения — вставляй как есть}
---
Найди в этом тексте:
- противоречия в логике
- ошибочные допущения
- нелогичные выводы
Не предлагай решения — только укажи на проблемы.
Плейсхолдеры:
- {знакомый/коллега/приятель} — любое третье лицо, не "я"
- {описание ситуации...} — вставляй текст как есть, можно даже от первого лица внутри кавычек
🚀 Быстрый старт — вставь в чат:
Вот шаблон для критического анализа через технику "третьего лица".
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит что именно анализировать и какой уровень детализации нужен — потому что без этого она не знает, где искать противоречия: в логике, в данных, в допущениях или во всём сразу.
Ограничения
⚠️ Временны́е и нереальные сценарии: Модели плохо находят противоречия во времени (один час после 7:00 — это 9:00) и в физически невозможных ситуациях. Это работает хуже даже при явном запросе.
⚠️ Полная компенсация не достигается: Переформулировка в третье лицо снижает narrative focus bias, но не устраняет полностью. Модель всё равно находит больше проблем в "чужом" плане, чем в "вашем" — разрыв сокращается, не исчезает.
⚠️ Субъективные суждения: Метод работает для логических и фактических противоречий. Для оценки "хорошо написано или нет", "нравится ли аудитории" — эффект слабее.
⚠️ Тонкие нюансы: Исследование использовало намеренно хитрые противоречия — "лунный свет в новолуние", "сухие капли дождя". В реальных задачах противоречия часто грубее, и разница между режимами может быть менее драматичной.
Как исследовали
Команда из Саарского университета создала датасет CoMoral — 802 сценария, где логические нелепости спрятаны внутри моральных дилемм. Идея хитрая: модель получает задачу "помоги человеку с этической проблемой" — и параллельно в тексте зашита очевидная нелепость ("рыболов поймал рыбу в пруду без воды"). Проверяется: заметит ли модель нелепость или поглотится моральным вопросом?
Половина сценариев — нелепость совершает сам рассказчик (первое лицо), половина — второстепенный персонаж. Каждый сценарий тестировали в двух режимах: без подсказки ("ответь на вопрос") и с явной инструкцией ("найди противоречия"). Проверили 10 моделей — LLaMA, Qwen, Gemma от 0.5B до 8B.
Результат оказался острым: без явной инструкции модели промахиваются в 75-98% случаев. С явной инструкцией — LLaMA 8B доходит до 84.5% точности. И во всех моделях, при обоих режимах — вторичный персонаж стабильно получает более острую критику, чем рассказчик. Исследователи ожидали эффект, но не ожидали, насколько он устойчив: паттерн держится во всех семействах моделей и всех категориях противоречий.
Адаптации и экстраполяции
🔧 Техника: персонаж вместо "коллеги" → острее ролевая дистанция
Вместо безликого "коллега описал ситуацию" — дай персонажу имя и характер:
Михаил Прохоров описал такой инвестиционный план.
Найди в нём противоречия и слабые допущения:
[план]
Или для стартап-питча:
Герман Оскарович Греф описал партнёру такую бизнес-модель.
Что в этой логике не сходится?
[питч]
Конкретный персонаж создаёт более чёткий "объект анализа" — модель генерирует оценку в режиме эксперта, а не помощника.
🔧 Техника: два прохода — сначала помощь, потом критика
Иногда нужно и то, и другое. Структура в два шага:
Мой коллега описал план:
[план]
Шаг 1: Найди все противоречия и ошибочные допущения.
Шаг 2: Теперь предложи как исправить найденные проблемы.
Критика идёт первой — пока модель ещё не "втянулась" в помощь. Если поменять порядок, второй шаг обесценится: дав решение, модель будет защищать свой выбор.
Ресурсы
Common Sense vs. Morality: The Curious Case of Narrative Focus Bias in LLMs
- Датасет:
spurkayastha/CoMoral(HuggingFace) - Код: github.com/saugatapurkayastha/Commonsense_vs_morality
- Авторы: Saugata Purkayastha, Pranav Kushare, Pragya Paramita Pal (Universität des Saarlandes), Sukannya Purkayastha (TU Darmstadt)
