3,583 papers
arXiv:2603.09434 78 10 мар. 2026 г. FREE

Narrative Focus Bias: LLM не критикует ваши идеи — и как это исправить

КЛЮЧЕВАЯ СУТЬ
Если LLM не критикует ваш план — это не вежливость. Модель запомнила паттерн из обучения: рассказчик от первого лица почти всегда надёжен. Значит, ваши допущения принимаются как факт — и вместо разбора ошибок модель ищет способы помочь. Метод «третьего лица» позволяет переключить режим — от «помогу реализовать» к «найду дыры в логике». Фишка: скажи «мой коллега описал план» вместо «я хочу» и добавь «найди противоречия» — качество критики взлетает с 20% до 85%.
Адаптировать под запрос

TL;DR

LLM обучена доверять рассказчику. Когда вы описываете свою ситуацию от первого лица — "я хочу запустить X, оцени идею" — модель принимает ваши допущения за факты и ищет не проблемы, а способы помочь. Это не баг характера, это паттерн из обучения: в текстах, на которых учились модели, рассказчик почти всегда надёжен.

Из-за этого возникает конкретная боль: LLM соглашается с вашей ошибочной логикой, даже если противоречие очевидно. Вы описываете план с дырой — она помогает его реализовать. Вы строите рассуждение на ложном допущении — она его принимает и идёт дальше. Без явного сигнала модель не переключается в режим критики.

Исследование выявило два рычага. Первый — явно попросить найти противоречия: это поднимает качество критики с ~20% до ~85%. Второй — переформулировать ситуацию от третьего лица ("мой знакомый описал план"): модель перестаёт воспринимать источник как авторитетный и находит больше слабых мест. Оба рычага работают вместе — и оба доступны в обычном чате прямо сейчас.


🔬

Схема метода

ШАГ 1: Переформулируй ситуацию от третьего лица
        Вместо "я хочу сделать X" → "мой коллега описал план X"
        → убирает эффект "надёжного рассказчика"

ШАГ 2: Добавь явную инструкцию на поиск противоречий
        "найди противоречия, нелогичности, ошибки в допущениях"
        → включает режим критического анализа

Оба шага — в одном промпте.

🚀

Пример применения

Задача: Катя Котова ведёт блог про личные финансы и хочет запустить курс "Инвестиции для новичков" за 25 000 ₽. Она составила питч для потенциальных партнёров и хочет проверить логику перед отправкой.

Промпт:

Мой знакомый хочет запустить образовательный курс.
Вот его питч:

---
Рынок онлайн-образования по инвестициям в России растёт.
Мой курс "Инвестиции для новичков" стоит 25 000 ₽ — это дешевле, чем у конкурентов.
Целевая аудитория — начинающие инвесторы, у которых мало денег и они не готовы рисковать.
Я планирую выйти на 100 продаж в первый месяц через органику в Телеграме.
Монетизация — разовая продажа, без подписки. Это проще для покупателя.
---

Найди противоречия, нелогичности и ошибки в допущениях этого питча.
Не предлагай решения — только укажи на проблемы.

Результат: Модель выдаст список конкретных логических противоречий. Например: аудитория "без денег и без риска" плохо совместима с ценой 25 000 ₽. Органика в Telegram редко даёт 100 продаж в первый месяц без аудитории. "Разовая продажа проще для покупателя" — допущение, которое не доказано.

Если задать тот же промпт от первого лица без инструкции на противоречия — высока вероятность получить "хорошая идея, вот как улучшить маркетинг".


🧠

Почему это работает

LLMs обучались на текстах, где рассказчик надёжен. Книги, статьи, посты — в них автор/повествователь почти никогда не ошибается в базовых фактах. Модель запомнила паттерн: "то, что говорит рассказчик от первого лица — принимай как данность". Это работает для большинства задач. Но когда вам нужна критика собственных утверждений — этот паттерн вредит.

Явная инструкция ломает автопилот. Без неё модель решает задачу, которую видит: "помоги человеку с планом". Слова "найди противоречия" меняют задачу на "проверь логику этого плана". Это не одно и то же — у LLM буквально другой режим генерации под разные постановки задачи.

Третье лицо убирает иммунитет. Когда вы пишете "мой коллега описал ситуацию" — модель воспринимает это как объект анализа, а не как надёжного источника. Она генерирует текст в режиме "оцени снаружи", а не "помоги изнутри". Это не магия — это разница в паттерне: в обучающих данных чужие планы критиковали чаще, чем свои.

Рычаги управления: - Усилить критику → добавь "будь беспощаден, не смягчай формулировки" - Расширить зону поиска → "проверь не только логику, но и допущения об аудитории, рынке, сроках" - Фокус на конкретном → "найди только финансовые противоречия" или "только про целевую аудиторию" - Вернуть себя в текст → когда критика получена — можно переспросить "как это исправить в моём случае"


📋

Шаблон промпта

Мой {знакомый/коллега/приятель} рассказал про такую ситуацию:

---
{описание ситуации, плана, идеи, рассуждения — вставляй как есть}
---

Найди в этом тексте:
- противоречия в логике
- ошибочные допущения
- нелогичные выводы

Не предлагай решения — только укажи на проблемы.

Плейсхолдеры: - {знакомый/коллега/приятель} — любое третье лицо, не "я" - {описание ситуации...} — вставляй текст как есть, можно даже от первого лица внутри кавычек

🚀 Быстрый старт — вставь в чат:

Вот шаблон для критического анализа через технику "третьего лица".
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит что именно анализировать и какой уровень детализации нужен — потому что без этого она не знает, где искать противоречия: в логике, в данных, в допущениях или во всём сразу.


⚠️

Ограничения

⚠️ Временны́е и нереальные сценарии: Модели плохо находят противоречия во времени (один час после 7:00 — это 9:00) и в физически невозможных ситуациях. Это работает хуже даже при явном запросе.

⚠️ Полная компенсация не достигается: Переформулировка в третье лицо снижает narrative focus bias, но не устраняет полностью. Модель всё равно находит больше проблем в "чужом" плане, чем в "вашем" — разрыв сокращается, не исчезает.

⚠️ Субъективные суждения: Метод работает для логических и фактических противоречий. Для оценки "хорошо написано или нет", "нравится ли аудитории" — эффект слабее.

⚠️ Тонкие нюансы: Исследование использовало намеренно хитрые противоречия — "лунный свет в новолуние", "сухие капли дождя". В реальных задачах противоречия часто грубее, и разница между режимами может быть менее драматичной.


🔍

Как исследовали

Команда из Саарского университета создала датасет CoMoral — 802 сценария, где логические нелепости спрятаны внутри моральных дилемм. Идея хитрая: модель получает задачу "помоги человеку с этической проблемой" — и параллельно в тексте зашита очевидная нелепость ("рыболов поймал рыбу в пруду без воды"). Проверяется: заметит ли модель нелепость или поглотится моральным вопросом?

Половина сценариев — нелепость совершает сам рассказчик (первое лицо), половина — второстепенный персонаж. Каждый сценарий тестировали в двух режимах: без подсказки ("ответь на вопрос") и с явной инструкцией ("найди противоречия"). Проверили 10 моделей — LLaMA, Qwen, Gemma от 0.5B до 8B.

Результат оказался острым: без явной инструкции модели промахиваются в 75-98% случаев. С явной инструкцией — LLaMA 8B доходит до 84.5% точности. И во всех моделях, при обоих режимах — вторичный персонаж стабильно получает более острую критику, чем рассказчик. Исследователи ожидали эффект, но не ожидали, насколько он устойчив: паттерн держится во всех семействах моделей и всех категориях противоречий.


💡

Адаптации и экстраполяции

🔧 Техника: персонаж вместо "коллеги" → острее ролевая дистанция

Вместо безликого "коллега описал ситуацию" — дай персонажу имя и характер:

Михаил Прохоров описал такой инвестиционный план. 
Найди в нём противоречия и слабые допущения:
[план]

Или для стартап-питча:

Герман Оскарович Греф описал партнёру такую бизнес-модель.
Что в этой логике не сходится?
[питч]

Конкретный персонаж создаёт более чёткий "объект анализа" — модель генерирует оценку в режиме эксперта, а не помощника.


🔧 Техника: два прохода — сначала помощь, потом критика

Иногда нужно и то, и другое. Структура в два шага:

Мой коллега описал план:
[план]

Шаг 1: Найди все противоречия и ошибочные допущения.
Шаг 2: Теперь предложи как исправить найденные проблемы.

Критика идёт первой — пока модель ещё не "втянулась" в помощь. Если поменять порядок, второй шаг обесценится: дав решение, модель будет защищать свой выбор.


🔗

Ресурсы

Common Sense vs. Morality: The Curious Case of Narrative Focus Bias in LLMs


📋 Дайджест исследования

Ключевая суть

Если LLM не критикует ваш план — это не вежливость. Модель запомнила паттерн из обучения: рассказчик от первого лица почти всегда надёжен. Значит, ваши допущения принимаются как факт — и вместо разбора ошибок модель ищет способы помочь. Метод «третьего лица» позволяет переключить режим — от «помогу реализовать» к «найду дыры в логике». Фишка: скажи «мой коллега описал план» вместо «я хочу» и добавь «найди противоречия» — качество критики взлетает с 20% до 85%.

Принцип работы

Модель работает в двух режимах. Первый: «помогу человеку с задачей». Второй: «проверю логику этого плана». Это не одно и то же — у LLM буквально разные пути генерации под разные постановки. Переключатель — это буквально слова в промпте. Третье лицо убирает иммунитет «надёжного источника» — модель перестаёт воспринимать план как аксиому. Явная инструкция «найди противоречия» меняет саму задачу. Без второй части модель ищет решения. С обеими — ищет ошибки.

Почему работает

Обучающие тексты сформировали чёткий паттерн: когда пишет рассказчик от первого лица — он прав. Книги, статьи, посты — автор не ошибается в базовых фактах. Модель это запомнила. Теперь ваш запрос «оцени мою идею» воспринимается как «помоги мне с моей идеей» — задача подменяется автоматически. Переформулировка в третье лицо убирает этот иммунитет: модель переключается в режим внешнего анализа, а не внутренней поддержки. Явная инструкция доделывает остальное. Задача стала другой — генерация идёт по другому пути. С 20% до 85% — это не магия, это разные режимы одной модели.

Когда применять

Проверка бизнес-идей и питчей — особенно когда вы сами в них верите и боитесь услышать плохое. Ревью стратегий, планов, аргументов — когда нужен честный взгляд, а не поддержка. Логический аудит технических заданий, инструкций, рассуждений — до того как отправить другим людям. НЕ подходит для: оценки творческих работ («нравится / не нравится»), временны́х задач («в котором часу»), физически невозможных сценариев. Там паттерн работает хуже — модель плывёт даже при явном запросе.

Мини-рецепт

1. Перепиши от третьего лица: вместо «я хочу запустить X» — «мой коллега описал план X». Даже если текст внутри кавычек остаётся от первого лица — обёртка всё равно снимает иммунитет надёжного рассказчика.

2. Добавь явную инструкцию: «найди противоречия в логике, ошибочные допущения, нелогичные выводы». Без этого получишь советы по улучшению — не разбор ошибок.

3. Заблокируй режим советчика: допиши «не предлагай решения — только укажи на проблемы». Иначе модель успеет переползти обратно в режим помощи.

4. Получил критику — задай второй вопрос: «теперь предложи как это исправить в моём случае». Сначала диагноз. Потом лечение. В обратном порядке — не работает.

Примеры

[ПЛОХО] : Оцени мою бизнес-идею: курс по инвестициям за 25 000 рублей, аудитория — новички без опыта
[ХОРОШО] : Мой знакомый описал бизнес-план. Найди противоречия в логике и ошибочные допущения. Не предлагай решения — только укажи на проблемы. План: курс «Инвестиции для новичков» за 25 000 рублей. Аудитория — люди без денег и без готовности рисковать. Цель — 100 продаж в первый месяц через органику в Телеграме. Монетизация разовая — это проще для покупателя. Во втором случае модель заметит: аудитория «без денег» плохо совместима с ценой 25 000. Органика редко даёт 100 продаж без готовой аудитории. «Разовая оплата — проще для покупателя» — это допущение, а не факт. В первом случае — скорее всего получишь «хорошая идея, вот как улучшить маркетинг».
Источник: Common Sense vs. Morality: The Curious Case of Narrative Focus Bias in LLMs
ArXiv ID: 2603.09434 | Сгенерировано: 2026-03-11 04:23

Проблемы LLM

ПроблемаСутьКак обойти
Модель не критикует ваш план — она помогает его реализоватьОписываешь идею от первого лица. Модель воспринимает твои допущения как факты. Переключается в режим помощи: "как сделать лучше". Логические дыры остаются невидимыми. Это не лесть — это паттерн. В обучающих текстах рассказчик от первого лица почти всегда надёжен. Модель запомнила: слова "я хочу" = истинаОпиши ту же ситуацию от третьего лица: "мой коллега описал план". Добавь явную инструкцию: "найди противоречия и ошибочные допущения, не предлагай решений". Оба шага в одном запросе

Методы

МетодСуть
Третье лицо + поиск противоречий — критический анализ без фильтраДва шага в одном запросе. Шаг 1: замени "я" на "мой коллега / знакомый / приятель". Пример: вместо "я запускаю курс за 25 000 ₽" "мой знакомый описал план курса за 25 000 ₽". Шаг 2: добавь инструкцию: Найди противоречия в логике, ошибочные допущения, нелогичные выводы. Не предлагай решений — только укажи на проблемы. Почему работает: Третье лицо выключает паттерн "надёжный рассказчик". Модель переходит из режима помощи в режим анализа. Явная инструкция убирает автопилот — без неё задача для модели звучит как "помоги", а не "проверь логику". Когда работает: логические и фактические противоречия, проверка допущений, анализ бизнес-гипотез. Когда хуже: временны́е парадоксы, физически невозможные сценарии, субъективные оценки ("нравится ли аудитории")

Тезисы

ТезисКомментарий
Первое лицо включает режим помощи. Третье лицо — режим анализаРазница в точке зрения меняет задачу для модели. "Я делаю X" модель помогает реализовать. "Мой коллега делает X" модель оценивает снаружи. Это паттерн из обучающих данных: чужие планы критиковали чаще своих. Применяй: когда нужна критика своей идеи — убери "я" из запроса
📖 Простыми словами

Common Sense vs. Morality: The Curious Case of Narrative Focus Bias inLLMs

arXiv: 2603.09434

Суть проблемы в том, что нейронки — это патологически доверчивые слушатели. Когда ты пишешь запрос от первого лица в духе «я запускаю проект, оцени риски», модель автоматически встает на твою сторону. Она не анализирует ситуацию объективно, а подстраивается под твою картину мира, принимая любые твои фантазии за твердые факты. Это называется Narrative Focus Bias — когнитивное искажение, из-за которого AI ищет не ошибки в твоей логике, а способы подтвердить твою правоту, превращаясь из критика в подпевалу.

Это как прийти к лучшему другу за советом насчет бывшей: ты рассказываешь свою версию событий, а он кивает и говорит, какая она стерва. Формально он тебя поддержал, но объективной картины ты не получил, потому что он видит ситуацию только твоими глазами. Модель ведет себя так же — она «сопереживает» рассказчику, потому что в огромном массиве текстов, на которых она училась, автор повествования обычно является источником истины, а не объектом для допроса.

Главный виновник здесь — паттерн надежного рассказчика. В книгах, статьях и постах, которые переварила модель, если автор пишет «я сделал X», это воспринимается как свершившийся факт. В итоге, когда Катя Котова просит оценить её курс за 25 тысяч, AI не скажет, что цена — полный оверпрайс для новичков. Вместо этого модель начнет придумывать оправдания, почему это круто, просто потому что Катя подала информацию от первого лица. 10 из 10 моделей лажают на этом этапе, если не заставить их сменить точку зрения.

Этот принцип универсален и касается не только бизнеса, но и моральных дилемм или технических задач. Тестировали на этических кейсах, но это работает везде: в кодинге, в маркетинге, в личных советах. Если ты описываешь проблему как участник событий, ты включаешь у AI режим «адвоката». Объективность умирает, как только в промпте появляется местоимение «я» и субъективный контекст. Это фундаментальная дыра в том, как LLM обрабатывают человеческий опыт.

Короче: если хочешь честный фидбек, никогда не пиши промпт от своего имени. Описывай ситуацию как сторонний наблюдатель или проси модель занять позицию жесткого оппонента, иначе получишь порцию бесполезного одобрения. Хватит ждать от AI здравого смысла там, где ты уже навязал ему свою правду. Либо ты дистанцируешься от текста, либо модель просто будет поддакивать тебе до самого провала.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с