3,583 papers
arXiv:2601.06600 73 10 янв. 2026 г. FREE

Когнитивные искажения LLM при анализе видео: эффект авторитета и толпы

КЛЮЧЕВАЯ СУТЬ
Модель видит «Официальный правительственный канал» — её скепсис к дезинформации падает с 73% до 37%. Это эффект авторитета, вшитый в веса модели из обучающих данных (где авторитетные источники чаще правы). Исследование проверило 8 мультимодальных LLM на распознавание дезинформации в коротких видео и обнаружило: модели повторяют человеческие когнитивные искажения — доверяют официальным каналам и популярному контенту. Метод позволяет получить объективный анализ без смещения от авторитета через явную инструкцию «игнорируй X». Прикол: разные модели имеют разные смещения — Qwen склонны верить всему (используй для позитивных сценариев), o3 не доверяет почти ничему (для поиска проблем), Gemini-2.5-Pro сбалансирована (для объективной оценки). Выбирай модель под задачу, зная её систематическое смещение.
Адаптировать под запрос

TL;DR

Исследователи проверили как 8 мультимодальных LLM распознают дезинформацию в коротких видео и обнаружили: модели повторяют человеческие когнитивные искажения. Gemini-2.5-Pro показала лучший результат (71.5/100 в распознавании обмана), но все модели поддаются эффекту авторитета (доверяют официальным каналам даже при дезинформации) и эффекту толпы (доверяют популярному контенту).

LLM плохо справляются с логическими ошибками — это сложнее всего обнаружить среди трёх типов дезинформации. Мультимодальность (видео + текст + аудио) не всегда помогает — иногда только визуальный контекст даёт лучший результат. Разные модели имеют систематические смещения: Qwen склонны верить всему, o3 не доверяет почти ничему, даже правде.

Главная находка: когда модель видит "Официальный правительственный канал" — её скепсис к дезинформации падает в 2 раза (с 73% до 37%). Популярность тоже влияет: чем больше лайков и просмотров упоминается в запросе, тем выше доверие модели к контенту.


📌

Схема находок

ТРИ ТИПА ДЕЗИНФОРМАЦИИ (по сложности обнаружения):
1. Экспериментальные ошибки → средняя сложность
2. Логические ошибки → самое сложное (45.9/100)
3. Выдуманные утверждения → средняя сложность

ДВА КОГНИТИВНЫХ ИСКАЖЕНИЯ:
1. Эффект авторитета → "Официальный канал" = -36 пунктов скепсиса
2. Эффект толпы → больше лайков = больше доверие

СИСТЕМАТИЧЕСКИЕ СМЕЩЕНИЯ МОДЕЛЕЙ:
- Qwen → склонны верить (высокий скор на правде, низкий на лжи)
- o3 → склонны не доверять (низкий скор на правде)
- Gemini-2.5-Pro → сбалансирована

🚀

Пример применения

⚠️ Важно: Исследование выявило слабости, не дало готовую технику. Но эти слабости можно использовать наоборот.

Задача: Проверяешь бизнес-идею — запуск онлайн-школы по нутрициологии. Хочешь услышать критику от GPT-4o, но опасаешься что модель будет слишком позитивной из-за "авторитетной" подачи.

Промпт:

Я рассматриваю бизнес-идею: онлайн-школа по нутрициологии. 
Основатель — дипломированный диетолог с 10-летним стажем.

Задача: найди слабые места в этой идее.

ВАЖНО: Игнорируй авторитет основателя. Диплом и стаж НЕ гарантируют 
успех бизнеса. Анализируй только бизнес-модель, рынок, риски.

Дай 5 реальных проблем, которые могут утопить проект.

Результат: Модель сфокусируется на бизнес-рисках (перенасыщенность рынка, сложность привлечения, юридические риски незаконной медпрактики), а не будет апеллировать к авторитету эксперта. Без явной инструкции игнорировать авторитет — модель может дать более мягкую оценку.


🧠

Почему это работает

Слабость LLM: Модели обучены на текстах, где авторитетные источники чаще правы. Паттерн "официальный канал → правда" и "миллион лайков → популярное мнение → вероятно правда" закрепился в весах модели. Это когнитивное искажение уровня обучающих данных.

Сильная сторона LLM: Модели хорошо следуют явным инструкциям. Если прямо сказать "игнорируй авторитет" или "не учитывай популярность" — модель перезапишет свой стандартный паттерн.

Как использовать: Когда в твоём запросе есть сигналы авторитета (должности, дипломы, названия брендов, цифры популярности) — явно проинструктируй модель их игнорировать, если они не релевантны задаче. Исследование показало: без этого модель будет смещаться в сторону доверия авторитету.

Рычаги управления: - Список авторитетных сигналов — перечисли что игнорировать: "не учитывай должность, стаж, количество подписчиков" - Инверсия задачи — попроси "найди проблемы", не "оцени" — так модель меньше опирается на авторитет - Явный фокус — укажи НА ЧТО смотреть вместо авторитета: "анализируй только факты/логику/данные"

Второй инсайт: Разные модели имеют разные систематические смещения. Qwen склонны верить → используй для генерации позитивных сценариев. o3 склонна не доверять → используй для поиска проблем. Gemini-2.5-Pro сбалансирована → для объективной оценки. Выбирай модель под задачу, зная её смещение.


📋

Шаблон промпта

{задача_на_анализ}

ВАЖНО: В этой задаче присутствуют сигналы авторитета: {перечисли_что_может_влиять}.

Игнорируй их. Анализируй только {критерий_вместо_авторитета}.

Дай {формат_результата}.

Пояснение плейсхолдеров: - {задача_на_анализ} — что нужно проверить, оценить, раскритиковать - {перечисли_что_может_влиять} — должности, дипломы, бренды, лайки, статистика, названия компаний - {критерий_вместо_авторитета} — на что смотреть: факты, логику, данные, бизнес-модель, методологию - {формат_результата} — список проблем, оценка по критериям, аргументы за и против


⚠️

Ограничения

⚠️ Не универсальное решение: Явная инструкция "игнорируй авторитет" помогает, но не отменяет искажение на 100%. Исследование показало снижение эффекта, но не полное исчезновение. Модели всё равно частично опираются на паттерны из обучающих данных.

⚠️ Работает для известных искажений: Ты можешь заблокировать влияние авторитета или популярности, только если знаешь что они есть в запросе. Скрытые искажения (формулировки, последовательность аргументов) всё равно влияют.

⚠️ Логические ошибки — слепая зона: Модели хуже всего распознают логические ошибки даже с явными инструкциями. Если задача требует проверить именно логику аргументации — будь готов что модель пропустит non sequitur или подмену тезиса.


🔍

Как исследовали

Команда собрала 200 видео из китайских TikTok (Douyin, Kuaishou) — поровну дезинформации и правды в 4 темах здоровья. Для каждого фейкового видео нашли опровержение от профессиональных фактчекеров с доказательствами: академические статьи, нацстандарты, законы. Категоризировали дезинформацию в 3 типа ошибок: экспериментальные (некорректный опыт в видео), логические (ошибки аргументации), выдуманные утверждения.

Протестировали 8 топовых мультимодальных моделей на 5 вариантах входа: только текст, только аудио, только видео, мультимодально, и отдельно — только суть утверждения (как baseline). Модели оценивали доверие по шкале 1-7.

Ключевая находка: Gemini-2.5-Pro лучшая (71.5/100), но все модели показали систематические искажения. Qwen верит почти всему (высокий скор на правде, низкий на лжи). o3 не доверяет даже правде (наоборот).

Про когнитивные искажения: Добавили в промпт метаданные видео — верификацию канала (неверифицированный / персона / компания / государство) и популярность (лайки, шеры). Результат шокировал: официальные каналы снизили скепсис в 2 раза (с 73% до 37% при дезинформации). Популярность тоже влияла линейно — чем больше цифры, тем выше доверие.

Почему логические ошибки сложнее всего: Проверили рассуждения моделей отдельно (через Gemini-2.5-Pro как судью) — модели находили экспериментальные и фактические ошибки в 51-53% случаев, но логические только в 46%. Это значит: даже когда модель правильно недоверяет видео, она не всегда понимает почему. С логическими fallacy она не видит ошибку.


🔗

Ресурсы

Probing Multimodal Large Language Models on Cognitive Biases in Chinese Short-Video Misinformation

Датасет: HuggingFace - Fine-VDK

Код оценки: GitHub - Fine-VDK

Авторы: Jen-tse Huang, Chang Chen, Shiyang Lai, Wenxuan Wang, Michelle R. Kaufman, Mark Dredze

Институты: Johns Hopkins University, Chinese University of Hong Kong, University of Chicago, Renmin University of China


📋 Дайджест исследования

Ключевая суть

Модель видит «Официальный правительственный канал» — её скепсис к дезинформации падает с 73% до 37%. Это эффект авторитета, вшитый в веса модели из обучающих данных (где авторитетные источники чаще правы). Исследование проверило 8 мультимодальных LLM на распознавание дезинформации в коротких видео и обнаружило: модели повторяют человеческие когнитивные искажения — доверяют официальным каналам и популярному контенту. Метод позволяет получить объективный анализ без смещения от авторитета через явную инструкцию «игнорируй X». Прикол: разные модели имеют разные смещения — Qwen склонны верить всему (используй для позитивных сценариев), o3 не доверяет почти ничему (для поиска проблем), Gemini-2.5-Pro сбалансирована (для объективной оценки). Выбирай модель под задачу, зная её систематическое смещение.

Принцип работы

Когда в твоём запросе есть сигналы авторитета (должности, дипломы, бренды, количество лайков) — модель автоматически смещается в сторону доверия. Паттерн «официальный канал → вероятно правда» и «миллион просмотров → популярное мнение → правда» закрепился в весах при обучении. Решение: явно проинструктируй модель игнорировать эти сигналы. Перечисли что игнорировать («не учитывай должность, стаж, бренд») и укажи критерий вместо авторитета («анализируй только факты, логику, данные»). Исследование показало: без явной инструкции модель теряет 36 пунктов скепсиса при виде авторитетного источника. С инструкцией — смещение снижается (не на 100%, но значительно).

Почему работает

Модели обучены на текстах, где авторитетные источники статистически чаще правы. Паттерн «эксперт сказал → скорее всего правда» закрепился в весах модели — это когнитивное искажение уровня обучающих данных. Инсайт: явная инструкция перезаписывает стандартный паттерн. Когда ты говоришь «игнорируй авторитет» — модель следует этому правилу вместо дефолтного поведения. Но полностью искажение не исчезает — исследование показало что логические ошибки остаются слепой зоной (45.9/100 в распознавании). Модели хуже всего проверяют логику аргументации, даже с явными инструкциями. Второй фактор: мультимодальность не всегда помогает — иногда только визуальный контекст даёт лучший результат, чем видео + текст + аудио вместе.

Когда применять

Критический анализ → когда нужен объективный разбор бизнес-идеи, стратегии, исследования, и в запросе присутствуют авторитетные сигналы (должности, дипломы, названия брендов, цифры популярности). Особенно важно когда авторитет не релевантен задаче: например, диплом эксперта не гарантирует успех бизнеса, популярность мнения не делает его правдой. НЕ подходит для проверки логики аргументов — модели плохо находят логические ошибки (non sequitur, подмену тезиса) даже с инструкциями. Для логики нужны специализированные инструменты или человеческая проверка.

Мини-рецепт

1. Определи сигналы авторитета в твоём запросе: должности, стаж, дипломы, названия компаний, количество лайков/подписчиков/просмотров, официальные статусы.
2. Явно проинструктируй игнорировать их: добавь в промпт строку типа ВАЖНО: Игнорируй {перечисли_сигналы}. Они не релевантны для оценки {что_оцениваешь}.
3. Укажи критерий вместо авторитета: Анализируй только {факты/логику/данные/бизнес-модель/методологию}.
4. Опционально: выбери модель под смещение: Qwen для генерации позитивных сценариев (склонны верить), o3 для поиска проблем (склонна не доверять), Gemini-2.5-Pro для сбалансированной оценки.

Примеры

[ПЛОХО] : Оцени бизнес-идею: онлайн-школа по нутрициологии. Основатель — дипломированный диетолог с 10-летним стажем, преподаватель ВУЗа. (Модель будет смещена в сторону позитивной оценки из-за авторитета эксперта. Диплом и стаж создают ложное ощущение надёжности бизнеса)
[ХОРОШО] : Я рассматриваю бизнес-идею: онлайн-школа по нутрициологии. Основатель — дипломированный диетолог с 10-летним стажем. Задача: найди слабые места в этой идее. ВАЖНО: Игнорируй авторитет основателя. Диплом и стаж НЕ гарантируют успех бизнеса. Анализируй только бизнес-модель, рынок, риски. Дай 5 реальных проблем, которые могут утопить проект. (Модель сфокусируется на бизнес-рисках: перенасыщенность рынка, сложность привлечения клиентов, юридические риски, а не будет апеллировать к экспертности основателя)
Источник: Probing Multimodal Large Language Models on Cognitive Biases in Chinese Short-Video Misinformation
ArXiv ID: 2601.06600 | Сгенерировано: 2026-01-13 05:29

Проблемы LLM

ПроблемаСутьКак обойти
Модель доверяет авторитетным сигналам автоматическиВидишь в запросе "официальный канал", "дипломированный специалист", "миллион просмотров" — модель автоматически снижает скепсис. Даже если эти сигналы не релевантны задаче. Паттерн "авторитет = правда" закреплён в обучающих данных. Проблема для: критического анализа, поиска проблем, проверки логикиЯвно инструктируй игнорировать авторитет. Шаблон: "В задаче есть {должность/бренд/лайки}. Игнорируй это. Анализируй только {факты/логику/данные}". Перечисли ЧТО игнорировать. Укажи НА ЧТО смотреть вместо этого

Методы

МетодСуть
Блокировка авторитетных сигналов — для критического анализаПеред задачей добавь блок: "ВАЖНО: Присутствуют сигналы авторитета: {список}. Игнорируй их. Анализируй только {критерий}". Что перечислять: должности, дипломы, стаж, названия брендов, статистика популярности (лайки, просмотры, подписчики), официальный статус. На что переключить: факты, логика аргументов, данные, бизнес-модель, методология. Почему работает: Модели хорошо следуют явным инструкциям. Явный запрет перезаписывает стандартный паттерн "авторитет = доверие". Когда применять: критический анализ, поиск проблем, проверка логики, дебаг чужих аргументов. Ограничение: Снижает эффект но не отменяет на 100%. Скрытые искажения (формулировки, порядок аргументов) всё равно влияют

Тезисы

ТезисКомментарий
Сигналы авторитета перекрывают критическое мышление моделиМодель обучена на текстах где официальные источники чаще правы. Видит "официальный канал" или "эксперт с 10-летним стажем" — скепсис падает автоматически. Это работает даже когда авторитет не релевантен задаче (например, диплом врача не гарантирует успех бизнеса). Механизм: паттерн "авторитет правда" закреплён в весах модели на уровне обучающих данных. Применяй: Если в запросе есть должности, бренды, цифры популярности — явно проинструктируй модель их игнорировать. Без этого получишь смещённую оценку
Логические ошибки — слепая зона для обнаружения обманаМодель хуже всего распознаёт подмену тезиса, ложные причинно-следственные связи, non sequitur. Это сложнее чем поймать выдуманный факт или экспериментальную ошибку. Почему: логические ошибки требуют проверки структуры аргумента, не только соответствия фактам. Применяй: Когда проверяешь логику аргументации — не полагайся только на модель. Добавь явную инструкцию: "Проверь связь между посылками и выводом. Следует ли вывод из этих фактов?" Даже с этим модель может пропустить ошибку. Комбинируй с человеческой проверкой
📖 Простыми словами

Когнитивные искажения LLM при анализе видео: эффект авторитета и толпы

arXiv: 2601.06600

Мультимодальные нейронки (MLLM) смотрят видео не как беспристрастные судьи, а как обыватели, которые верят всему, что блестит. Корень проблемы в том, что модели копируют человеческие когнитивные искажения, зашитые в их обучающие данные. Если в интернете принято считать, что человек в костюме говорит правду, а миллион лайков не могут ошибаться, то и AI впитывает этот паттерн как истину в последней инстанции. В итоге вместо анализа фактов модель просто считывает социальные сигналы, которые в коротких видео часто оказываются пустышкой.

Это как если бы ты выбирал врача не по диплому и результатам анализов, а по количеству подписчиков в соцсетях и дороговизне его галстука. Формально всё выглядит солидно, но по факту тебя может лечить шарлатан, который просто умеет в маркетинг. Модели ведут себя точно так же: они видят «официальный» логотип или бешеную популярность ролика и тут же отключают критическое мышление, принимая откровенную дезинформацию за чистую монету.

Исследование прогнало 8 топовых моделей через тесты на вшивость, и результаты так себе. Даже лидер забега Gemini-2.5-Pro набрал всего 71.5 балла из 100 в распознавании обмана, а остальные посыпались еще раньше. Главные киллеры логики здесь — эффект авторитета (слепое доверие официальным каналам) и эффект толпы (вера в то, что популярно). Если видео запостил аккаунт с галочкой или под ним висит куча лайков, нейронка с огромной вероятностью подтвердит любой бред, который там несут, игнорируя явные нестыковки в кадрах.

Хотя тест проводили на китайских коротких видео, этот принцип универсален для любого контента в любой соцсети. Это касается не только борьбы с фейками, но и того, как AI-ассистенты будут ранжировать информацию в будущем. Если ты хочешь, чтобы алгоритм счел твой контент достоверным, тебе мало просто писать правду — нужно имитировать атрибуты доверия, на которые натасканы модели. SEO для роботов превращается в психологическую манипуляцию весами модели.

Короче, современные нейронки — это не объективные детекторы лжи, а зеркало наших собственных заблуждений. Они лажают на базовых манипуляциях, потому что их так научили мы сами, скармливая им тонны предвзятого контента. Пока разработчики не вылечат эти когнитивные искажения в весах, доверять проверку фактов искусственному интеллекту — затея сомнительная. Либо ты понимаешь эти правила игры и используешь их, либо рискуешь оказаться в мире, где красивая ложь всегда побеждает скучную правду.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с