TL;DR
LLM значительно лучше распознаёт манипуляцию в графике, если ты сам поднимаешь уровень подозрения — не просто просишь «проанализируй», а говоришь «это misleading, найди как» или даже «вот конкретные ошибки, объясни риторику». Исследование True (VIS) Lies протестировало 16 мультимодальных моделей на 2336 твитах с COVID-графиками и выявило, что стратегия промптинга — это ключевой рычаг, а не только «умность» модели.
Главная проблема: если просто загрузить подозрительный график и написать «что думаешь?», модель часто генерирует похожий по звучанию текст вне зависимости от того, врёт ли график или нет. UMAP-проекция объяснений моделей буквально показала одно облако точек — модели пишут примерно одинаково о misleading и non-misleading визуализациях. Причина: без контекста «смотри критически» модель не включает режим анализа манипуляции — она просто описывает что видит.
Метод — три условия нарастающей подсказки. Condition A: просто анализ без предупреждений. Condition B: сказать модели «эта визуализация misleading — найди как». Condition C: дать конкретные ошибки и попросить объяснить через риторические техники. Каждый уровень разблокирует другой режим мышления модели. Отдельно — два фреймворка из исследования: 5 типов визуальной риторики и 9 типов авторского умысла, которые превращаются в готовые чеклисты для промпта.
Схема метода
УСЛОВИЕ A (базовое)
Загрузить график → "Проанализируй эту визуализацию. Есть ли что-то,
что может вводить в заблуждение?"
→ Модель описывает, что видит + может заметить очевидные проблемы
УСЛОВИЕ B (активированное подозрение)
Загрузить график → "Эта визуализация создана с манипулятивным умыслом.
Найди какие риторические техники используются"
→ Модель ищет конкретные паттерны обмана
УСЛОВИЕ C (анкерное объяснение) — самое мощное
Загрузить график → Дать конкретные ошибки (обрезанная ось, cherry-picking...)
→ Попросить объяснить через риторические стратегии
→ Модель связывает конкретные ошибки с намерением автора
Всё — в одном промпте в один запрос (один шаг)
Пример применения
Задача: Ты видишь в Telegram-канале «Незыгарь» или РБК-подобном источнике график с заголовком «Инфляция снизилась до минимума за 5 лет» — но что-то кажется не так. Загружаешь в Claude или ChatGPT-4o.
Промпт (Условие B + фреймворк):
Вот скриншот графика из публичного источника. Эта визуализация создана
с намерением убедить читателя в определённой точке зрения.
Проанализируй её через пять типов визуальной риторики:
1. Information Access Rhetoric — какие данные включены или намеренно пропущены?
2. Provenance Rhetoric — как источники и методология используются для
придания доверия?
3. Mapping Rhetoric — как данные переведены в визуальные элементы
(масштаб, ось, цвет), чтобы создать нужное впечатление?
4. Linguistic-Based Rhetoric — как заголовок, подписи и аннотации
направляют интерпретацию?
5. Procedural Rhetoric — что выделено по умолчанию, что спрятано?
Затем укажи наиболее вероятный авторский умысел из списка:
Intentional: Claim-Supporting Manipulation / Bias Exploitation /
Context Distortion / Deliberate Reader Confusion / Selective Reporting
Unintentional: Aesthetic-Driven Misrepresentation / Lack of Visualization
Literacy / Space/Format Constraints / Unintentional Context Omission
Объясни свой выбор.
Результат: Модель структурно пройдёт по каждой из пяти риторических техник, укажет конкретные элементы графика — где ось обрезана, какой контекст пропущен, как заголовок направляет вывод до того как смотришь на данные. В конце — оценка умысла: намеренная манипуляция или некомпетентность автора. Вместо расплывчатого «тут есть проблемы» ты получишь структурированный разбор по конкретным категориям.
Почему это работает
Без подсказки модель в режиме «описание», а не «детектив». Когда ты просто загружаешь график и спрашиваешь что думаешь — модель генерирует нейтральный описательный текст. Она «видит» то, что ожидает увидеть. Исследование показало: модели давали похожие объяснения и для misleading и для честных графиков — просто потому что не было сигнала искать обман.
Фреймворк создаёт структурные «крючки» для внимания. Когда ты называешь пять типов риторики — модель получает конкретные категории, под которые надо подобрать примеры из графика. Это не магия — это то, как работает любой структурированный промпт: ты задаёшь пространство поиска, модель его заполняет.
Таксономия умысла переключает режим с «что не так» на «почему так сделано». Это отдельный важный уровень. Найти ошибку — одно. Понять намеренная она или случайная — другое. Давая модели список из 9 типов, ты просишь её сделать инференцию (логический вывод из косвенных признаков), а не просто описание. Модели с этим справляются — но только если явно попросить.
Рычаги управления: - Условие B → C: добавь конкретные ошибки (обрезанная ось, cherry-picking) → модель объяснит механизм на конкретном примере, а не абстрактно - Убери список умыслов → модель изобретёт свои категории (иногда интересно, но менее надёжно) - Добавь «Оцени уверенность от 1 до 10 для каждого типа риторики» → получишь приоритизацию, а не просто список
Шаблон промпта
Вот изображение с визуализацией данных. {описание контекста: откуда взято,
какой нарратив продвигает}.
{Выбери уровень:}
[УСЛОВИЕ B] Эта визуализация создана с намерением убедить читателя.
[УСЛОВИЕ C] Эта визуализация содержит следующие ошибки: {список ошибок}.
Проанализируй через пять типов визуальной риторики:
1. Information Access — какие данные включены или намеренно пропущены?
2. Provenance — как источник и методология используются для придания
доверия или создания иллюзии надёжности?
3. Mapping — как данные переведены в визуальные элементы (масштаб,
ось, цвет, размер), чтобы усилить или исказить впечатление?
4. Linguistic — как заголовок, подписи и аннотации направляют вывод
ещё до того как данные изучены?
5. Procedural — что выделено по умолчанию, что скрыто или спрятано?
Затем определи наиболее вероятный авторский умысел:
Intentional:
- Claim-Supporting Manipulation (хочет протолкнуть нарратив)
- Bias Exploitation (использует когнитивные искажения)
- Context Distortion (убирает контекст, нужный для честной интерпретации)
- Deliberate Reader Confusion (усложняет, чтобы сбить с толку)
- Selective Reporting (показывает только удобное подмножество данных)
Unintentional:
- Aesthetic-Driven Misrepresentation (красота важнее точности)
- Lack of Visualization Literacy (автор не знал как правильно)
- Space/Format Constraints (технические ограничения)
- Unintentional Context Omission (забыл добавить важный контекст)
Объясни выбор с опорой на конкретные элементы {изображения/графика}.
Что подставлять:
- {описание контекста} — откуда скриншот, какой вывод он продвигает
- {список ошибок} — для Условия C: обрезанная ось Y, отсутствие базовой линии, нет источника данных, cherry-picking временного периода
🚀 Быстрый старт — вставь в чат:
Вот шаблон анализа misleading-визуализаций. Адаптируй под мою задачу:
[опиши что за график и откуда]. Задавай вопросы чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит какой уровень условия использовать (B или C) и есть ли уже известные ошибки в графике — потому что от этого зависит режим анализа: идентификация vs анкерное объяснение.
Ограничения
⚠️ Нужен мультимодальный LLM: Только модели с поддержкой изображений — ChatGPT-4o, Claude 3.5+, Gemini. Текстовые модели не подойдут.
⚠️ Смещение в сторону "всё misleading": Модели склонны находить манипуляцию даже там где её нет — особенно в Условии B. UMAP-анализ показал: объяснения для честных и нечестных графиков семантически похожи. Если модель что-то нашла — это повод изучить, не приговор.
⚠️ Умысел сложнее риторики: Определить НАМЕРЕННА ли манипуляция — существенно труднее, чем найти конкретные риторические техники. Даже эксперты-люди расходятся. Вывод модели про умысел — гипотеза, а не факт.
⚠️ Условие C требует экспертизы: Чтобы дать модели «конкретные ошибки» (Условие C) — их надо сначала самому найти или знать. Если ты в графике не разбираешься, начни с Условия B, потом доуточняй.
⚠️ Слабо работает для коротких и простых графиков: Метод раскрывается на сложных многослойных визуализациях с заголовками и подписями. Простая столбчатая диаграмма без контекста не даст богатого анализа.
Как исследовали
Команда собрала 2336 COVID-19 твитов — ровно половина с misleading-графиками, половина без. Дополнили 130 примерами из VisLies — это ежегодное мероприятие IEEE VIS, где эксперты по визуализации собирают «коллекцию лжи в графиках». Затем прогнали через 16 моделей — от маленьких 12B до гигантских 1000B параметров, плюс GPT-5.4 как proprietary baseline. Провели параллельно пользовательское исследование с 11 экспертами — чтобы было с чем сравнивать.
Самый интригующий результат — UMAP-проекция (метод визуализации кластеров по смысловой близости): объяснения моделей для misleading и non-misleading визуализаций образовали одно слитное облако точек. Это значит — без подсказки «будь подозрителен» модели пишут один и тот же тип текста вне зависимости от реального содержания. Это как попросить детектива «опиши это место» вместо «найди улики» — он опишет красиво, но не то что нужно.
Зато нашли любопытный кластер: твиты с COVID-трендами разных стран, где Швеция использовалась для дебатов о локдаунах. Почти все модели правильно определили там Information Access Rhetoric — cherry-picking стран и временных окон. Значит, когда паттерн очевидный и хорошо известный, модели справляются даже без подсказки.
Оригинал из исследования
Исследователи использовали три условия для экспериментов. Вот структура условий как они описаны в статье:
Condition A: Model receives NO information about misleadingness
→ Task: Open-ended analysis — must decide itself if visualization
is misleading and characterize why
Condition B: Model is TOLD that the visualization IS misleading
→ Task: Rhetorical identification — knows something is wrong,
must locate communicative strategies responsible
Condition C: Model told it's misleading AND receives SPECIFIC ERROR LIST
→ Task: Anchored explanation — errors are known, must reason
how they connect to broader rhetorical strategies
Five Rhetorical Techniques (Hullman & Diakopoulos):
1. Information Access Rhetoric — data inclusion/omission decisions
2. Provenance Rhetoric — source citations, methodological transparency
3. Mapping Rhetoric — data-to-visual translation (position, size, scale, color)
4. Linguistic-Based Rhetoric — titles, labels, annotations, captions
(metaphor, irony, rhetorical questions)
5. Procedural Rhetoric — interactivity design, default views, filters, animations
Контекст: Это дизайн шести экспериментов (три для RQ1 риторика × три для RQ2 умысел) на 16 моделях.
Адаптации и экстраполяции
💡 Адаптация для текстов, не графиков
Тот же принцип трёх условий работает для текстовых аргументов и статей. Замени «визуальная риторика» на «текстовая риторика»:
Вот текст из {источника}: {текст} Этот текст написан с намерением убедить читателя в {позиции}. Проанализируй через риторические техники: 1. Information Access — что включено, что пропущено из картины? 2. Provenance — как используются ссылки на авторитеты и источники? 3. Framing — как выбор слов и метафор направляет интерпретацию? 4. Linguistic — какие риторические приёмы (риторические вопросы, повторы, эмоционально заряженные слова) использованы? 5. Structural — что выделено в начале/конце, что закопано в середине? Определи: это намеренная манипуляция или непреднамеренное искажение?
🔧 Техника: добавить уверенность к каждому типу риторики
Добавь одну строку в промпт:
Для каждого типа риторики оцени уверенность от 1 до 5 — насколько
явно этот паттерн присутствует в визуализации.
Эффект: Вместо равновесного списка получишь приоритизацию — где манипуляция наиболее выраженная. Полезно когда надо написать краткое резюме, а не разбирать все пять техник подробно.
🔧 Техника: красные флаги вместо полного анализа
Быстрый вариант для скрининга — без глубокого погружения в риторику:
Посмотри на этот график. Перечисли только RED FLAGS — конкретные
элементы дизайна, которые указывают на манипуляцию.
Без объяснений, без риторики — просто список: "ось Y начинается не
с нуля", "временной период обрезан", "нет источника данных" и т.д.
Если флагов нет — скажи "clean".
Эффект: Быстрый скрининг за секунды. Полный анализ только если флаги нашлись.
Ресурсы
True (VIS) Lies: Analyzing How Generative AI Recognizes Intentionality, Rhetoric, and Misleadingness in Visualization Lies
Датасет, LLM-выходы и веб-эксплорер результатов: https://github.com/XAIber-lab/truevislies
Авторы: Graziano Blasilli (Sapienza University of Rome) и Marco Angelini (Link Campus University, Rome, Italy)
Риторическая рамка: Hullman & Diakopoulos, «Visualization Rhetoric»
Таксономия ошибок визуализации: Lisnic et al. (14 типов: 7 design violations + 7 reasoning errors)
