TL;DR
Когда вы отправляете график в ChatGPT или Claude и пишете «опиши что видишь» — модель не рассказывает историю данных. Она перечисляет: значения, диапазоны, сравнения между отдельными точками. Это называется структурное перечисление — и это устойчивая стратегия всех трёх топовых моделей (GPT, Claude, Gemini).
Парадокс в том, что человек читает тренды, а LLM читает координаты. Человек смотрит на линейный график и говорит «продажи резко упали в марте, потом медленно восстановились». LLM говорит «значение X=2 составляет 45, X=3 — 31, X=4 — 35, X=5 — 38». Это не ошибка, это дефолтный режим. Модель натренирована читать данные точно, не интерпретировать их нарративно.
Из этого вытекают два практических следствия. Первое: стандартный запрос «опиши график» даёт плоский список — ему нужна явная инструкция синтезировать тренд. Второе: LLM неожиданно хорошо справляется с ролью «проверщика кодов дизайнера» — понимает, что именно автор хотел сказать графиком, точнее, чем среднестатистический читатель.
Схема метода
Исследование описывает три условия промптинга при анализе графиков:
PC0 (свободный): "Опиши что ты видишь на графике"
→ Длинное структурное перечисление, модель выдаёт всё подряд
PC1 (сжатый): "Опиши в 2-3 предложениях"
→ Короче, но та же структура: сравнения и диапазоны
PC2 (экстремальный синтез): "В одном предложении — главное"
→ Модель вынуждена выбрать самый важный паттерн
Все три выполняются в одном запросе. PC2 — самый полезный для получения сути.
Пример применения
Задача: Вы готовите квартальный отчёт для команды в Яндекс.Практикуме. Есть график динамики конверсии по неделям — нужно понять, какую историю он рассказывает, и написать вывод для презентации.
Промпт:
Вот график динамики конверсии по неделям за Q1.
Шаг 1 — Один факт: В одном предложении напиши
ГЛАВНЫЙ ТРЕНД этого графика. Не перечисляй значения —
опиши движение и характер изменений.
Шаг 2 — Нарратив: В 2-3 предложениях расскажи
историю этих данных — что происходило, был ли перелом,
чем всё закончилось.
Шаг 3 — Проверка намерения: Я хочу, чтобы этот график
показывал рост после просадки в феврале.
Он это коммуницирует? Что усилить в дизайне или подписи?
[вставить график]
Результат: В Шаге 1 модель выдаст одно предложение с кинетикой данных — «конверсия падала первые 4 недели, затем начала восстанавливаться». Шаг 2 — связный нарратив с причинно-следственной логикой. Шаг 3 — оценка: соответствует ли визуализация вашему замыслу, и конкретные рекомендации (добавить аннотацию, поменять цвет линии).
Почему это работает
Дефолтный режим LLM — это точность, не нарратив. Модель обучена на данных, где правильный ответ — это точное считывание значений. Попросите «что на графике» — получите отчёт бухгалтера, не колонку аналитика.
Но у LLM есть неочевидная сила — она хорошо понимает замысел автора. Исследование показало, что LLM точнее людей угадывает, что именно дизайнер хотел донести графиком. Люди отвлекаются на форму и цвет. LLM смотрит на структуру данных и быстро находит «ключевое сообщение».
PC2 — это не просто ограничение на длину. Когда вы принуждаете модель к одному предложению, она не может позволить себе перечисление. Она вынуждена иерархизировать — выбрать один самый весомый паттерн и сформулировать его. Это принудительная расстановка приоритетов.
Рычаги управления: - «Не перечисляй значения» — явный запрет дефолтного режима. Без него модель вернётся к координатам. - «Расскажи историю» — слово «история» запускает нарративный режим вместо аналитического. - «Я хотел показать X — я достиг цели?» — переключает LLM в режим дизайн-ревью, где она неожиданно сильна. - Один шаг = один запрос к синтезу — несколько шагов в промпте дают разные углы на один и тот же график.
Шаблон промпта
Перед тобой график. Выполни три шага:
Шаг 1 — Главный тренд (1 предложение):
Не перечисляй значения. Опиши движение данных —
есть ли рост, спад, перелом, платo.
Назови характер изменений.
Шаг 2 — История данных (2-3 предложения):
Расскажи что происходило в {временной период / по категориям}.
Был ли переломный момент? Чем заканчивается?
Шаг 3 — Проверка намерения:
Я хочу, чтобы этот график коммуницировал: {твой замысел}.
Достигает ли он цели? Что в дизайне или подписях стоит усилить?
[вставить график или его описание]
Плейсхолдеры:
- {временной период / по категориям} — «за Q1», «по регионам», «по возрастным группам»
- {твой замысел} — «что продукт растёт быстрее рынка», «что февраль был аномальным провалом»
🚀 Быстрый старт — вставь в чат:
Вот шаблон для анализа графиков через три шага: тренд, история,
проверка намерения. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит какой замысел вы вкладывали в график и за какой период данные — потому что без этого не сможет выполнить Шаг 3 (проверку дизайнерского намерения), а это самый ценный шаг.
Ограничения
⚠️ Нарратив — только если явно попросить: Без инструкции «рассказывай историю» / «не перечисляй значения» модель возвращается к структурному перечислению в большинстве случаев.
⚠️ Цифровые данные на графике: LLM лучше работает с линейными и столбчатыми графиками. Со скаттерплотами (точечными облаками) — хуже. Корреляции и кластеры она считывает менее надёжно.
⚠️ Текстовые подписи влияют: Исследование намеренно убрало реальные подписи с осей, чтобы изолировать визуальное восприятие. В реальных графиках с подписями LLM частично опирается на текст, а не только на форму.
⚠️ Высокий когнитивный состав — риск галлюцинаций: При сложных juxtaposed-графиках (несколько панелей рядом) растёт вероятность частичных ошибок.
Как исследовали
Команда из POSTECH и Университета Оклахомы взяла 60 графиков из настоящей дата-журналистики — от изданий вроде NYT и The Economist — но заменила все реальные подписи и данные на синтетические. Это изолировало визуальное восприятие от «я знаю что происходило с COVID в 2021». GPT-4o, Claude Sonnet 4 и Gemini 2.5 Flash описывали каждый график в трёх режимах: свободно, в 2-3 предложениях, в одном предложении. Ответы сравнивали с описаниями 24 реальных людей.
Для оценки использовали сразу два фрейма: таксономию Блума (насколько глубокое понимание?) и набор статистических задач (тренды? сравнения? аномалии?). Дополнительно три живых кодировщика оценивали «верность дизайну» — понял ли интерпретатор, что автор хотел показать.
Самое неожиданное: LLM почти не меняла стратегию между свободным и сжатым форматом. Даже в одном предложении Gemini и GPT всё равно перечисляли. Люди под давлением переходили к тезисному тренду — модели нет. Зато по «верности намерению дизайнера» LLM обогнали среднего человека: они точнее считывали что именно автор хотел донести.
Адаптации и экстраполяции
🔧 Техника: «Роль нарратора» → смена регистра описания
Вместо инструкции «не перечисляй» — дай модели роль:
Ты — колумнист Forbes, который объясняет сложные данные
простым языком. Посмотри на этот график и напиши лид
для колонки — 2 предложения, без единой цифры,
только суть что происходит.
Роль нарратора принудительно отключает «режим бухгалтера» — модель начинает генерировать текст по паттерну нарративного стиля, а не аналитического перечисления.
🔧 Обратная задача: LLM пишет график, который ты должен нарисовать
Если у тебя есть тезис, но нет данных — используй LLM как «дизайнера визуализации в обратную сторону»:
Я хочу показать аудитории следующее:
{твой тезис о данных}.
Опиши: какой тип графика лучше всего донесёт эту идею,
что должно быть на осях, какой момент нужно выделить
визуально, какую подпись добавить чтобы намерение
считывалось правильно.
Это работает потому что исследование показало: LLM хорошо понимает «намерение дизайнера» и может работать в обратном направлении — от намерения к рекомендациям по дизайну.
Ресурсы
How Do LLMs See Charts? A Comparative Study on High-Level Visualization Comprehension in Humans and LLMs EuroVis 2026 / Computer Graphics Forum, Volume 45 (2026), Number 3
Авторы: Hyotaek Jeon, Hyunwook Lee, Minjeong Shin, Tapendra Pandey, Joohee Kim, Shinwook Seon, Daeun Jeong, Sungahn Ko, Ghulam Jilani Quadri
Институты: POSTECH (Южная Корея), Soongsil University, Australian National University, University of Oklahoma, UNIST
Опирается на: Bloom's Taxonomy [BEF'56], Statistical Tasks Framework [AES05], датасет визуализаций [QWW'24]
