3,583 papers
arXiv:2509.25282 85 29 сент. 2025 г. FREE

К причинно-визуальному программированию: усиление агентивного мышления в средах с низким кодом

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM не понимает причинно-следственные связи — она путает корреляцию с причиной, отсюда галлюцинации и нелогичные ответы ("продажи мороженого растут → солнечные ожоги растут → мороженое вызывает ожоги"). Метод CVP позволяет создавать запросы, где модель не может свернуть на ложные ассоциации — вы буквально прописываете логические рельсы "что из чего следует". Вместо одного большого запроса вы строите цепочку шагов, где результат предыдущего — единственная причина для следующего, плюс явно запрещаете использовать популярные, но нерелевантные паттерны. Результат: резкое снижение галлюцинаций и рост точности за счет того, что модель перестает "творить" на основе статистики.
Адаптировать под запрос

Исследование показывает, что LLM-агенты часто ошибаются и "галлюцинируют", потому что они мыслят статистическими ассоциациями, а не реальными причинно-следственными связями. Авторы предлагают метод "Каузально-визуального программирования" (CVP), где пользователь сам задает логическую цепочку "что из чего следует", заставляя модель игнорировать ложные корреляции. Эксперимент доказывает, что такой подход резко повышает надежность и точность работы агента.

Ключевой результат: Принуждение LLM следовать заранее определенной пользователем причинно-следственной логике делает ее ответы значительно более надежными и устойчивыми к ошибкам.

Суть метода в том, чтобы перестать относиться к LLM как к разумному существу и начать видеть в ней мощную, но ограниченную "ассоциативную машину". Она отлично запомнила, что в текстах часто встречается вместе, но не понимает, почему. Например, модель может заметить, что рост продаж мороженого и число солнечных ожогов сильно коррелируют, и по ошибке решить, что одно вызывает другое. На самом деле, у них есть общая причина — жаркая погода.

Метод CVP предлагает пользователю взять на себя роль "наставника по логике". Вместо того чтобы давать модели свободу действий, вы явно прописываете для нее "мировую модель" вашей задачи — что является причиной, а что следствием.

С точки зрения промптинга, это означает переход от простого запроса ("Напиши маркетинговый план") к структурированной инструкции, которая имитирует каузальный граф:

  1. Определи Причину 1: "Моя целевая аудитория — это X".
  2. Определи Следствие 1 (из Причины 1): "Основываясь только на этой аудитории, определи ее главные проблемы и цели Y".
  3. Определи Следствие 2 (из Следствия 1): "Основываясь только на проблемах Y, предложи решения Z".
  4. Введи "отрицательное ограничение": "При этом не учитывай популярные, но нерелевантные для этой аудитории тренды, такие как A, B, C".

Вы буквально строите для модели рельсы, по которым должен двигаться ее "поезд мысли", и запрещаете ему сворачивать на пути, ведущие к ложным ассоциациям.

  • Прямая применимость: Пользователь может напрямую применять этот метод, структурируя свои промпты как пошаговый логический процесс. Вместо одного большого запроса, он разбивает его на этапы, где результат предыдущего шага является единственной причиной для следующего. Особенно полезно добавлять "отрицательные ограничения" — явные инструкции о том, какую информацию не следует использовать, чтобы отсечь ложные ассоциации.

  • Концептуальная ценность: Огромна. Пользователь начинает понимать, что LLM — не "черный ящик", а система, склонная к определенному типу ошибок (путать корреляцию и причину). Это знание позволяет предсказывать, где модель скорее всего ошибется, и заранее "подстилать соломку" в промпте, выстраивая жесткую логическую структуру.

  • Потенциал для адаптации: Механизм адаптации прост. Визуальный граф из исследования мы мысленно превращаем в текстовый план с нумерованными шагами или вложенными инструкциями. Роль "модулей" играют абзацы или секции промпта, а роль "стрелок" (каузальных связей) — фразы вроде "Основываясь на предыдущем пункте...", "Используя только что сгенерированный список...", "Исходя из определенной выше цели...".

Представим, что вы хотите составить план питания. Наивный промпт "Составь мне план питания для похудения" может выдать стандартный набор из куриной грудки и брокколи, основанный на популярных ассоциациях. Применим метод CVP.

# ЗАДАЧА: Разработать персонализированный план питания на 1 неделю

Ты — опытный диетолог, который строит рекомендации строго на основе причинно-следственных связей, а не на популярных трендах.

Следуй этому каузальному процессу шаг за шагом:

**Шаг 1: Определение Исходных Данных (Причина)**
Вот мои данные. Используй **только** их для всех последующих шагов.
*   **Цель:** Снижение веса на 1-2 кг в месяц (умеренный дефицит калорий).
*   **Ограничения:** Непереносимость лактозы, не люблю рыбу.
*   **Предпочтения:** Люблю курицу, индейку, гречку, овощи на гриле, азиатскую кухню (без сливок).
*   **Образ жизни:** Сидячая работа, 3 силовые тренировки в неделю.

**Шаг 2: Расчет Базовых Показателей (Следствие из Шага 1)**
Основываясь **только** на данных из Шага 1, рассчитай мою примерную дневную норму калорий и БЖУ (белки, жиры, углеводы) для достижения поставленной цели.

**Шаг 3: Формирование Продуктовой Корзины (Следствие из Шага 2)**
Основываясь на рассчитанных в Шаге 2 БЖУ и **учитывая ограничения и предпочтения** из Шага 1, составь список разрешенных и рекомендованных продуктов.

**Шаг 4: Создание Меню (Следствие из Шага 3)**
Используя **только** продукты из списка, сгенерированного в Шаге 3, разработай подробное меню на 7 дней (завтрак, обед, ужин, 1 перекус).

**Отрицательное Ограничение (ВАЖНО):**
*   **НЕ ВКЛЮЧАЙ** в план молочные продукты (сыр, йогурт, творог), даже если они популярны в диетах.
*   **НЕ ПРЕДЛАГАЙ** рецепты с рыбой.
*   **ИГНОРИРУЙ** модные диеты типа кето или палео, если они противоречат рассчитанным БЖУ. Твоя логика должна быть основана на научном подходе, а не на трендах.

Этот промпт работает, потому что он не дает модели свободы для "творчества", основанного на ее внутренних статистических ассоциациях.

  1. Каузальная Цепочка: Промпт выстроен как строгая последовательность: Данные -> Расчет КБЖУ -> Продуктовая корзина -> Меню. Модели запрещено "перепрыгивать" шаги или придумывать меню, не основанное на разрешенных продуктах.
  2. Изоляция Информации: Фразы "Основываясь только на..." действуют как "Марковское одеяло" из статьи, заставляя модель на каждом шаге использовать строго определенный набор информации и игнорировать все остальное, что она "знает" о диетах.
  3. Явный Запрет (Отрицательное Ограничение): Инструкции НЕ ВКЛЮЧАЙ и ИГНОРИРУЙ напрямую блокируют самые вероятные пути, по которым модель могла бы пойти, следуя ложным или нерелевантным ассоциациям (например, "похудение = творог на ужин"). Это предотвращает галлюцинации и нерелевантные предложения.

Задача: Подготовить контент-план для блога эксперта по публичным выступлениям.

# ЗАДАЧА: Создать контент-план для блога на 1 месяц

Ты — контент-стратег, который разрабатывает планы, строго основанные на анализе аудитории и ее болей.

Действуй по следующей причинно-следственной схеме:

**Этап 1: Определение Целевой Аудитории и ее Проблем (Первопричина)**
Наша целевая аудитория — это IT-специалисты (разработчики, тимлиды), которые хотят расти в карьере, но боятся выступать на конференциях и митапах.
Их ключевые проблемы:
*   Страх сцены, "синдром самозванца".
*   Неумение структурировать сложную техническую информацию в понятный доклад.
*   Боязнь каверзных вопросов из зала.

**Этап 2: Формулировка Ключевых Сообщений (Следствие из Этапа 1)**
Основываясь **только** на проблемах аудитории из Этапа 1, сформулируй 3-4 ключевых сообщения, которые должен транслировать наш блог. Например: "Выступать не страшно, если есть система", "Хороший доклад — это на 80% структура" и т.д.

**Этап 3: Разработка Рубрик Контента (Следствие из Этапа 2)**
Исходя **только** из ключевых сообщений, сгенерированных на Этапе 2, предложи 4 постоянные рубрики для блога.

**Этап 4: Генерация Конкретных Тем (Следствие из Этапа 3)**
Для каждой рубрики из Этапа 3, предложи по 2 конкретные темы для постов или видео.

**Отрицательное Ограничение (ВАЖНО):**
*   **НЕ ПРЕДЛАГАЙ** общие темы про "ораторское мастерство", "язык тела" или "актерские техники", если они не привязаны напрямую к специфике IT-докладов.
*   **ИГНОРИРУЙ** советы для политиков, стендап-комиков или мотивационных спикеров. Фокус — **только** на IT-специалистах.

Этот промпт эффективен, так как он заставляет LLM работать в узком, релевантном коридоре, отсекая массу популярных, но бесполезных для данной задачи ассоциаций.

  1. Специфичная "Мировая Модель": Промпт начинается с очень узкого определения аудитории и ее болей. Это создает "мир", в котором существует только IT-специалист, боящийся сцены. Все дальнейшие шаги должны происходить внутри этого мира.
  2. Принудительная Дедукция: Вместо того чтобы сразу генерировать темы ("что ассоциируется с публичными выступлениями?"), модель вынуждена идти по дедуктивной цепочке: Проблемы аудитории -> Ключевые сообщения для нее -> Рубрики, отражающие сообщения -> Темы внутри рубрик. Это гарантирует, что финальный контент будет бить точно в цель.
  3. Блокировка Штампов: "Отрицательное ограничение" прямо запрещает модели использовать заезженные темы из общего поля "ораторского искусства", которые нерелевантны для технарей. Это заставляет LLM генерировать более ценный и нишевый контент, а не пересказывать первую страницу поисковой выдачи.
📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да, предлагает высокоуровневую стратегию структурирования сложных задач (агентных потоков) через определение причинно-следственных связей, которую можно адаптировать для текстовых промптов.
  • B. Улучшение качества диалоговых ответов: Да, напрямую нацелено на снижение галлюцинаций и логических ошибок, что критически важно для качества ответов.
  • C. Прямая практическая применимость: Средняя. Метод требует специального low-code инструмента, которого у обычного пользователя нет. Однако сам принцип можно и нужно применять в текстовых промптах, что требует от пользователя адаптации и осмысления.
  • D. Концептуальная ценность: Очень высокая. Исследование раскрывает фундаментальное ограничение LLM — их неспособность к каузальному (причинно-следственному) мышлению и склонность полагаться на статистические ассоциации. Понимание этого — ключ к написанию более надежных промптов.
  • E. Новая полезная практика: Да, попадает в кластеры:
    • 1. Техники формулирования промптов (через декомпозицию и явное указание связей).
    • 2. Поведенческие закономерности LLM (объясняет природу ошибок из-за ложных корреляций).
    • 7. Надежность и стабильность (основная цель — борьба с галлюцинациями).
  • Чек-лист практичности (+15 баллов): Да, исследование показывает, как структурировать сложные запросы, раскрывает неочевидные особенности поведения LLM и предлагает способ улучшить точность ответов.
📌

Цифровая оценка полезности

Оценка 85 дана за огромную концептуальную ценность и практический потенциал, который, однако, требует от пользователя умственной работы по адаптации метода к текстовому формату.

Аргументы за оценку: * Фундаментальное знание: Идея о том, что LLM — это "ассоциативная машина, а не каузальная", является одним из самых важных инсайтов для любого продвинутого пользователя. Это объясняет, почему модель иногда выдает нелогичный бред, даже если он звучит правдоподобно. * Прямое влияние на надежность: Предложенный подход напрямую борется с галлюцинациями и нелогичностью — главной проблемой современных LLM. * Адаптируемость: Хотя CVP — это фреймворк, его основной принцип ("задай причинно-следственные связи и запрети использовать ложные корреляции") можно легко перенести в структуру сложного промпта.

Контраргументы (почему оценка могла быть ниже/выше): * Почему не 90+: Исследование описывает специализированный фреймворк (CVP) и low-code интерфейс, недоступный обычному пользователю в ChatGPT. Практическая польза извлекается не напрямую, а через адаптацию концепции, что требует усилий и понимания. Нет готовых фраз для копирования. * Почему не 65-70: Несмотря на отсутствие прямого инструмента, концептуальный прорыв, который это исследование дает пользователю, слишком велик. Оно не просто дает "любопытный факт", а меняет саму "ментальную модель" взаимодействия с LLM. Поняв это, пользователь начинает писать промпты совершенно на другом уровне, предвидя возможные ошибки модели.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с