TL;DR
Когда нужно создать сложный, взаимосвязанный контент (мир, персонажи, сюжет, задачи), один промпт неизбежно даёт разваливающийся результат — элементы не стыкуются, персонажи живут в вакууме, события противоречат друг другу. Метод решает это через цепочку зависимых стадий: каждый следующий промпт получает структурированный вывод всех предыдущих и строится поверх него.
Главная боль — "нарративный дрейф": попросишь сгенерировать мир и квесты за один раз или двумя несвязанными запросами — получишь логически несовместимые куски. Персонаж, которого ты придумал позже, не знает об организациях из мира, придуманного раньше. Задача ссылается на локацию, которой нет на карте. Модель генерирует каждый элемент как изолированный артефакт, потому что не держит в голове живую связь между ними.
Решение — принудительная структурная зависимость: после каждой стадии фиксируешь вывод в структурированном виде (JSON или чёткий список), а в следующий промпт вставляешь его целиком как контекст. Финальная находка — двухуровневое планирование: сначала глобальный план (все квесты разом, их связи и порядок), потом детальная проработка каждого по отдельности. Это разделяет "смотреть на лес" и "смотреть на дерево" — и модель не путает уровни.
Схема метода
Все стадии — отдельные запросы. Вывод каждой стадии полностью вставляется в следующий промпт:
СТАДИЯ 1: Глобальный контекст (мир / тема / рамка)
→ вывод в структурированном виде [список, JSON, таблица]
СТАДИЯ 2: Окружение (NPC / игроки / stakeholders)
→ получает: Стадия 1
→ вывод в структурированном виде
СТАДИЯ 3: Главный герой / протагонист
→ получает: Стадия 1 + Стадия 2
→ вывод в структурированном виде
СТАДИЯ 4: Глобальный план (все задачи/арки разом)
→ получает: Стадия 1 + 2 + 3
→ вывод: список задач с зависимостями и связями
СТАДИЯ 5 (повторяется для каждой задачи):
Детальная проработка одной задачи
→ получает: Стадия 1 + 2 + 3 + 4 + конкретная задача из Стадии 4
→ вывод: полная детализация
Пример применения
Задача: Придумать вселенную для сезона подкаста — 6 выпусков о вымышленном стартапе "Точка невозврата". Нужно чтобы персонажи, конфликты и сюжетные повороты складывались в единую историю, а не рассыпались от эпизода к эпизоду.
Промпт (Стадия 1 — мир):
Ты — сценарист документального подкаста. Создай структуру вселенной
для сезона о стартапе "Точка невозврата" (EdTech, Москва, 2023–2024).
Верни строго в формате:
- Название стартапа и суть продукта (2-3 предложения)
- Этап развития (pre-seed / seed / раунд A / etc.)
- Ключевые события фона: что происходит на рынке, что давит на компанию
- Главные противоречия мира: 3 напряжённости, которые будут двигать историю
- Ключевые локации: где происходит действие
Промпт (Стадия 2 — персонажи):
[ВСТАВЬ ВЫВОД СТАДИИ 1 ПОЛНОСТЬЮ]
На основе этого мира создай 4 ключевых персонажа подкаста.
Для каждого:
- Имя, роль в компании
- Мотивация (чего хочет)
- Секрет (что скрывает)
- Отношения с другими персонажами (конфликты / союзы)
Промпт (Стадия 4 — глобальный план сезона):
[ВСТАВЬ ВЫВОД СТАДИЙ 1+2+3 ПОЛНОСТЬЮ]
Спланируй структуру сезона: 6 эпизодов.
Для каждого эпизода:
- Название и центральный конфликт
- Какие персонажи в фокусе
- Что раскрывается впервые
- Как этот эпизод зависит от предыдущего и влияет на следующий
Все 6 эпизодов — в одном ответе.
Убедись что они образуют единую дугу, а не набор независимых историй.
Результат: Каждая стадия получает всё, что было до неё. К Стадии 4 модель "держит" весь мир, всех персонажей и главного героя — и строит план сезона, в котором персонажи ведут себя последовательно, а сюжетные повороты не противоречат друг другу. После Стадии 4 — берёшь каждый эпизод по отдельности и детализируешь: диалоги, факты, развязки.
Почему это работает
Проблема: Модель генерирует контент "здесь и сейчас" — она не удерживает живую связь между элементами, созданными в разных запросах. Если персонаж и мир придуманы порознь, они существуют в параллельных реальностях. Модель не "помнит" связи — она их воссоздаёт заново каждый раз.
Сила модели: Когда в промпте есть явный структурированный контекст, модель отлично следует ему и строит новый контент поверх него. Ей не нужно "додумывать" связи — они заданы явно. Структурированный вывод (список, JSON) лучше передаёт связи, чем сплошной текст — меньше потерь при переносе между запросами.
Как метод использует это: Вместо того чтобы надеяться на "память" или делать всё в одном гигантском промпте, каждый шаг принудительно получает всё нужное явно. Двухуровневое планирование — сначала все задачи разом (чтобы видеть глобальную связь), потом детализация каждой отдельно — убирает самую частую ошибку: модель "закапывается" в детали одного элемента и теряет нить общей истории.
Рычаги управления: - Количество стадий → добавь или убери слои под свою задачу (убрал персонажей — получил двухэтапный pipeline) - Формат вывода → JSON даёт меньше потерь при переносе, список — проще читать глазами - Что передавать → можно передавать не весь вывод, а только ключевые поля (для экономии токенов) - Отдельность детализации → на Стадии 5 каждый элемент прорабатывается независимо — это значит можно переделать один, не трогая остальные
Шаблон промпта
Шаблон для запуска стадии:
[КОНТЕКСТ ИЗ ПРЕДЫДУЩИХ СТАДИЙ]
--- Мир ---
{вставь структурированный вывод стадии 1}
--- Персонажи ---
{вставь структурированный вывод стадии 2}
--- Главный герой / протагонист ---
{вставь структурированный вывод стадии 3}
---
Теперь выполни задачу следующей стадии.
Твоя задача: {описание задачи стадии}
Формат вывода:
{список полей или JSON-схема}
Важно: все созданные элементы должны явно опираться
на контекст выше — ссылаться на уже существующих
персонажей, локации и события.
Что подставлять:
- {вставь вывод стадии N} → копируй вывод предыдущего промпта целиком
- {описание задачи стадии} → что именно создаём на этом шаге (персонажи / план / детализация)
- {список полей} → что должен вернуть ответ (можешь попросить LLM предложить схему под твою задачу)
🚀 Быстрый старт — вставь в чат:
Вот шаблон многостадийного pipeline для создания
взаимосвязанного контента. Адаптируй под мою задачу: {твоя задача}.
Предложи 4-5 стадий, схему зависимостей и форматы вывода для каждой.
[вставить шаблон выше]
LLM спросит, что именно ты создаёшь и какой конечный результат нужен — потому что без этого она не сможет правильно выстроить порядок стадий и что передавать между ними. Она возьмёт структуру зависимостей и адаптирует под твою задачу.
Ограничения
⚠️ Объём контекста растёт: К последним стадиям в промпте накапливается много текста из предыдущих шагов. В длинных проектах это может съедать лимит контекста. Решение — передавать только ключевые поля, а не весь вывод.
⚠️ Структура требует дисциплины: Нужно каждый раз вручную копировать вывод одного запроса в следующий. Если пропустишь стадию или вставишь неполный вывод — связность рассыплется.
⚠️ Не для простого контента: Если задача не требует взаимосвязи элементов (написать один текст, ответить на вопрос) — это избыточно. Метод раскрывается только при сложных многоуровневых задачах.
⚠️ Качественная (не количественная) оценка: Исследование проверяли люди по субъективным критериям, а не автоматически. Это значит нет точных цифр прироста качества — только экспертные суждения.
Как исследовали
Команда из Гданьского технологического университета взяла GPT-5 (без дообучения) и прогнала его через пятиступенчатый pipeline несколько раз подряд, каждый раз с нуля. Сравнивали с однопромптовым подходом — когда весь RPG-контент просишь сгенерировать за раз. Оценивали люди по критериям: структурная полнота, внутренняя согласованность, нарративная связность, разнообразие, "геймплейная пригодность" — то есть можно ли в это реально играть.
Интересная деталь дизайна: квест-стадия специально разбита на две — сначала все квесты планируются разом (чтобы не потерять глобальную дугу), потом каждый прорабатывается отдельно. Исследователи заметили, что именно это разделение дало главный прирост: когда квесты генерировались по одному без глобального плана, они получались логически изолированными. Когда сначала был план — они складывались в историю.
Ключевой вывод, который удивил авторов: качество не деградирует с ростом сложности. Чем больше стадий пройдено и чем больше контекста накоплено, тем лучше становятся поздние стадии — а не хуже, как можно было ожидать. Это подтверждает: структурированные зависимости помогают модели, а не перегружают её.
Адаптации и экстраполяции
Принцип за пределами RPG
Зависимая цепочка работает для любого контента с иерархической структурой:
🔧 Бизнес-документация → Brand Bible: Бренд-платформа → Тон голоса → Персонажи аудитории → Контентная стратегия → Конкретные посты. Каждый шаг получает все предыдущие.
🔧 Онлайн-курс: Портрет аудитории + боли → Программа курса (все модули разом) → Детализация каждого модуля отдельно. Двухуровневое планирование точь-в-точь как в оригинале.
🔧 Детективная история / сценарий: Мир → Действующие лица (с секретами и связями) → Хронология событий (все сразу) → Детализация каждой сцены. Секреты персонажей, заложенные на Стадии 2, автоматически прорастают в сцены Стадии 4.
Минимальная версия (2 стадии вместо 5)
Если выбираешь между "можно ли урезать pipeline до минимума":
СТАДИЯ 1: Создай {тема/сущность} в структурированном виде.
Верни: [поле 1], [поле 2], [поле 3]
СТАДИЯ 2:
[вставь вывод стадии 1]
На основе этого контекста создай {следующий уровень}.
Все элементы должны явно опираться на данные выше.
Даже два зависимых запроса дают заметно более связный результат, чем один большой или два несвязанных.
Ресурсы
From World-Gen to Quest-Line: A Dependency-Driven Prompt Pipeline for Coherent RPG Generation
Dominik Borawski, Marta Szulc, Robert Chudy, Małgorzata Giedrowicz, Piotr Mironowicz
Gdańsk University of Technology
Corresponding author: borawskid@icloud.com
Смежные работы, упоминаемые в статье: QuestVille (NPC-квесты), PANGeA (нарративная генерация для turn-based RPG), CONAN engine (планировщик квестов через NPC-мотивации)
