TL;DR
DDC — методология построения контекста, где сигналом для наполнения базы знаний служит не "запишем всё заранее", а провал AI на реальной задаче. Суть: сначала даёшь модели задачу, она ошибается, сама составляет список что ей нужно знать — ты заполняешь только этот список, и не больше.
Главная боль: если ты работаешь с ChatGPT или Claude по своей теме — продукту, рынку, процессам — модель даёт универсальные советы вместо точных ответов. Она не знает твою терминологию, правила, нюансы. Обычная реакция — написать большой документ "о компании" и вставить его в промпт. Проблема: ты не знаешь что именно важно, пишешь много лишнего, а нужного всё равно не хватает.
DDC переворачивает логику: вместо того чтобы угадывать что объяснить модели, ты даёшь ей задачу и просишь составить "чеклист пробелов" — список вопросов, ответы на которые нужны для точного решения. Заполняешь чеклист. Модель перезапускает задачу. Повторяешь 20-30 раз на разных реальных задачах — и к этому стогу знаний можно возвращаться снова и снова.
Схема метода
Один DDC-цикл (повторяется на каждой новой задаче):
ШАГ 1: Даёшь задачу модели → Первая попытка с нулевым/текущим контекстом
ШАГ 2: Просишь чеклист пробелов → Список: что терминология, что процессы, что данные
ШАГ 3: Заполняешь чеклист → Отвечаешь только на то, что спросила модель
ШАГ 4: Вторая попытка с новым контекстом → Проверяешь точность ответа
ШАГ 5: Принято? → Сохраняешь Q&A как постоянный контекст для будущих задач
Отклонено? → Указываешь ошибку → возврат к шагу 2
Накопленный результат после 20-30 циклов: готовая база знаний по домену
Все шаги делаются в чате, через несколько запросов в одной или разных сессиях.
Пример применения
Задача: Максим открыл агентство интернет-маркетинга во ВКонтакте. Хочет, чтобы Claude помогал писать ответы на заявки потенциальных клиентов — но каждый раз Claude пишет что-то "среднее по больнице": без их кейсов, без конкретных цифр, без понимания как устроен их процесс работы. Максим решает запустить DDC-цикл.
Промпт (первый запрос в цикле):
Задача: напиши ответ на заявку клиента.
Клиент написал: "Нас интересует продвижение ВКонтакте для
нашего фитнес-клуба в Екатеринбурге. Бюджет около 50 000 рублей
в месяц. Сколько стоит работа и что входит?"
Попробуй составить ответ. Используй только общие знания —
не выдумывай специфику нашего агентства.
После попытки составь "чеклист пробелов" по четырём разделам:
- Термины и понятия: что тебе нужно объяснить?
- Процессы: как у нас устроена работа с клиентами?
- Данные и факты: какие конкретные цифры/условия нужны?
- Правила: какие ограничения или принципы у нас есть?
Результат: Модель выдаст первый ответ — скорее всего обтекаемый и без конкретики. Затем составит структурированный чеклист: спросит про прайс, форматы услуг, типичные кейсы для фитнеса, условия договора, принципы ценообразования. Максим заполняет чеклист — только реальной информацией. Во втором запросе модель генерирует уже точный ответ с их цифрами и условиями. Сохранённые Q&A становятся контекстом для следующих задач.
Почему это работает
Слабость LLM: модель не знает твою специфику и не умеет "угадывать" что именно ей нужно из большого документа. Если дать 10 страниц о компании — модель прочитает всё, использует случайные куски, часть проигнорирует. Не потому что ленится — потому что не знает какие именно факты критичны для конкретной задачи.
Сильная сторона LLM: модель отлично умеет определять что именно ей не хватает для конкретной задачи. Когда она "застревает" на задаче — она точно знает какой информации не хватает. Это и есть рычаг.
Как метод использует это: DDC заставляет модель самую точно сформулировать свои пробелы — через реальную задачу, а не абстрактный вопрос "что вам рассказать о нас?" В исследовании из 9 циклов по инцидент-менеджменту первые циклы требовали по 8 новых единиц знания, последние — по 2. Накопленная база начала переиспользоваться: 75% знаний из 9-го цикла уже были в базе от предыдущих.
Рычаги управления: - Глубина чеклиста — попроси разбить на 4 категории (термины / процессы / данные / правила) для более структурированного результата - Строгость валидации — если ответ "почти правильный", уточни что именно неверно перед следующей попыткой; это ценнее чем принять "примерно ок" - Накопление — сохраняй заполненные Q&A в отдельном документе или системном промпте; это и есть растущая база знаний - Число циклов — авторы утверждают что 20-30 реальных задач покрывают домен. Для личного использования (фриланс, малый бизнес) достаточно 10-15
Шаблон промпта
Задача: {конкретная задача}
Попробуй выполнить задачу. Используй только то, что знаешь в общем.
После попытки составь "чеклист пробелов" — что тебе нужно знать
о моей специфике, чтобы выполнить задачу точно.
Раздели чеклист на четыре части:
1. Термины и понятия — что нужно объяснить?
2. Процессы и системы — как что-то устроено у меня?
3. Данные и факты — какие конкретные цифры/условия нужны?
4. Правила и решения — какие у меня принципы/ограничения?
---
[Следующий запрос — после того как заполнил чеклист:]
Вот ответы на чеклист:
{твои ответы по каждому пункту}
Теперь выполни задачу заново с этим контекстом.
Что подставлять:
- {задача} — реальная рабочая задача: написать письмо, составить КП, разобрать кейс, ответить клиенту
- {твои ответы} — только то, о чём спросила модель. Не добавляй лишнего
🚀 Быстрый старт — вставь в чат:
Вот шаблон DDC-цикла. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить нужные поля.
[вставить шаблон выше]
LLM спросит какая у тебя конкретная задача и что уже есть в контексте — потому что без этого она не знает с чего начать первую попытку и какой чеклист составлять.
Ограничения
⚠️ Требует времени на накопление: Один цикл — это минимум два запроса. Польза раскрывается после 10-15 циклов на разных задачах. Для разовой задачи проще написать контекст руками.
⚠️ Не заменяет экспертизу: В оригинальном исследовании человек-эксперт проверял каждый ответ модели. Если ты сам не знаешь правильного ответа — валидировать нечем. Метод работает когда знания есть у тебя, но не у модели.
⚠️ Провалы с выдумкой: В цикле 6 исследования модель уверенно сгенерировала несуществующий "pipeline репликации данных". Без проверки пользователем это ложное знание попало бы в базу. Всегда проверяй ответ модели перед сохранением в контекст.
⚠️ Контекст не переносится между сессиями автоматически: Сохранённые Q&A нужно самому копировать в системный промпт или начало новых чатов. В Claude это можно сделать через Project Instructions, в ChatGPT — через Custom Instructions или память.
Ресурсы
Работа: "Demand-Driven Context: A Methodology for Building Enterprise Knowledge Bases Through Agent Failure"
Авторы: Raj Navakoti, Saideep Navakoti
GitHub с примерами и артефактами: https://github.com/ea-toolkit/ddc
Упомянутые концепции: Test-Driven Development (Beck, 2002), Reflexion (Shinn et al., 2023), ExpeL (Zhao et al., 2024), ACE / Agentic Context Engineering (Zhang et al., 2026), термин "context engineering" (Karpathy, 2025)
