3,583 papers
arXiv:2603.14057 79 14 мар. 2026 г. FREE

DDC (Demand-Driven Context): строй базу знаний для AI через провалы, а не через документацию

КЛЮЧЕВАЯ СУТЬ
Парадокс: AI плохо вытаскивает нужное из большого документа о вашем бизнесе — но точно знает чего ему не хватает, когда проваливается на конкретной задаче. DDC позволяет накопить рабочую базу знаний об области — запуская модель на реальных задачах и заполняя только то, что она сама запросила. Фишка: не угадывай что объяснить — дай задачу, позволь модели составить чеклист пробелов, заполни только его. После 20-30 реальных задач 75% нового контекста уже есть в базе — накопление работает само.
Адаптировать под запрос

TL;DR

DDC — методология построения контекста, где сигналом для наполнения базы знаний служит не "запишем всё заранее", а провал AI на реальной задаче. Суть: сначала даёшь модели задачу, она ошибается, сама составляет список что ей нужно знать — ты заполняешь только этот список, и не больше.

Главная боль: если ты работаешь с ChatGPT или Claude по своей теме — продукту, рынку, процессам — модель даёт универсальные советы вместо точных ответов. Она не знает твою терминологию, правила, нюансы. Обычная реакция — написать большой документ "о компании" и вставить его в промпт. Проблема: ты не знаешь что именно важно, пишешь много лишнего, а нужного всё равно не хватает.

DDC переворачивает логику: вместо того чтобы угадывать что объяснить модели, ты даёшь ей задачу и просишь составить "чеклист пробелов" — список вопросов, ответы на которые нужны для точного решения. Заполняешь чеклист. Модель перезапускает задачу. Повторяешь 20-30 раз на разных реальных задачах — и к этому стогу знаний можно возвращаться снова и снова.


🔬

Схема метода

Один DDC-цикл (повторяется на каждой новой задаче):

ШАГ 1: Даёшь задачу модели → Первая попытка с нулевым/текущим контекстом
ШАГ 2: Просишь чеклист пробелов → Список: что терминология, что процессы, что данные
ШАГ 3: Заполняешь чеклист → Отвечаешь только на то, что спросила модель
ШАГ 4: Вторая попытка с новым контекстом → Проверяешь точность ответа
ШАГ 5: Принято? → Сохраняешь Q&A как постоянный контекст для будущих задач
        Отклонено? → Указываешь ошибку → возврат к шагу 2

Накопленный результат после 20-30 циклов: готовая база знаний по домену

Все шаги делаются в чате, через несколько запросов в одной или разных сессиях.


🚀

Пример применения

Задача: Максим открыл агентство интернет-маркетинга во ВКонтакте. Хочет, чтобы Claude помогал писать ответы на заявки потенциальных клиентов — но каждый раз Claude пишет что-то "среднее по больнице": без их кейсов, без конкретных цифр, без понимания как устроен их процесс работы. Максим решает запустить DDC-цикл.

Промпт (первый запрос в цикле):

Задача: напиши ответ на заявку клиента.

Клиент написал: "Нас интересует продвижение ВКонтакте для 
нашего фитнес-клуба в Екатеринбурге. Бюджет около 50 000 рублей 
в месяц. Сколько стоит работа и что входит?"

Попробуй составить ответ. Используй только общие знания — 
не выдумывай специфику нашего агентства.

После попытки составь "чеклист пробелов" по четырём разделам:
- Термины и понятия: что тебе нужно объяснить?
- Процессы: как у нас устроена работа с клиентами?
- Данные и факты: какие конкретные цифры/условия нужны?
- Правила: какие ограничения или принципы у нас есть?

Результат: Модель выдаст первый ответ — скорее всего обтекаемый и без конкретики. Затем составит структурированный чеклист: спросит про прайс, форматы услуг, типичные кейсы для фитнеса, условия договора, принципы ценообразования. Максим заполняет чеклист — только реальной информацией. Во втором запросе модель генерирует уже точный ответ с их цифрами и условиями. Сохранённые Q&A становятся контекстом для следующих задач.


🧠

Почему это работает

Слабость LLM: модель не знает твою специфику и не умеет "угадывать" что именно ей нужно из большого документа. Если дать 10 страниц о компании — модель прочитает всё, использует случайные куски, часть проигнорирует. Не потому что ленится — потому что не знает какие именно факты критичны для конкретной задачи.

Сильная сторона LLM: модель отлично умеет определять что именно ей не хватает для конкретной задачи. Когда она "застревает" на задаче — она точно знает какой информации не хватает. Это и есть рычаг.

Как метод использует это: DDC заставляет модель самую точно сформулировать свои пробелы — через реальную задачу, а не абстрактный вопрос "что вам рассказать о нас?" В исследовании из 9 циклов по инцидент-менеджменту первые циклы требовали по 8 новых единиц знания, последние — по 2. Накопленная база начала переиспользоваться: 75% знаний из 9-го цикла уже были в базе от предыдущих.

Рычаги управления: - Глубина чеклиста — попроси разбить на 4 категории (термины / процессы / данные / правила) для более структурированного результата - Строгость валидации — если ответ "почти правильный", уточни что именно неверно перед следующей попыткой; это ценнее чем принять "примерно ок" - Накопление — сохраняй заполненные Q&A в отдельном документе или системном промпте; это и есть растущая база знаний - Число циклов — авторы утверждают что 20-30 реальных задач покрывают домен. Для личного использования (фриланс, малый бизнес) достаточно 10-15


📋

Шаблон промпта

Задача: {конкретная задача}

Попробуй выполнить задачу. Используй только то, что знаешь в общем.

После попытки составь "чеклист пробелов" — что тебе нужно знать 
о моей специфике, чтобы выполнить задачу точно. 

Раздели чеклист на четыре части:
1. Термины и понятия — что нужно объяснить?
2. Процессы и системы — как что-то устроено у меня?
3. Данные и факты — какие конкретные цифры/условия нужны?
4. Правила и решения — какие у меня принципы/ограничения?

---

[Следующий запрос — после того как заполнил чеклист:]

Вот ответы на чеклист:
{твои ответы по каждому пункту}

Теперь выполни задачу заново с этим контекстом.

Что подставлять: - {задача} — реальная рабочая задача: написать письмо, составить КП, разобрать кейс, ответить клиенту - {твои ответы} — только то, о чём спросила модель. Не добавляй лишнего


🚀 Быстрый старт — вставь в чат:

Вот шаблон DDC-цикла. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить нужные поля.

[вставить шаблон выше]

LLM спросит какая у тебя конкретная задача и что уже есть в контексте — потому что без этого она не знает с чего начать первую попытку и какой чеклист составлять.


⚠️

Ограничения

⚠️ Требует времени на накопление: Один цикл — это минимум два запроса. Польза раскрывается после 10-15 циклов на разных задачах. Для разовой задачи проще написать контекст руками.

⚠️ Не заменяет экспертизу: В оригинальном исследовании человек-эксперт проверял каждый ответ модели. Если ты сам не знаешь правильного ответа — валидировать нечем. Метод работает когда знания есть у тебя, но не у модели.

⚠️ Провалы с выдумкой: В цикле 6 исследования модель уверенно сгенерировала несуществующий "pipeline репликации данных". Без проверки пользователем это ложное знание попало бы в базу. Всегда проверяй ответ модели перед сохранением в контекст.

⚠️ Контекст не переносится между сессиями автоматически: Сохранённые Q&A нужно самому копировать в системный промпт или начало новых чатов. В Claude это можно сделать через Project Instructions, в ChatGPT — через Custom Instructions или память.


🔗

Ресурсы

Работа: "Demand-Driven Context: A Methodology for Building Enterprise Knowledge Bases Through Agent Failure"

Авторы: Raj Navakoti, Saideep Navakoti

GitHub с примерами и артефактами: https://github.com/ea-toolkit/ddc

Упомянутые концепции: Test-Driven Development (Beck, 2002), Reflexion (Shinn et al., 2023), ExpeL (Zhao et al., 2024), ACE / Agentic Context Engineering (Zhang et al., 2026), термин "context engineering" (Karpathy, 2025)


📋 Дайджест исследования

Ключевая суть

Парадокс: AI плохо вытаскивает нужное из большого документа о вашем бизнесе — но точно знает чего ему не хватает, когда проваливается на конкретной задаче. DDC позволяет накопить рабочую базу знаний об области — запуская модель на реальных задачах и заполняя только то, что она сама запросила. Фишка: не угадывай что объяснить — дай задачу, позволь модели составить чеклист пробелов, заполни только его. После 20-30 реальных задач 75% нового контекста уже есть в базе — накопление работает само.

Принцип работы

Попросить AI прочитать 10 страниц о вашем бизнесе и вытащить нужное — это как дать повару кулинарную энциклопедию вместо списка покупок. Он прочитает всё. Но не знает что именно у вас в холодильнике. DDC переворачивает логику: сначала показываешь холодильник через реальную задачу — потом модель сама составляет список покупок. Это работает потому что поставить диагноз пробелу — то, что AI умеет хорошо. А вот отобрать релевантное из большого текста — то, где он плывёт.

Почему работает

AI не игнорирует ваш большой документ — он честно его читает. Но без конкретной задачи не знает что из 10 страниц окажется критичным, а что — фоновым шумом. Когда он работает над реальной задачей — он точно понимает где застрял. Провал на конкретной задаче точнее любого заранее написанного документа показывает реальные пробелы. Данные из исследования: первые циклы запрашивали по 8 новых единиц знания, последние — уже по 2. База начала переиспользоваться сама. Не потому что модель стала умнее — потому что ей перестало чего-то не хватать.

Когда применять

Регулярная работа с AI в своей нише → для накопления контекста о продукте, процессах, терминологии — особенно когда модель выдаёт «универсальные советы» вместо точных ответов по вашей теме. Хорошо подходит: фриланс, малый бизнес, специалисты с узкой экспертизой. Не подходит для разовых задач — ценность появляется после 10-15 циклов, до этого проще написать контекст руками.

Мини-рецепт

1. Дай реальную задачу: не выдуманную, а ту с которой реально работаешь. Попроси первую попытку без знания вашей специфики.
2. Запроси чеклист пробелов: после попытки — список что модели нужно знать. Раздели на 4 части: термины, процессы, данные, правила.
3. Заполни только то, о чём спросила: не добавляй лишнего. Только ответы на конкретные вопросы из чеклиста.
4. Запусти повторно: дай модели заполненный чеклист и попроси переделать задачу. Проверь — это уже должен быть точный ответ.
5. Сохрани Q&A: весь диалог вопрос-ответ из чеклиста — в отдельный документ или системный промпт. Это и есть база знаний. В Claude — через Project Instructions, в ChatGPT — через Custom Instructions.
6. Повторяй на следующих задачах: через 10-15 циклов заметишь что модель всё реже спрашивает новое — база начала работать.

Примеры

[ПЛОХО] : Напиши ответ на заявку от фитнес-клуба с бюджетом 50 тысяч рублей
[ХОРОШО] : Напиши первый вариант ответа на заявку от фитнес-клуба. Бюджет клиента — 50 тысяч рублей в месяц. Используй только общие знания, не выдумывай нашу специфику. После попытки составь чеклист пробелов по четырём разделам: 1. Термины и понятия — что нужно объяснить? 2. Процессы — как устроена наша работа с клиентами? 3. Данные и факты — какие конкретные цифры и условия нужны? 4. Правила — какие у нас принципы или ограничения? [Второй запрос — после заполнения чеклиста]: Вот ответы на твой чеклист: {твои ответы по каждому пункту}. Теперь напиши ответ на заявку заново с этим контекстом.
Источник: Demand-Driven Context: A Methodology for Building Enterprise Knowledge Bases Through Agent Failure
ArXiv ID: 2603.14057 | Сгенерировано: 2026-03-17 04:28

Проблемы LLM

ПроблемаСутьКак обойти
Большой контекст не помогает модели найти нужноеДаёшь подробный документ о компании или процессе. Модель читает всё — но использует куски случайно. Не потому что ленится. Она не знает какие именно факты критичны для конкретной задачи. Универсальная ловушка: чем больше контекст — тем размытее результатНе пиши контекст заранее. Дай модели реальную задачу. Попроси составить список: что именно ей нужно знать. Заполняй только этот список

Методы

МетодСуть
Чеклист пробелов — точный контекст через задачуДва запроса вместо одного. Первый: дай задачу и попроси выполнить "с общими знаниями". Сразу попроси список пробелов в четырёх разделах: термины / процессы / факты и цифры / правила и ограничения. Второй: заполни только то, о чём спросила модель. Запусти задачу заново. Попробуй выполнить задачу. После попытки составь чеклист пробелов — что тебе нужно знать о моей специфике. Раздели на четыре части: термины, процессы, данные, правила. Почему работает: Модель точно знает чего ей не хватает для конкретной задачи. Но не знает что тебе важно в абстрактном документе. Реальная задача даёт точный прицел. Когда применять: регулярные задачи в своей нише — ответы клиентам, разборы кейсов, составление предложений. Когда не работает: разовая задача без повторений — проще написать контекст руками

Тезисы

ТезисКомментарий
Модель точнее называет свои пробелы через задачу, чем через вопросСпроси абстрактно: "Что вам рассказать о нас?" — получишь общие категории. Дай реальную задачу — получишь точный список конкретных вопросов именно для неё. Механика: задача активирует конкретный контекст, модель видит точно где "не хватает опоры". Применяй: вместо "что вам объяснить?" давай реальную задачу и спрашивай чеклист пробелов
📖 Простыми словами

Demand-Driven Context: A Methodology for Building Enterprise Knowledge Bases ThroughAgentFailure

arXiv: 2603.14057

Традиционный подход к базам знаний для нейросетей — это попытка впихнуть в модель библиотеку имени Ленина в надежде, что она там сама разберется. Но LLM работают иначе: они не умеют эффективно фильтровать гигантские объемы данных «на всякий случай». Когда ты скармливаешь модели простыню текста, она начинает гадать, какие факты важны, а какие — мусор, и в итоге выдает среднюю по больнице чушь. Методология Demand-Driven Context (DDC) переворачивает игру: мы не даем нейронке знания заранее, мы ждем, пока она эпично облажается, и используем этот провал как точный ТЗ на доработку контекста.

Это как пытаться выучить весь ПДД и устройство автомобиля, ни разу не садясь за руль — ты вроде все знаешь, но в первом же кювете окажешься. DDC предлагает другой путь: садись и едь, а когда заглохнешь на перекрестке, разберись именно в том, почему заглох. Это обучение через факапы: модель сама говорит, какого именно «пазла» ей не хватило, чтобы решить конкретную задачу, и ты даешь ей только этот кусочек, а не весь склад запчастей.

На практике это выглядит как жесткий фильтр: вместо того чтобы описывать агентство маркетинга от сотворения мира, ты даешь Claude задачу ответить клиенту. Модель лажает, пишет воду, и ты спрашиваешь: «Чего тебе не хватило?». Она выдает список: нужны кейсы по недвижке, прайс на таргет и сроки запуска. Ты заполняешь только эти пробелы. В итоге база знаний растет не вширь, а вглубь, превращаясь в хирургически точный инструмент, где нет ни одного лишнего слова, которое могло бы сбить модель с толку.

Хотя метод тестировали на корпоративных базах, принцип контекста по требованию применим везде: от настройки личного ассистента до написания кода. Вместо того чтобы тратить недели на структурирование документации, которую никто (и AI в том числе) не прочитает целиком, нужно внедрять итеративный цикл. Ошибка агента — это не повод для расстройства, а самый дешевый и быстрый способ понять, что на самом деле важно для работы. Меньше данных — выше точность, если эти данные поданы вовремя.

Короче, хватит работать архивариусом и собирать пыльные фолианты «про запас». Нужно строить систему, которая учится на своих косяках и запрашивает информацию только тогда, когда без нее реально нельзя сделать шаг. DDC превращает провал в навигатор, и это единственный способ не утопить нейронку в океане бесполезного корпоративного контента. Кто продолжит кормить AI гигабайтами мусора, тот так и будет получать на выходе «галлюцинации и вежливую воду».

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с