TL;DR
DeepNews — агентный workflow для создания глубоких длинных текстов (финансовая аналитика, расследования), который борется с "гладкостью" и поверхностностью LLM через три механизма: насыщенную загрузку контекста (10:1 к длине выхлопа), структурные схемы из экспертного опыта и adversarial промптинг — намеренное разрушение статистической гладкости модели.
Исследователи обнаружили Knowledge Cliff — обрыв правдивости при недостатке контекста. Когда входной контекст меньше 15 000 символов, Hallucination-Free Rate (доля статей без выдумок) составляет 40%. Модель заполняет логические пробелы выдумками. Причина: LLM обучены на RLHF выдавать "усреднённый безопасный ответ" из распределения вероятностей. Для длинного сложного текста этого недостаточно — получается "правильная бессмыслица": грамматически верно, стилистически ровно, но без инсайтов и с скрытыми фактическими ошибками. Нужен минимум в 10 раз больше контекста чем длина итогового текста, чтобы модель имела достаточно фактов для триангуляции (проверки одного факта через несколько источников).
При 30 000+ символах входа (соотношение 10:1) HFR подскакивает до 85% — модель переходит от "открытого сочинительства" к "сжатию фактов". Второй механизм — schema-guided planning: вместо абстрактного "напиши статью" система активирует готовые структурные шаблоны из экспертного опыта (например, "Игра двух компаний: Давление А → Ответ Б → Путь передачи"). Третий — adversarial prompting: инструкции, которые ломают гладкость — требуют чередовать длинные и короткие предложения, избегать явных связок ("поэтому", "однако"), смешивать профессиональный язык с разговорным. Это создаёт "шероховатость" и burstiness — характерную черту экспертного текста.
Схема подхода
ФАЗА 1: Tri-Stream Foraging (поиск по трём потокам)
├─ Экологический поток → контекст (партнёры, конкуренты, цепочки)
├─ Количественный поток → факты (финансовые данные, отчёты, показатели)
└─ Нарративный поток → история (события, конфликты, заявления)
↓ Структурирование в два уровня:
ФАЗА 2: Dual-Granularity Scrubbing
├─ Atomic Facts (микро) → конкретные цифры, даты, имена
└─ Context Blocks (макро) → тренды, связи, фреймворки
↓ Плюс экспертная схема:
ФАЗА 3: Schema-Guided Planning
└─ Активация готового шаблона из базы (например, "Технологический прорыв":
Контекст рынка → Суть инновации → Реакция игроков → Последствия)
↓ Разбивка на атомарные блоки:
ФАЗА 4: Atomic Blocks Sequencing
└─ Каждый блок = одна функция:
• Data Anchor → только цифры и факты
• Narrative Cut-in → живая сцена
• Deep Insight → логический вывод
• Stylistic Anchor → эмоциональный якорь
↓ Генерация с ограничениями:
ФАЗА 5: Adversarial Prompting
├─ Rhythm Break → чередуй очень длинные и очень короткие предложения
├─ Logic Fog → избегай явных связок, дай читателю достроить логику самому
└─ Lexical Hedge → смешивай термины с разговорным языком
Важно: Полная система DeepNews — это параллельная архитектура с несколькими агентами (Map-Reduce). Но принципы работают и в обычном чате: насыщенная загрузка контекста, двухуровневая структура данных, явная схема структуры, adversarial ограничения.
Пример применения
⚠️ Сильная зона метода: Длинные глубокие тексты, требующие фактической точности и логической глубины (аналитика, расследования, разборы). Не для коротких текстов или креатива.
Задача: Написать глубокий разбор ситуации на рынке доставки еды в России после блокировки Яндекс.Еды в 2024 — почему Деливери Клаб не захватил весь рынок, куда ушли пользователи, что будет дальше.
Промпт:
Я собрал материалы для глубокого разбора (12 000 слов итоговый текст).
ШАГ 1 — СТРУКТУРА ДАННЫХ (Dual-Granularity):
МИКРО-ФАКТЫ (Atomic Facts):
• Доля рынка Деливери Клаб до/после блокировки Яндекса: 28% → 41%
• Средний чек вырос на 15% (с 890₽ до 1023₽)
• Время доставки увеличилось с 32 до 47 минут
• 23% пользователей Яндекс.Еды ушли в самовывоз
• Инвестиции в логистику: Деливери Клаб +2.1 млрд₽, Сбермаркет +1.8 млрд₽
• Количество курьеров: было 45к, стало 38к (-15%)
МАКРО-КОНТЕКСТ (Context Blocks):
• Рынок доставки еды в России — олигополия, высокие барьеры входа
• Блокировка Яндекс.Еды создала дефицит логистических мощностей
• Потребители разделились: премиум ушёл в Деливери, масс-маркет в самовывоз
• Рестораны получили больше власти в переговорах о комиссиях
• Фоновый тренд: рост популярности "тёмных кухонь" (dark kitchens)
ШАГ 2 — СХЕМА СТРУКТУРЫ:
Используй схему "Вакуум власти":
1. КОНТЕКСТ ДО ШОКА (старый баланс сил)
2. ШОКОВОЕ СОБЫТИЕ (что случилось)
3. БИТВА ЗА ВАКУУМ (кто пытался захватить долю и почему не получилось)
4. НОВЫЙ БАЛАНС (кто выиграл, кто проиграл, неожиданные последствия)
5. СЛАБЫЕ СИГНАЛЫ (что будет дальше)
ШАГ 3 — АТОМАРНЫЕ БЛОКИ:
Разбей каждый раздел на блоки с ОДНОЙ функцией:
• Data Anchor Block → только цифры и факты (без интерпретации)
• Narrative Cut-in → живая сцена (курьер, пользователь, ресторан)
• Deep Insight Block → логический вывод или контринтуитивная мысль
• Stylistic Anchor → эмоциональная нота или провокация
ШАГ 4 — ADVERSARIAL CONSTRAINTS:
1. RHYTHM BREAK: Чередуй предложения резко.
Короткое (5-8 слов). Потом длинное на 2-3 строки с деталями и фактами.
Снова короткое. Не делай "среднюю длину 15 слов" — это мертвецки скучно.
2. LOGIC FOG: Не пиши "поэтому", "однако", "таким образом".
Дай читателю самому достроить связь. Поставь факты рядом — умный читатель
сам увидит причину и следствие.
3. LEXICAL HEDGE: Смешивай стили.
"Дарк китчены захватывают долю" и "облачные кухни переформатируют рынок"
в одном абзаце. Термин + разговорный эквивалент. Не держи один регистр.
ТЕПЕРЬ ПИШИ статью 12 000 слов.
Результат:
Модель выдаст текст структурированный по пяти разделам схемы "Вакуум власти". Внутри каждого раздела будет чередование блоков: сначала Data Anchor с плотными цифрами (доля рынка, средний чек, время доставки), потом Narrative Cut-in с живой сценой (например, курьер Деливери в час пик), потом Deep Insight с контринтуитивным выводом (почему рост доли Деливери не означает победу). Ритм будет рваный: короткие предложения-удары чередуются с длинными аналитическими периодами. Явные связки ("поэтому", "однако") будут редки — логика достраивается через плотность фактов. Язык будет миксовать экспертный и разговорный регистры.
Почему это работает
LLM обучены на RLHF максимизировать вероятность "безопасного усреднённого ответа". Это даёт гладкость (smoothness) — текст без шероховатостей, без риска, без ошибок. Для коротких задач это ОК. Для длинного глубокого текста это ловушка. Получается "правильная бессмыслица": стилистически ровно, логически непротиворечиво, но без информационной плотности и без инсайтов. Плюс скрытые галлюцинации — модель заполняет пробелы в данных правдоподобными выдумками, которые не сразу заметны.
Глубокий текст требует высокоэнтропийного входа и низкоэнтропийного выхода. Эксперт-журналист не пишет линейно. Он собирает в 10 раз больше информации чем войдёт в статью, активирует готовую когнитивную схему из долговременной памяти (шаблон нарратива для данного типа истории), раскладывает материал по структуре, непрерывно проверяет себя adversarial мышлением (роль критика/скептика), варьирует ритм и плотность текста. DeepNews кодифицирует эти неявные процессы в явные инструкции.
Knowledge Cliff (10:1 порог) объясняется через информационную теорию Шеннона. Для высокоточного вывода в домене с высокой неопределённостью (например, финансовые рынки) система должна ввести достаточную избыточность для триангуляции. Один факт = ненадёжно. Три независимых источника подтверждают факт = надёжно. 30 000+ символов контекста дают модели физическую возможность проверять каждое утверждение через несколько источников. Ниже этого порога модель вынуждена "достраивать" — и достраивает правдоподобной выдумкой.
Dual-granularity structuring (микро-факты + макро-контекст отдельно) реплицирует Construction-Integration Model когнитивного психолога Кинча. Человек хранит текст двумя способами: локальные пропозиции (конкретные числа, даты, имена) и глобальная суть (тренды, причинно-следственные связи, фреймворки). Типичный RAG смешивает всё в uniform chunks — модель "видит деревья, но не лес" или "кости без мяса". Разделение на два уровня даёт модели и детализацию, и когерентность.
Adversarial constraints (Rhythm Break, Logic Fog, Lexical Hedge) физически ломают статистическую гладкость. Модель не может выдать "среднее предложение длиной 15 слов" — инструкция требует чередовать короткие (5-8 слов) и длинные (2-3 строки). Это создаёт burstiness — статистическую шероховатость, характерную для экспертного письма. Logic Fog убирает явные связки ("поэтому") — читатель достраивает логику сам, это активирует внимание. Lexical Hedge смешивает регистры — это создаёт эффект остранения, ломает стерильность AI-текста.
Рычаги управления промптом:
Соотношение input/output (10:1) — уменьши до 5:1 для менее критичных задач (экономия токенов), увеличь до 15:1 для максимальной точности. Ниже 5:1 физически невозможно избежать галлюцинаций.
Структура схемы — замени "Вакуум власти" на другую схему под свою задачу ("Технологический прорыв", "Regulatory shock", "Bubble burst"). Схема = готовый когнитивный шаблон, снижает сложность задачи с "открытого сочинительства" до "заполнения слотов".
Adversarial constraints (интенсивность) — для формального текста ослабь Logic Fog и Lexical Hedge (оставь явные связки, единый регистр). Для публицистики усиль (полностью убери "поэтому", максимально микшируй стили). Rhythm Break работает всегда — монотонная длина предложений = потеря внимания читателя.
Atomic Blocks (типы) — добавь или убери типы блоков под задачу. Для технического текста убери Narrative Cut-in (живые сцены), усиль Data Anchor. Для storytelling добавь больше Narrative и Stylistic Anchor.
Шаблон промпта
Задача: {описание длинного текста: тема, объём, цель}
ШАГ 1 — СТРУКТУРА ВХОДНЫХ ДАННЫХ (Dual-Granularity):
МИКРО-ФАКТЫ (Atomic Facts):
{Перечисли конкретные данные: цифры, даты, имена, события, цитаты.
Каждый факт — отдельная строка. Минимум 20-30 фактов.}
МАКРО-КОНТЕКСТ (Context Blocks):
{Опиши общие фреймворки, тренды, причинно-следственные связи,
исторический контекст. 5-7 блоков по 2-3 предложения каждый.}
ШАГ 2 — СХЕМА СТРУКТУРЫ:
Используй схему "{название схемы}":
{Перечисли разделы структуры. Например:
1. КОНТЕКСТ ДО
2. ШОКОВОЕ СОБЫТИЕ
3. РЕАКЦИИ ИГРОКОВ
4. НОВЫЙ БАЛАНС
5. ЧТО ДАЛЬШЕ}
ШАГ 3 — АТОМАРНЫЕ БЛОКИ:
Разбей каждый раздел на блоки с ОДНОЙ функцией:
• Data Anchor Block → только факты и цифры без интерпретации
• Narrative Cut-in → живая сцена с деталями
• Deep Insight Block → логический вывод или контринтуитивная мысль
• Stylistic Anchor → эмоциональная нота
Чередуй блоки для ритма: Data → Narrative → Insight → Data → Stylistic.
ШАГ 4 — ADVERSARIAL CONSTRAINTS:
1. RHYTHM BREAK: Чередуй предложения резко.
Короткое (5-8 слов). Длинное на 2-3 строки. Снова короткое.
Никакой "средней длины" — это смертельно скучно.
2. LOGIC FOG: {выбери уровень: "Минимум явных связок" или "Полностью убери 'поэтому/однако'"}
Дай читателю самому достроить логику через плотность фактов.
3. LEXICAL HEDGE: {выбери: "Строгий единый регистр" или "Смешивай термины с разговорным"}
{Если миксуешь — дай примеры терминов и разговорных эквивалентов}
ТЕПЕРЬ ПИШИ текст {объём} слов.
Плейсхолдеры:
- {описание длинного текста} — тема, целевая длина (в словах/символах), назначение текста
- {микро-факты} — конкретные данные: числа, даты, имена, цитаты (20-30+ элементов)
- {макро-контекст} — общие фреймворки, тренды, связи (5-7 блоков)
- {название схемы} — структурный шаблон (например, "Вакуум власти", "Технологический прорыв", "Игра двух компаний")
- {разделы структуры} — перечисли 4-6 основных разделов схемы
- {уровень Logic Fog} — насколько убирать явные связки ("минимум" или "полностью")
- {уровень Lexical Hedge} — смешивать ли регистры ("единый" или "миксовать")
Критически важно: Соблюдай соотношение 10:1 — входной контекст (микро-факты + макро-контекст) должен быть минимум в 10 раз длиннее итогового текста. Если пишешь 3000 слов, загрузи 30 000+ символов контекста. Ниже этого порога физически невозможно избежать галлюцинаций.
🚀 Быстрый старт — вставь в чат:
Вот шаблон DeepNews для глубоких длинных текстов. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить все секции.
[вставить шаблон выше]
LLM спросит: какая тема, какой объём, какие факты есть, какую структурную схему использовать (или предложит несколько на выбор), какой уровень adversarial constraints нужен (формальный или публицистический). Она возьмёт структуру из шаблона (dual-granularity, atomic blocks, adversarial constraints) и адаптирует под твою задачу. Получишь рабочий промпт без ручной сборки.
Ограничения
⚠️ Высокая стоимость токенов: Соотношение 10:1 означает ~200 000 токенов на статью (30k символов контекста + генерация + итерации). На DeepSeek-V3 это ~₽50-70 за статью, на GPT-4 ~₽300-500. Для массовой генерации контента может быть неподъёмно. Но это не "перерасход", а необходимая когнитивная цена высокоточного контента.
⚠️ Не для коротких текстов: Метод избыточен для постов, коротких новостей, объявлений. Knowledge Cliff работает только для длинных сложных текстов (3000+ слов). Для 300-слов поста принцип "10:1 контекста" не нужен и неэкономичен.
⚠️ Требует наличия контекста: Если нет доступа к 30k+ символов релевантного контекста (закрытые данные, нет материалов, узкая тема без источников) — метод не работает. Это не "генерация из головы", а "компрессия фактов". Без фактов компрессировать нечего.
⚠️ Adversarial constraints могут мешать формальным текстам: Logic Fog (убрать явные связки) и Lexical Hedge (микс регистров) отлично для публицистики/аналитики, но могут сломать академический или юридический текст, где нужна предельная ясность логических связей и единый строгий регистр. Для формальных текстов эти тактики нужно отключить или сильно ослабить.
⚠️ Узкая область валидации: Экспериментальная проверка проводилась только на финансовой журналистике (китайские tech-медиа). Неизвестно как метод работает на других доменах глубокого контента (юридическая аналитика, научпоп, investigative journalism в других областях). Принципы универсальны, но конкретные схемы (DNFO-v5) специфичны для финтеха.
Как исследовали
Исследователи хотели понять почему LLM создают поверхностный контент и что с этим делать. Они взяли 20 финансовых тем и сгенерировали по 5 версий каждой — с разным объёмом входного контекста: 5k, 10k, 15k, 30k и 40k символов. Всего 100 статей. Каждую проверили на Hallucination-Free Rate (HFR) — долю текста без фактических выдумок (ошибочные данные, несуществующие события, неверная атрибуция). Оказалось что график зависимости HFR от объёма контекста — это не прямая линия, а сигмоида с обрывом.
До 10k символов HFR ~20% — модель выдумывает массово. При 15k символов (5:1 к длине статьи) HFR всего 40% — половина контента галлюцинации! Но при 30k символов (10:1) HFR подскакивает до 85% — фазовый переход. При 40k растёт до 90%, но медленно — diminishing returns. Инсайт: Существует физический порог контекста (10:1), ниже которого никакой промпт-инжиниринг не спасёт от галлюцинаций. Выше порога задача меняется природу — из "сочинительства" в "компрессию фактов".
Потом провели слепой полевой тест на 40 дней в редакции топового китайского tech-медиа. Две команды: Red Team использовала GPT-5 (SOTA модель) с оптимизированным промптом (не просто zero-shot, а Persona-based Prompting — чтобы избежать Straw Man аргумента). Blue Team использовала DeepNews на базе DeepSeek-V3-0324 (модель предыдущего поколения, слабее GPT-5 по параметрам). Редакторы не знали что статьи писала AI. Оценка — реальный editorial acceptance rate.
Результат шокирующий: Red Team (GPT-5) — 10 статей отправлено, 0 принято (0%). Обратная связь редакторов: "поверхностно", "звучит как пресс-релиз", "нет глубины", "слишком гладко". Blue Team (DeepNews) — 12 статей отправлено, 3 принято (25%). Обратная связь: "богато данными", "плотная логика", "уникальные инсайты". Вывод: Workflow design перевешивает model scale в вертикальных доменах. Меньшая модель с правильной архитектурой обыграла SOTA модель в лоб.
Провели ROI анализ. DeepNews дороже (₽0.7 на статью vs ₽0.5 у GPT-5), но GPT-5 с 0% acceptance rate имеет бесконечную эффективную стоимость (любой input = полная потеря). DeepNews с 25% acceptance имеет эффективную стоимость ₽2.8 за одну принятую статью (0.7/0.25). Высокое потребление токенов — не "перерасход", а необходимая когнитивная цена expert-level контента.
Сделали ablation study — убирали по очереди Schema Planning и Adversarial Tactics, чтобы понять вклад каждого модуля. Тестировали на 20 темах × 4 условия = 80 статей. Оценивали по метрикам Logical Coherence (логическая связность), Stylistic Burstiness (ритмическая вариативность), Information Density (плотность фактов). Обнаружили что Schema Planning даёт +40% к Logical Coherence — явная структурная схема резко улучшает связность. Adversarial Tactics дают +300% к Burstiness — без них текст статистически монотонный (плоское распределение длин предложений), с ними — резкая вариативность (как у human expert). Information Density растёт только при наличии обоих компонентов — они синергичны.
Ресурсы
Workflow is All You Need: Escaping the "Statistical Smoothing Trap" via High-Entropy Information Foraging and Adversarial Pacing Zhongjie Jiang (независимый исследователь с 10+ лет опыта в top-tier финансовых медиа)
Ключевые отсылки из исследования: - Information Foraging Theory (Pirolli & Card) — поведение поиска информации как биологический foraging - Construction-Integration Model (Kintsch, 1988) — двухуровневая репрезентация текста в памяти - Schema Theory (Bartlett, 1932) — абстрактные когнитивные структуры для организации знаний - Agentic Workflow Theory (Andrew Ng) — workflow design > model scale для специфичных задач - "Lost in the Middle" (Liu et al., 2023) — феномен потери внимания LLM в середине длинного контекста
