3,583 papers
arXiv:2512.10121 82 10 дек. 2025 г. FREE

DeepNews Framework: высокоэнтропийная загрузка + adversarial промптинг для глубокого длинного текста

КЛЮЧЕВАЯ СУТЬ
Обнаружен паттерн: LLM выдают «правильную бессмыслицу» в длинных аналитических текстах. Грамматика на месте, стиль ровный, но внутри — скрытые галлюцинации и нулевая глубина. Причина: модель обучена через RLHF выдавать «безопасный усреднённый ответ», для сложного длинного текста этого мало. DeepNews Framework позволяет генерировать глубокую аналитику и расследования (3000+ слов) с точностью 85% вместо 40%. Фишка: загрузи в 10 раз больше контекста чем длина итогового текста. При 30 000+ символах входа модель физически переходит от «открытого сочинительства» к «сжатию фактов» — появляется возможность триангуляции (проверка одного утверждения через несколько источников). Плюс adversarial ограничения ломают статистическую гладкость: короткие и длинные предложения вперемешку, никаких явных связок типа «поэтому», микс терминов с разговорным языком.
Адаптировать под запрос

TL;DR

DeepNews — агентный workflow для создания глубоких длинных текстов (финансовая аналитика, расследования), который борется с "гладкостью" и поверхностностью LLM через три механизма: насыщенную загрузку контекста (10:1 к длине выхлопа), структурные схемы из экспертного опыта и adversarial промптинг — намеренное разрушение статистической гладкости модели.

Исследователи обнаружили Knowledge Cliff — обрыв правдивости при недостатке контекста. Когда входной контекст меньше 15 000 символов, Hallucination-Free Rate (доля статей без выдумок) составляет 40%. Модель заполняет логические пробелы выдумками. Причина: LLM обучены на RLHF выдавать "усреднённый безопасный ответ" из распределения вероятностей. Для длинного сложного текста этого недостаточно — получается "правильная бессмыслица": грамматически верно, стилистически ровно, но без инсайтов и с скрытыми фактическими ошибками. Нужен минимум в 10 раз больше контекста чем длина итогового текста, чтобы модель имела достаточно фактов для триангуляции (проверки одного факта через несколько источников).

При 30 000+ символах входа (соотношение 10:1) HFR подскакивает до 85% — модель переходит от "открытого сочинительства" к "сжатию фактов". Второй механизм — schema-guided planning: вместо абстрактного "напиши статью" система активирует готовые структурные шаблоны из экспертного опыта (например, "Игра двух компаний: Давление А → Ответ Б → Путь передачи"). Третий — adversarial prompting: инструкции, которые ломают гладкость — требуют чередовать длинные и короткие предложения, избегать явных связок ("поэтому", "однако"), смешивать профессиональный язык с разговорным. Это создаёт "шероховатость" и burstiness — характерную черту экспертного текста.

📌

Схема подхода

ФАЗА 1: Tri-Stream Foraging (поиск по трём потокам)
├─ Экологический поток → контекст (партнёры, конкуренты, цепочки)
├─ Количественный поток → факты (финансовые данные, отчёты, показатели)
└─ Нарративный поток → история (события, конфликты, заявления)

↓ Структурирование в два уровня:

ФАЗА 2: Dual-Granularity Scrubbing
├─ Atomic Facts (микро) → конкретные цифры, даты, имена
└─ Context Blocks (макро) → тренды, связи, фреймворки

↓ Плюс экспертная схема:

ФАЗА 3: Schema-Guided Planning
└─ Активация готового шаблона из базы (например, "Технологический прорыв":
    Контекст рынка → Суть инновации → Реакция игроков → Последствия)

↓ Разбивка на атомарные блоки:

ФАЗА 4: Atomic Blocks Sequencing
└─ Каждый блок = одна функция:
    • Data Anchor → только цифры и факты
    • Narrative Cut-in → живая сцена
    • Deep Insight → логический вывод
    • Stylistic Anchor → эмоциональный якорь

↓ Генерация с ограничениями:

ФАЗА 5: Adversarial Prompting
├─ Rhythm Break → чередуй очень длинные и очень короткие предложения
├─ Logic Fog → избегай явных связок, дай читателю достроить логику самому
└─ Lexical Hedge → смешивай термины с разговорным языком

Важно: Полная система DeepNews — это параллельная архитектура с несколькими агентами (Map-Reduce). Но принципы работают и в обычном чате: насыщенная загрузка контекста, двухуровневая структура данных, явная схема структуры, adversarial ограничения.

🚀

Пример применения

⚠️ Сильная зона метода: Длинные глубокие тексты, требующие фактической точности и логической глубины (аналитика, расследования, разборы). Не для коротких текстов или креатива.

Задача: Написать глубокий разбор ситуации на рынке доставки еды в России после блокировки Яндекс.Еды в 2024 — почему Деливери Клаб не захватил весь рынок, куда ушли пользователи, что будет дальше.

Промпт:

Я собрал материалы для глубокого разбора (12 000 слов итоговый текст). 

ШАГ 1 — СТРУКТУРА ДАННЫХ (Dual-Granularity):

МИКРО-ФАКТЫ (Atomic Facts):
• Доля рынка Деливери Клаб до/после блокировки Яндекса: 28% → 41%
• Средний чек вырос на 15% (с 890₽ до 1023₽)
• Время доставки увеличилось с 32 до 47 минут
• 23% пользователей Яндекс.Еды ушли в самовывоз
• Инвестиции в логистику: Деливери Клаб +2.1 млрд₽, Сбермаркет +1.8 млрд₽
• Количество курьеров: было 45к, стало 38к (-15%)

МАКРО-КОНТЕКСТ (Context Blocks):
• Рынок доставки еды в России — олигополия, высокие барьеры входа
• Блокировка Яндекс.Еды создала дефицит логистических мощностей
• Потребители разделились: премиум ушёл в Деливери, масс-маркет в самовывоз
• Рестораны получили больше власти в переговорах о комиссиях
• Фоновый тренд: рост популярности "тёмных кухонь" (dark kitchens)

ШАГ 2 — СХЕМА СТРУКТУРЫ:

Используй схему "Вакуум власти":
1. КОНТЕКСТ ДО ШОКА (старый баланс сил)
2. ШОКОВОЕ СОБЫТИЕ (что случилось)
3. БИТВА ЗА ВАКУУМ (кто пытался захватить долю и почему не получилось)
4. НОВЫЙ БАЛАНС (кто выиграл, кто проиграл, неожиданные последствия)
5. СЛАБЫЕ СИГНАЛЫ (что будет дальше)

ШАГ 3 — АТОМАРНЫЕ БЛОКИ:

Разбей каждый раздел на блоки с ОДНОЙ функцией:
• Data Anchor Block → только цифры и факты (без интерпретации)
• Narrative Cut-in → живая сцена (курьер, пользователь, ресторан)
• Deep Insight Block → логический вывод или контринтуитивная мысль
• Stylistic Anchor → эмоциональная нота или провокация

ШАГ 4 — ADVERSARIAL CONSTRAINTS:

1. RHYTHM BREAK: Чередуй предложения резко.
   Короткое (5-8 слов). Потом длинное на 2-3 строки с деталями и фактами.
   Снова короткое. Не делай "среднюю длину 15 слов" — это мертвецки скучно.

2. LOGIC FOG: Не пиши "поэтому", "однако", "таким образом".
   Дай читателю самому достроить связь. Поставь факты рядом — умный читатель
   сам увидит причину и следствие.

3. LEXICAL HEDGE: Смешивай стили.
   "Дарк китчены захватывают долю" и "облачные кухни переформатируют рынок"
   в одном абзаце. Термин + разговорный эквивалент. Не держи один регистр.

ТЕПЕРЬ ПИШИ статью 12 000 слов.

Результат:

Модель выдаст текст структурированный по пяти разделам схемы "Вакуум власти". Внутри каждого раздела будет чередование блоков: сначала Data Anchor с плотными цифрами (доля рынка, средний чек, время доставки), потом Narrative Cut-in с живой сценой (например, курьер Деливери в час пик), потом Deep Insight с контринтуитивным выводом (почему рост доли Деливери не означает победу). Ритм будет рваный: короткие предложения-удары чередуются с длинными аналитическими периодами. Явные связки ("поэтому", "однако") будут редки — логика достраивается через плотность фактов. Язык будет миксовать экспертный и разговорный регистры.

🧠

Почему это работает

LLM обучены на RLHF максимизировать вероятность "безопасного усреднённого ответа". Это даёт гладкость (smoothness) — текст без шероховатостей, без риска, без ошибок. Для коротких задач это ОК. Для длинного глубокого текста это ловушка. Получается "правильная бессмыслица": стилистически ровно, логически непротиворечиво, но без информационной плотности и без инсайтов. Плюс скрытые галлюцинации — модель заполняет пробелы в данных правдоподобными выдумками, которые не сразу заметны.

Глубокий текст требует высокоэнтропийного входа и низкоэнтропийного выхода. Эксперт-журналист не пишет линейно. Он собирает в 10 раз больше информации чем войдёт в статью, активирует готовую когнитивную схему из долговременной памяти (шаблон нарратива для данного типа истории), раскладывает материал по структуре, непрерывно проверяет себя adversarial мышлением (роль критика/скептика), варьирует ритм и плотность текста. DeepNews кодифицирует эти неявные процессы в явные инструкции.

Knowledge Cliff (10:1 порог) объясняется через информационную теорию Шеннона. Для высокоточного вывода в домене с высокой неопределённостью (например, финансовые рынки) система должна ввести достаточную избыточность для триангуляции. Один факт = ненадёжно. Три независимых источника подтверждают факт = надёжно. 30 000+ символов контекста дают модели физическую возможность проверять каждое утверждение через несколько источников. Ниже этого порога модель вынуждена "достраивать" — и достраивает правдоподобной выдумкой.

Dual-granularity structuring (микро-факты + макро-контекст отдельно) реплицирует Construction-Integration Model когнитивного психолога Кинча. Человек хранит текст двумя способами: локальные пропозиции (конкретные числа, даты, имена) и глобальная суть (тренды, причинно-следственные связи, фреймворки). Типичный RAG смешивает всё в uniform chunks — модель "видит деревья, но не лес" или "кости без мяса". Разделение на два уровня даёт модели и детализацию, и когерентность.

Adversarial constraints (Rhythm Break, Logic Fog, Lexical Hedge) физически ломают статистическую гладкость. Модель не может выдать "среднее предложение длиной 15 слов" — инструкция требует чередовать короткие (5-8 слов) и длинные (2-3 строки). Это создаёт burstiness — статистическую шероховатость, характерную для экспертного письма. Logic Fog убирает явные связки ("поэтому") — читатель достраивает логику сам, это активирует внимание. Lexical Hedge смешивает регистры — это создаёт эффект остранения, ломает стерильность AI-текста.

Рычаги управления промптом:

  1. Соотношение input/output (10:1) — уменьши до 5:1 для менее критичных задач (экономия токенов), увеличь до 15:1 для максимальной точности. Ниже 5:1 физически невозможно избежать галлюцинаций.

  2. Структура схемы — замени "Вакуум власти" на другую схему под свою задачу ("Технологический прорыв", "Regulatory shock", "Bubble burst"). Схема = готовый когнитивный шаблон, снижает сложность задачи с "открытого сочинительства" до "заполнения слотов".

  3. Adversarial constraints (интенсивность) — для формального текста ослабь Logic Fog и Lexical Hedge (оставь явные связки, единый регистр). Для публицистики усиль (полностью убери "поэтому", максимально микшируй стили). Rhythm Break работает всегда — монотонная длина предложений = потеря внимания читателя.

  4. Atomic Blocks (типы) — добавь или убери типы блоков под задачу. Для технического текста убери Narrative Cut-in (живые сцены), усиль Data Anchor. Для storytelling добавь больше Narrative и Stylistic Anchor.

📋

Шаблон промпта

Задача: {описание длинного текста: тема, объём, цель}

ШАГ 1 — СТРУКТУРА ВХОДНЫХ ДАННЫХ (Dual-Granularity):

МИКРО-ФАКТЫ (Atomic Facts):
{Перечисли конкретные данные: цифры, даты, имена, события, цитаты.
Каждый факт — отдельная строка. Минимум 20-30 фактов.}

МАКРО-КОНТЕКСТ (Context Blocks):
{Опиши общие фреймворки, тренды, причинно-следственные связи,
исторический контекст. 5-7 блоков по 2-3 предложения каждый.}

ШАГ 2 — СХЕМА СТРУКТУРЫ:

Используй схему "{название схемы}":
{Перечисли разделы структуры. Например:
1. КОНТЕКСТ ДО
2. ШОКОВОЕ СОБЫТИЕ
3. РЕАКЦИИ ИГРОКОВ
4. НОВЫЙ БАЛАНС
5. ЧТО ДАЛЬШЕ}

ШАГ 3 — АТОМАРНЫЕ БЛОКИ:

Разбей каждый раздел на блоки с ОДНОЙ функцией:
• Data Anchor Block → только факты и цифры без интерпретации
• Narrative Cut-in → живая сцена с деталями
• Deep Insight Block → логический вывод или контринтуитивная мысль
• Stylistic Anchor → эмоциональная нота

Чередуй блоки для ритма: Data → Narrative → Insight → Data → Stylistic.

ШАГ 4 — ADVERSARIAL CONSTRAINTS:

1. RHYTHM BREAK: Чередуй предложения резко.
   Короткое (5-8 слов). Длинное на 2-3 строки. Снова короткое.
   Никакой "средней длины" — это смертельно скучно.

2. LOGIC FOG: {выбери уровень: "Минимум явных связок" или "Полностью убери 'поэтому/однако'"}
   Дай читателю самому достроить логику через плотность фактов.

3. LEXICAL HEDGE: {выбери: "Строгий единый регистр" или "Смешивай термины с разговорным"}
   {Если миксуешь — дай примеры терминов и разговорных эквивалентов}

ТЕПЕРЬ ПИШИ текст {объём} слов.

Плейсхолдеры: - {описание длинного текста} — тема, целевая длина (в словах/символах), назначение текста - {микро-факты} — конкретные данные: числа, даты, имена, цитаты (20-30+ элементов) - {макро-контекст} — общие фреймворки, тренды, связи (5-7 блоков) - {название схемы} — структурный шаблон (например, "Вакуум власти", "Технологический прорыв", "Игра двух компаний") - {разделы структуры} — перечисли 4-6 основных разделов схемы - {уровень Logic Fog} — насколько убирать явные связки ("минимум" или "полностью") - {уровень Lexical Hedge} — смешивать ли регистры ("единый" или "миксовать")

Критически важно: Соблюдай соотношение 10:1 — входной контекст (микро-факты + макро-контекст) должен быть минимум в 10 раз длиннее итогового текста. Если пишешь 3000 слов, загрузи 30 000+ символов контекста. Ниже этого порога физически невозможно избежать галлюцинаций.

🚀 Быстрый старт — вставь в чат:

Вот шаблон DeepNews для глубоких длинных текстов. Адаптируй под мою задачу: [твоя задача]. 
Задавай вопросы, чтобы заполнить все секции.

[вставить шаблон выше]

LLM спросит: какая тема, какой объём, какие факты есть, какую структурную схему использовать (или предложит несколько на выбор), какой уровень adversarial constraints нужен (формальный или публицистический). Она возьмёт структуру из шаблона (dual-granularity, atomic blocks, adversarial constraints) и адаптирует под твою задачу. Получишь рабочий промпт без ручной сборки.

⚠️

Ограничения

⚠️ Высокая стоимость токенов: Соотношение 10:1 означает ~200 000 токенов на статью (30k символов контекста + генерация + итерации). На DeepSeek-V3 это ~₽50-70 за статью, на GPT-4 ~₽300-500. Для массовой генерации контента может быть неподъёмно. Но это не "перерасход", а необходимая когнитивная цена высокоточного контента.

⚠️ Не для коротких текстов: Метод избыточен для постов, коротких новостей, объявлений. Knowledge Cliff работает только для длинных сложных текстов (3000+ слов). Для 300-слов поста принцип "10:1 контекста" не нужен и неэкономичен.

⚠️ Требует наличия контекста: Если нет доступа к 30k+ символов релевантного контекста (закрытые данные, нет материалов, узкая тема без источников) — метод не работает. Это не "генерация из головы", а "компрессия фактов". Без фактов компрессировать нечего.

⚠️ Adversarial constraints могут мешать формальным текстам: Logic Fog (убрать явные связки) и Lexical Hedge (микс регистров) отлично для публицистики/аналитики, но могут сломать академический или юридический текст, где нужна предельная ясность логических связей и единый строгий регистр. Для формальных текстов эти тактики нужно отключить или сильно ослабить.

⚠️ Узкая область валидации: Экспериментальная проверка проводилась только на финансовой журналистике (китайские tech-медиа). Неизвестно как метод работает на других доменах глубокого контента (юридическая аналитика, научпоп, investigative journalism в других областях). Принципы универсальны, но конкретные схемы (DNFO-v5) специфичны для финтеха.

🔍

Как исследовали

Исследователи хотели понять почему LLM создают поверхностный контент и что с этим делать. Они взяли 20 финансовых тем и сгенерировали по 5 версий каждой — с разным объёмом входного контекста: 5k, 10k, 15k, 30k и 40k символов. Всего 100 статей. Каждую проверили на Hallucination-Free Rate (HFR) — долю текста без фактических выдумок (ошибочные данные, несуществующие события, неверная атрибуция). Оказалось что график зависимости HFR от объёма контекста — это не прямая линия, а сигмоида с обрывом.

До 10k символов HFR ~20% — модель выдумывает массово. При 15k символов (5:1 к длине статьи) HFR всего 40% — половина контента галлюцинации! Но при 30k символов (10:1) HFR подскакивает до 85% — фазовый переход. При 40k растёт до 90%, но медленно — diminishing returns. Инсайт: Существует физический порог контекста (10:1), ниже которого никакой промпт-инжиниринг не спасёт от галлюцинаций. Выше порога задача меняется природу — из "сочинительства" в "компрессию фактов".

Потом провели слепой полевой тест на 40 дней в редакции топового китайского tech-медиа. Две команды: Red Team использовала GPT-5 (SOTA модель) с оптимизированным промптом (не просто zero-shot, а Persona-based Prompting — чтобы избежать Straw Man аргумента). Blue Team использовала DeepNews на базе DeepSeek-V3-0324 (модель предыдущего поколения, слабее GPT-5 по параметрам). Редакторы не знали что статьи писала AI. Оценка — реальный editorial acceptance rate.

Результат шокирующий: Red Team (GPT-5) — 10 статей отправлено, 0 принято (0%). Обратная связь редакторов: "поверхностно", "звучит как пресс-релиз", "нет глубины", "слишком гладко". Blue Team (DeepNews) — 12 статей отправлено, 3 принято (25%). Обратная связь: "богато данными", "плотная логика", "уникальные инсайты". Вывод: Workflow design перевешивает model scale в вертикальных доменах. Меньшая модель с правильной архитектурой обыграла SOTA модель в лоб.

Провели ROI анализ. DeepNews дороже (₽0.7 на статью vs ₽0.5 у GPT-5), но GPT-5 с 0% acceptance rate имеет бесконечную эффективную стоимость (любой input = полная потеря). DeepNews с 25% acceptance имеет эффективную стоимость ₽2.8 за одну принятую статью (0.7/0.25). Высокое потребление токенов — не "перерасход", а необходимая когнитивная цена expert-level контента.

Сделали ablation study — убирали по очереди Schema Planning и Adversarial Tactics, чтобы понять вклад каждого модуля. Тестировали на 20 темах × 4 условия = 80 статей. Оценивали по метрикам Logical Coherence (логическая связность), Stylistic Burstiness (ритмическая вариативность), Information Density (плотность фактов). Обнаружили что Schema Planning даёт +40% к Logical Coherence — явная структурная схема резко улучшает связность. Adversarial Tactics дают +300% к Burstiness — без них текст статистически монотонный (плоское распределение длин предложений), с ними — резкая вариативность (как у human expert). Information Density растёт только при наличии обоих компонентов — они синергичны.

🔗

Ресурсы

Workflow is All You Need: Escaping the "Statistical Smoothing Trap" via High-Entropy Information Foraging and Adversarial Pacing Zhongjie Jiang (независимый исследователь с 10+ лет опыта в top-tier финансовых медиа)

Ключевые отсылки из исследования: - Information Foraging Theory (Pirolli & Card) — поведение поиска информации как биологический foraging - Construction-Integration Model (Kintsch, 1988) — двухуровневая репрезентация текста в памяти - Schema Theory (Bartlett, 1932) — абстрактные когнитивные структуры для организации знаний - Agentic Workflow Theory (Andrew Ng) — workflow design > model scale для специфичных задач - "Lost in the Middle" (Liu et al., 2023) — феномен потери внимания LLM в середине длинного контекста


📋 Дайджест исследования

Ключевая суть

Обнаружен паттерн: LLM выдают «правильную бессмыслицу» в длинных аналитических текстах. Грамматика на месте, стиль ровный, но внутри — скрытые галлюцинации и нулевая глубина. Причина: модель обучена через RLHF выдавать «безопасный усреднённый ответ», для сложного длинного текста этого мало. DeepNews Framework позволяет генерировать глубокую аналитику и расследования (3000+ слов) с точностью 85% вместо 40%. Фишка: загрузи в 10 раз больше контекста чем длина итогового текста. При 30 000+ символах входа модель физически переходит от «открытого сочинительства» к «сжатию фактов» — появляется возможность триангуляции (проверка одного утверждения через несколько источников). Плюс adversarial ограничения ломают статистическую гладкость: короткие и длинные предложения вперемешку, никаких явных связок типа «поэтому», микс терминов с разговорным языком.

Принцип работы

Пятиступенчатый процесс против гладкости. Первое: насыщенная загрузка — соберь контекст в 10 раз длиннее итогового текста (пишешь 3000 слов → загрузи 30 000 символов фактов). Ниже порога 10:1 модель вынуждена «достраивать» пробелы правдоподобной выдумкой, выше — имеет физическую возможность проверять каждое утверждение. Второе: разложи контекст на два уровня — микро-факты (конкретные цифры, даты, имена) отдельно от макро-контекста (тренды, связи, фреймворки). Типичный подход смешивает всё в кучу — модель видит деревья, но не лес. Третье: активируй готовую структурную схему под тип истории («Вакуум власти», «Технологический прорыв», «Игра двух компаний») — это снижает сложность с открытого сочинительства до заполнения слотов. Четвёртое: разбей каждый раздел на атомарные блоки с одной функцией — Data Anchor (только факты), Narrative Cut-in (живая сцена), Deep Insight (логический вывод), Stylistic Anchor (эмоциональная нота). Пятое: adversarial ограничения — чередуй резко короткие (5-8 слов) и длинные (2-3 строки) предложения, убери явные связки («поэтому» → пусть читатель достроит логику сам), смешивай регистры (термин + разговорный эквивалент в одном абзаце). Это создаёт шероховатость — характерную черту экспертного текста.

Почему работает

RLHF обучает модель максимизировать вероятность «безопасного усреднённого ответа». Для короткой задачи это работает. Для длинного сложного текста это ловушка — получается статистическая гладкость без информационной плотности. Knowledge Cliff (обрыв правдивости) возникает из-за недостатка избыточности для триангуляции: один факт ненадёжен, три независимых источника подтверждают факт. Эксперименты показали: при контексте меньше 15 000 символов доля текстов без галлюцинаций (Hallucination-Free Rate) составляет 40%. Модель заполняет логические пробелы правдоподобными выдумками. При 30 000+ символов входа (соотношение 10:1 для текста на 3000 слов) HFR подскакивает до 85% — модель имеет достаточно фактов для проверки каждого утверждения через несколько точек. Разделение на микро-факты и макро-контекст реплицирует модель Кинча из когнитивной психологии — человек хранит текст двумя способами: локальные детали и глобальная суть. Adversarial ограничения физически ломают статистическую гладкость — модель не может выдать «среднее предложение длиной 15 слов», инструкция требует чередовать короткие и длинные. Это создаёт burstiness (статистическая шероховатость) — отличительная черта экспертного письма против AI-стерильности.

Когда применять

Глубокие длинные тексты (3000+ слов) → конкретно для аналитических разборов, расследований, финансовой журналистики, научпопа с высокой фактической плотностью, особенно когда скрытые галлюцинации критичны (репутационные или юридические риски). НЕ подходит для коротких текстов (посты, новости до 1000 слов) — метод избыточен и неэкономичен. НЕ подходит если нет доступа к 30 000+ символам релевантного контекста — это не генерация из головы, а компрессия фактов.

Мини-рецепт

1. Собери контекст в 10 раз длиннее итогового текста: Пишешь статью на 3000 слов — загрузи 30 000 символов материалов. Это не перестраховка, а когнитивная цена высокой точности. Ниже порога 10:1 физически невозможно избежать галлюцинаций.

2. Разложи контекст на два уровня: МИКРО-ФАКТЫ (цифры, даты, имена, цитаты — конкретика списком, минимум 20-30 элементов) + МАКРО-КОНТЕКСТ (тренды, причинно-следственные связи, фреймворки — 5-7 блоков по 2-3 предложения). Не смешивай в одну кучу.

3. Выбери структурную схему под тип истории: «Вакуум власти» (шоковое событие → борьба за долю → новый баланс), «Технологический прорыв» (контекст рынка → суть инновации → реакция игроков → последствия), «Игра двух компаний» (давление А → ответ Б → путь передачи). Схема снижает сложность задачи.

4. Разбей каждый раздел на атомарные блоки с одной функцией: Data Anchor (только цифры без интерпретации) → Narrative Cut-in (живая сцена с деталями) → Deep Insight (логический вывод или контринтуитивная мысль) → Stylistic Anchor (эмоциональная нота). Чередуй блоки для ритма.

5. Задай adversarial ограничения: RHYTHM BREAK — чередуй резко короткие (5-8 слов) и длинные (2-3 строки) предложения, никакой средней длины. LOGIC FOG — убери явные связки («поэтому», «однако»), дай читателю самому достроить логику через плотность фактов. LEXICAL HEDGE — микшируй термины с разговорным языком в одном абзаце. Для формальных текстов (юридические, академические) ослабь Logic Fog и Lexical Hedge.

Примеры

[ПЛОХО] : Напиши глубокий разбор ситуации на рынке доставки еды после блокировки Яндекс.Еды — почему Деливери Клаб не захватил весь рынок, что будет дальше. 3000 слов.
[ХОРОШО] : Пишу разбор на 3000 слов про рынок доставки еды после блокировки Яндекс.Еды. МИКРО-ФАКТЫ: • Доля Деливери Клаб: 28%→41% • Средний чек: 890₽→1023₽ (+15%) • Время доставки: 32→47 минут • 23% пользователей Яндекса ушли в самовывоз • Инвестиции в логистику: Деливери +2.1 млрд₽, Сбермаркет +1.8 млрд₽ • Курьеров было 45к, стало 38к (-15%) МАКРО-КОНТЕКСТ: • Рынок доставки — олигополия, высокие барьеры входа • Блокировка создала дефицит логистических мощностей • Потребители разделились: премиум в Деливери, масс-маркет в самовывоз • Рестораны получили больше власти в переговорах о комиссии • Фоновый тренд: рост популярности тёмных кухонь СХЕМА: «Вакуум власти» 1. Контекст до шока (старый баланс сил) 2. Шоковое событие 3. Битва за вакуум (кто пытался захватить долю и почему не получилось) 4. Новый баланс (кто выиграл, неожиданные последствия) 5. Слабые сигналы (что дальше) АТОМАРНЫЕ БЛОКИ: Чередуй Data Anchor→Narrative Cut-in→Deep Insight→Stylistic Anchor. ADVERSARIAL: • RHYTHM BREAK: Короткое (5-8 слов). Длинное на 2-3 строки. Снова короткое. • LOGIC FOG: Убери "поэтому"/"однако" — дай читателю достроить связь через факты. • LEXICAL HEDGE: Микшируй "дарк китчены захватывают долю" и "облачные кухни переформатируют рынок" в одном абзаце. ПИШИ.
Источник: Workflow is All You Need: Escaping the Statistical Smoothing Trap via High-Entropy Information Foraging and Adversarial Pacing
ArXiv ID: 2512.10121 | Сгенерировано: 2026-01-10 00:10
📖 Простыми словами

DeepNews Framework: высокоэнтропийная загрузка + adversarial промптинг для глубокого длинного текста

arXiv: 2512.10121

Суть проблемы в том, что нейросети по своей природе — это мастера статистического сглаживания. Когда ты просишь ChatGPT написать глубокий аналитический отчет, она выдает текст, который выглядит идеально, но на деле пуст, как барабан. Модель обучена выбирать самые вероятные, «безопасные» слова, что превращает сложную аналитику в усредненную жвачку. Исследование DeepNews доказывает: чтобы получить от AI реально глубокий контент, нужно перестать просить его «просто написать текст» и заставить его работать через жесткий агентный workflow.

Это как если бы ты нанял на работу очень вежливого, но ленивого стажера, который на любой сложный вопрос отвечает общими фразами из Википедии. Формально не придерешься, но пользы ноль. Чтобы вытрясти из него результат, тебе нужно завалить его горой документов, дать четкий план, составленный профи, и постоянно бить по рукам, когда он начинает нести красивую чепуху. DeepNews — это и есть такой строгий надзиратель, который выбивает из модели информационную плотность, не давая ей скатиться в привычный «белый шум».

Система работает на трех китах: насыщенная загрузка, экспертные схемы и adversarial pacing. Сначала в модель заталкивают контекста в 10 раз больше, чем она должна выдать на выходе — это убивает дефицит фактов. Затем ее заставляют писать не «как пойдет», а по жестким структурам, вытащенным из реального опыта финансовых аналитиков. Но самое крутое — это намеренное разрушение гладкости: систему заставляют сомневаться в собственных выводах и искать противоречия, что буквально выжигает галлюцинации и заставляет AI выдавать высокоэнтропийную информацию, а не предсказуемый мусор.

Хотя метод обкатывали на финансовых расследованиях, принцип универсален для любого сложного контента. Если тебе нужно написать глубокий разбор рынка, технический аудит или детальный гайд, обычный промпт — это путь в никуда. Нужно строить конвейер, где каждый этап проверяет предыдущий и требует фактов вместо эпитетов. Это переход от эпохи «промпт-инжиниринга» к эпохе проектирования рабочих процессов, где LLM — лишь мотор, а не водитель.

Короче: эпоха простых чатов для серьезных задач закончилась, потому что гладкость — это враг смысла. Если твой AI-ассистент пишет слишком красиво и складно, скорее всего, он тебе врет или просто льет воду. Чтобы получить инсайты, нужно внедрять DeepNews-подход: заваливать данными, диктовать структуру и постоянно провоцировать модель на конфликт с собственным текстом. Workflow решает всё, а те, кто продолжит надеяться на «магию одной кнопки», останутся с горой правдоподобной, но бесполезной фигни.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с