TL;DR
Модель пишет лучше, если перед каждым абзацем явно объявляет зачем он нужен — это аргументация, контекст, сравнение или определение. Исследователи добавили XML-теги намерений прямо в генерацию: сначала тег с типом абзаца и обоснованием, потом сам текст. То же самое — для каждого источника: перед цитатой модель объясняет, почему она здесь.
Проблема в том, что LLM обучена на готовых текстах — без авторского внутреннего диалога. Человек пишет с планом в голове: «этот абзац — чтобы задать контекст, этот — чтобы сравнить подходы». Но эти мысли исчезают в финальном тексте. Модель видит только результат, не процесс. Поэтому она имитирует стиль, но не мышление — и в длинных текстах структура «плывёт»: абзацы теряют функцию, источники цитируются без понятной логики.
Решение: перед каждым абзацем модель генерирует , перед каждой ссылкой — . Два уровня намерений — два шага осознанности. Ни один абзац не пишется «в никуда».
Схема метода
Всё выполняется в одном промпте — модель сама генерирует теги и контент последовательно.
УРОВЕНЬ 1: Намерение абзаца
[тип: Изложение / Определение / Аргументация /
Сравнение-Контраст / Причина-Следствие / Проблема-Решение /
Оценка / Повествование] [1–2 предложения: зачем этот абзац]
→ Текст абзаца
УРОВЕНЬ 2: Намерение ссылки (внутри абзаца)
[тип: Контекст / Обоснование / Использование /
Расширение / Сравнение / Перспектива] [зачем этот источник]
→ Предложение с цитатой [Источник N]
Пример применения
Задача: Написать аналитический разбор для Telegram-канала о том, почему стриминги (Кинопоиск, Okko, START) проигрывают борьбу за аудиторию подросткам в пользу YouTube и VK Видео.
Промпт:
Напиши структурный анализ «Почему российские стриминги
проигрывают YouTube за аудиторию 14–22 лет».
Используй следующие источники:
— [1] Данные Mediascope 2024 о потреблении видео по возрастам
— [2] Интервью Антон Сихарулидзе (START) о стратегии контента
— [3] Статья о монетизации блогеров на YouTube vs Reels
Для каждого абзаца перед текстом добавь тег намерения:
[тип абзаца: Изложение/Определение/Аргументация/
Сравнение-Контраст/Причина-Следствие/Проблема-Решение/Оценка/
Повествование][объяснение: зачем этот абзац в тексте]
Для каждого использования источника перед предложением добавь:
[тип: Контекст/Обоснование/Использование/Сравнение/
Перспектива][объяснение: зачем здесь этот источник]
Структура: введение, 3–4 тематических блока, вывод.
Результат:
Модель сгенерирует разбор, где перед каждым абзацем будет виден тег — например, . Источники будут появляться с явным обоснованием типа "Использование" или "Обоснование". В итоге текст будет функционально разнообразным: не пять одинаковых абзацев с «аналитикой», а чередование контекста, аргументов, сравнений и выводов.
Почему это работает
Слабость модели — она генерирует текст слева направо, без «взгляда сзади». Без явного плана каждый следующий абзац может выполнять ту же функцию, что предыдущий. Длинный текст превращается в монотонный поток одного типа предложений.
Сильная сторона модели — она хорошо следует ограничениям, которые уже есть в тексте. Если в только что сгенерированном теге написано «Аргументация: доказываю тезис через данные», модель в следующем абзаце действительно будет строить аргумент, а не просто описывать факты.
Как метод использует это: теги намерений — это не «мета-комментарий», а часть генерируемого текста. Модель сама пишет тег прямо перед абзацем, и этот тег становится контекстом для следующего шага генерации. Это замкнутая петля: намерение → текст → следующее намерение → следующий текст. Каждый абзац осознан.
Рычаги управления:
- Сократи набор типов под задачу: для аналитики достаточно Аргументация + Сравнение-Контраст + Проблема-Решение
- Попроси только paragraph intent без citation intent — для текстов без формальных источников
- Убери теги из финального вывода отдельным запросом: "Теперь перепиши тот же текст без тегов
Шаблон промпта
Напиши {тип_документа} по теме: {тема}
{если есть источники:
Источники:
— [1] {источник_1}
— [2] {источник_2}}
Для каждого абзаца перед текстом добавь тег намерения:
[тип абзаца из списка: Изложение / Определение /
Аргументация / Сравнение-Контраст / Причина-Следствие /
Проблема-Решение / Оценка / Повествование]
[1–2 предложения: зачем этот абзац нужен в этом тексте]
{если есть источники:
Для каждого источника перед использованием добавь:
[тип из списка: Контекст / Обоснование / Использование /
Расширение / Сравнение / Перспектива]
[1 предложение: почему здесь нужен этот источник]}
Структура: {структура — например: введение, 3 блока, вывод}
Плейсхолдеры:
- {тип_документа} — статья, разбор, отчёт, аналитика, эссе
- {тема} — конкретный вопрос или тезис
- {источники} — ссылки, цитаты, данные которые нужно использовать
- {структура} — количество и тип разделов
🚀 Быстрый старт — вставь в чат:
Вот шаблон Intent-Aware Writing. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про тему, тип документа и есть ли источники — потому что структура тегов зависит от того, нужен ли уровень citation intent или только paragraph intent. Она возьмёт паттерн тегов из шаблона и адаптирует под твою задачу.
Ограничения
⚠️ Узкая сильная зона: Метод даёт максимальный эффект в длинных структурных текстах — аналитика, отчёты, разборы. Для короткого письма или списка задач — избыточен.
⚠️ Цитирование без источников: Уровень citation intent работает только если в промпте есть реальные источники. Без них модель будет придумывать обоснования для несуществующих ссылок.
⚠️ Маленькие модели без дообучения: GPT-4o и Claude хорошо держат формат тегов. Слабые модели могут «терять» структуру на длинных текстах или генерировать теги формально, не меняя реального содержания абзаца.
⚠️ Однотипные намерения: Если задача простая или источников мало, модель может начать повторять одни типы (например, всё «Изложение»). Тогда явно ограничь повторение: «каждый тип абзаца не более 1 раза».
Как исследовали
Команда Института AI2 (Allen Institute for AI) вместе с CMU взяла три бенчмарка для генерации научных отчётов: вопросы по Computer Science, написание related work разделов для arxiv-статей и синтез обзорных статей по ИИ. На каждой задаче сравнивали: стандартная генерация vs генерация с тегами намерений — для больших моделей (o3, gemini-2.5-pro, Claude opus-4) и для маленьких (Qwen3-4B/8B, LLaMA3.1-8B).
Интересная деталь дизайна: для маленьких моделей исследователи проверили три варианта дообучения — скрытые интенты (учимся на данных с тегами, но убираем теги перед обучением), явные интенты (оставляем теги в обучающих данных) и «мультивью» (4x данных: с обоими типами тегов, только paragraph, только citation, и без тегов вообще). Победил мультивью — маленькая модель увидела столько вариаций контекста, что научилась применять нужный уровень намерений гибко.
Что удивило: o3 ведёт себя аномально — для почти 60% утверждений он добавляет информацию из собственной памяти сверх предоставленных источников. Это редкое поведение для frontier-модели, и это объясняет почему добавление citation intent ему помогло (заставило «прикрепляться» к реальным источникам) — хотя не везде одинаково.
Главный вывод для практики: маленькие модели с intent-SFT вышли на уровень gemini-2.5-pro по общему показателю. Это значит, что явное планирование намерений — не украшение, а существенная часть качества генерации.
Адаптации и экстраполяции
🔧 Техника: убираем теги из финального текста → чистый результат с внутренней структурой
Попроси модель сначала написать с тегами, потом очистить:
Шаг 1: Напиши текст с тегами ... по шаблону выше.
Шаг 2: Перепиши тот же текст полностью, удалив все теги.
Содержание и структура — без изменений.
Получаешь лучшую структуру без видимых артефактов.
🔧 Экстраполяция: Intent Audit — аудит уже написанного текста
Метод работает и в обратную сторону: дай модели готовый текст и попроси расставить теги постфактум. Это диагностика структуры — сразу видно, где пять абзацев подряд с одним типом «Изложение» и нет ни одной «Аргументации».
Вот текст: {текст}
Расставь теги намерений для каждого абзаца:
[тип: Изложение/Определение/Аргументация/
Сравнение-Контраст/Причина-Следствие/Проблема-Решение/Оценка/Повествование]
[объяснение]
Затем дай резюме: какие типы преобладают,
каких не хватает для полноценного анализа.
Ресурсы
Improving Attributed Long-form Question Answering with Intent Awareness ICLR 2026
Авторы: Xinran Zhao, Aakanksha Naik, Jay DeYoung, Joseph Chee Chang, Jena D. Hwang, Tongshuang Wu, Varsha Kishore
Аффилиации: Allen Institute for AI (AI2), Carnegie Mellon University, University of Washington
Код и данные: https://github.com/colinzhaoust/intent-aware-deep-research
Связанные работы упомянутые в статье: ACL-ARC citation intent taxonomy (Jurgens et al., 2018), STaR rationale bootstrapping (Zelikman et al., 2022), ToW word-level reasoning (Xu et al., 2025)
