3,583 papers
arXiv:2603.27435 76 28 мар. 2026 г. FREE

Intent-Aware Writing: явные теги намерений для структурных длинных текстов

КЛЮЧЕВАЯ СУТЬ
Модель не может противоречить тому, что только что написала сама. Intent-Aware Writing использует это свойство: перед каждым абзацем модель объявляет его тип и функцию через XML-тег — и следующие токены уже обусловлены этим объявлением. Метод позволяет генерировать длинные аналитические тексты, где каждый абзац выполняет свою функцию — аргументирует, сравнивает, устанавливает причины — а не повторяет одно и то же пять раз подряд. Фишка: тег намерения — не внешняя инструкция, а часть генерируемого текста. Модель пишет Сравнение-Контраст: сравниваю экономику для авторов на стримингах и YouTube — и буквально не может после этого написать описательный абзац ни о чём. Замкнутая петля: намерение → текст → следующее намерение → следующий текст.
Адаптировать под запрос

TL;DR

Модель пишет лучше, если перед каждым абзацем явно объявляет зачем он нужен — это аргументация, контекст, сравнение или определение. Исследователи добавили XML-теги намерений прямо в генерацию: сначала тег с типом абзаца и обоснованием, потом сам текст. То же самое — для каждого источника: перед цитатой модель объясняет, почему она здесь.

Проблема в том, что LLM обучена на готовых текстах — без авторского внутреннего диалога. Человек пишет с планом в голове: «этот абзац — чтобы задать контекст, этот — чтобы сравнить подходы». Но эти мысли исчезают в финальном тексте. Модель видит только результат, не процесс. Поэтому она имитирует стиль, но не мышление — и в длинных текстах структура «плывёт»: абзацы теряют функцию, источники цитируются без понятной логики.

Решение: перед каждым абзацем модель генерирует [тип абзаца + зачем], перед каждой ссылкой — [тип цитирования + зачем]. Два уровня намерений — два шага осознанности. Ни один абзац не пишется «в никуда».


🔬

Схема метода

Всё выполняется в одном промпте — модель сама генерирует теги и контент последовательно.

УРОВЕНЬ 1: Намерение абзаца
[тип: Изложение / Определение / Аргументация / 
Сравнение-Контраст / Причина-Следствие / Проблема-Решение / 
Оценка / Повествование] [1–2 предложения: зачем этот абзац]
→ Текст абзаца

УРОВЕНЬ 2: Намерение ссылки (внутри абзаца)
[тип: Контекст / Обоснование / Использование / 
Расширение / Сравнение / Перспектива] [зачем этот источник]
→ Предложение с цитатой [Источник N]

🚀

Пример применения

Задача: Написать аналитический разбор для Telegram-канала о том, почему стриминги (Кинопоиск, Okko, START) проигрывают борьбу за аудиторию подросткам в пользу YouTube и VK Видео.

Промпт:

Напиши структурный анализ «Почему российские стриминги 
проигрывают YouTube за аудиторию 14–22 лет».

Используй следующие источники:
— [1] Данные Mediascope 2024 о потреблении видео по возрастам
— [2] Интервью Антон Сихарулидзе (START) о стратегии контента
— [3] Статья о монетизации блогеров на YouTube vs Reels

Для каждого абзаца перед текстом добавь тег намерения:
[тип абзаца: Изложение/Определение/Аргументация/
Сравнение-Контраст/Причина-Следствие/Проблема-Решение/Оценка/
Повествование][объяснение: зачем этот абзац в тексте]

Для каждого использования источника перед предложением добавь:
[тип: Контекст/Обоснование/Использование/Сравнение/
Перспектива][объяснение: зачем здесь этот источник]

Структура: введение, 3–4 тематических блока, вывод.

Результат: Модель сгенерирует разбор, где перед каждым абзацем будет виден тег — например, Сравнение-Контраст: сравниваю экономику для создателей контента на стримингах и YouTube, чтобы объяснить почему блогеры не идут на платформы. Источники будут появляться с явным обоснованием типа "Использование" или "Обоснование". В итоге текст будет функционально разнообразным: не пять одинаковых абзацев с «аналитикой», а чередование контекста, аргументов, сравнений и выводов.


🧠

Почему это работает

Слабость модели — она генерирует текст слева направо, без «взгляда сзади». Без явного плана каждый следующий абзац может выполнять ту же функцию, что предыдущий. Длинный текст превращается в монотонный поток одного типа предложений.

Сильная сторона модели — она хорошо следует ограничениям, которые уже есть в тексте. Если в только что сгенерированном теге написано «Аргументация: доказываю тезис через данные», модель в следующем абзаце действительно будет строить аргумент, а не просто описывать факты.

Как метод использует это: теги намерений — это не «мета-комментарий», а часть генерируемого текста. Модель сама пишет тег прямо перед абзацем, и этот тег становится контекстом для следующего шага генерации. Это замкнутая петля: намерение → текст → следующее намерение → следующий текст. Каждый абзац осознан.

Рычаги управления: - Сократи набор типов под задачу: для аналитики достаточно Аргументация + Сравнение-Контраст + Проблема-Решение - Попроси только paragraph intent без citation intent — для текстов без формальных источников - Убери теги из финального вывода отдельным запросом: "Теперь перепиши тот же текст без тегов /"


📋

Шаблон промпта

Напиши {тип_документа} по теме: {тема}

{если есть источники:
Источники:
— [1] {источник_1}
— [2] {источник_2}}

Для каждого абзаца перед текстом добавь тег намерения:
[тип абзаца из списка: Изложение / Определение / 
Аргументация / Сравнение-Контраст / Причина-Следствие / 
Проблема-Решение / Оценка / Повествование]
[1–2 предложения: зачем этот абзац нужен в этом тексте]

{если есть источники:
Для каждого источника перед использованием добавь:
[тип из списка: Контекст / Обоснование / Использование / 
Расширение / Сравнение / Перспектива]
[1 предложение: почему здесь нужен этот источник]}

Структура: {структура — например: введение, 3 блока, вывод}

Плейсхолдеры: - {тип_документа} — статья, разбор, отчёт, аналитика, эссе - {тема} — конкретный вопрос или тезис - {источники} — ссылки, цитаты, данные которые нужно использовать - {структура} — количество и тип разделов


🚀 Быстрый старт — вставь в чат:

Вот шаблон Intent-Aware Writing. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про тему, тип документа и есть ли источники — потому что структура тегов зависит от того, нужен ли уровень citation intent или только paragraph intent. Она возьмёт паттерн тегов из шаблона и адаптирует под твою задачу.


⚠️

Ограничения

⚠️ Узкая сильная зона: Метод даёт максимальный эффект в длинных структурных текстах — аналитика, отчёты, разборы. Для короткого письма или списка задач — избыточен.

⚠️ Цитирование без источников: Уровень citation intent работает только если в промпте есть реальные источники. Без них модель будет придумывать обоснования для несуществующих ссылок.

⚠️ Маленькие модели без дообучения: GPT-4o и Claude хорошо держат формат тегов. Слабые модели могут «терять» структуру на длинных текстах или генерировать теги формально, не меняя реального содержания абзаца.

⚠️ Однотипные намерения: Если задача простая или источников мало, модель может начать повторять одни типы (например, всё «Изложение»). Тогда явно ограничь повторение: «каждый тип абзаца не более 1 раза».


🔍

Как исследовали

Команда Института AI2 (Allen Institute for AI) вместе с CMU взяла три бенчмарка для генерации научных отчётов: вопросы по Computer Science, написание related work разделов для arxiv-статей и синтез обзорных статей по ИИ. На каждой задаче сравнивали: стандартная генерация vs генерация с тегами намерений — для больших моделей (o3, gemini-2.5-pro, Claude opus-4) и для маленьких (Qwen3-4B/8B, LLaMA3.1-8B).

Интересная деталь дизайна: для маленьких моделей исследователи проверили три варианта дообучения — скрытые интенты (учимся на данных с тегами, но убираем теги перед обучением), явные интенты (оставляем теги в обучающих данных) и «мультивью» (4x данных: с обоими типами тегов, только paragraph, только citation, и без тегов вообще). Победил мультивью — маленькая модель увидела столько вариаций контекста, что научилась применять нужный уровень намерений гибко.

Что удивило: o3 ведёт себя аномально — для почти 60% утверждений он добавляет информацию из собственной памяти сверх предоставленных источников. Это редкое поведение для frontier-модели, и это объясняет почему добавление citation intent ему помогло (заставило «прикрепляться» к реальным источникам) — хотя не везде одинаково.

Главный вывод для практики: маленькие модели с intent-SFT вышли на уровень gemini-2.5-pro по общему показателю. Это значит, что явное планирование намерений — не украшение, а существенная часть качества генерации.


💡

Адаптации и экстраполяции

🔧 Техника: убираем теги из финального текста → чистый результат с внутренней структурой

Попроси модель сначала написать с тегами, потом очистить:

Шаг 1: Напиши текст с тегами ... по шаблону выше.
Шаг 2: Перепиши тот же текст полностью, удалив все теги. 
Содержание и структура — без изменений.

Получаешь лучшую структуру без видимых артефактов.


🔧 Экстраполяция: Intent Audit — аудит уже написанного текста

Метод работает и в обратную сторону: дай модели готовый текст и попроси расставить теги постфактум. Это диагностика структуры — сразу видно, где пять абзацев подряд с одним типом «Изложение» и нет ни одной «Аргументации».

Вот текст: {текст}

Расставь теги намерений для каждого абзаца:
[тип: Изложение/Определение/Аргументация/
Сравнение-Контраст/Причина-Следствие/Проблема-Решение/Оценка/Повествование]
[объяснение]

Затем дай резюме: какие типы преобладают, 
каких не хватает для полноценного анализа.

🔗

Ресурсы

Improving Attributed Long-form Question Answering with Intent Awareness ICLR 2026

Авторы: Xinran Zhao, Aakanksha Naik, Jay DeYoung, Joseph Chee Chang, Jena D. Hwang, Tongshuang Wu, Varsha Kishore

Аффилиации: Allen Institute for AI (AI2), Carnegie Mellon University, University of Washington

Код и данные: https://github.com/colinzhaoust/intent-aware-deep-research

Связанные работы упомянутые в статье: ACL-ARC citation intent taxonomy (Jurgens et al., 2018), STaR rationale bootstrapping (Zelikman et al., 2022), ToW word-level reasoning (Xu et al., 2025)


📋 Дайджест исследования

Ключевая суть

Модель не может противоречить тому, что только что написала сама. Intent-Aware Writing использует это свойство: перед каждым абзацем модель объявляет его тип и функцию через XML-тег — и следующие токены уже обусловлены этим объявлением. Метод позволяет генерировать длинные аналитические тексты, где каждый абзац выполняет свою функцию — аргументирует, сравнивает, устанавливает причины — а не повторяет одно и то же пять раз подряд. Фишка: тег намерения — не внешняя инструкция, а часть генерируемого текста. Модель пишет Сравнение-Контраст: сравниваю экономику для авторов на стримингах и YouTube — и буквально не может после этого написать описательный абзац ни о чём. Замкнутая петля: намерение → текст → следующее намерение → следующий текст.

Принцип работы

Обычный подход: дай тему — получи текст. Модель пишет слева направо, без взгляда назад. К третьему абзацу она уже не помнит, зачем писала первый. Все пять абзацев делают одно — описывают факты. Читаешь и чувствуешь: текст есть, мысли нет. Intent-Aware Writing разрывает этот цикл. Перед каждым абзацем — тег с типом и обоснованием, перед каждым источником — тег с объяснением зачем он здесь. Прикол: тег пишет сама модель, прямо в потоке генерации — и он сразу становится ограничением для следующего шага. Написала «Аргументация: доказываю тезис через данные» — значит следующие предложения будут строить аргумент, не просто пересказывать. Два уровня осознанности: paragraph intent (зачем абзац) и citation intent (зачем источник).

Почему работает

LLM обучена на готовых текстах — без авторского внутреннего монолога. Человек пишет с планом в голове: «этот абзац — чтобы задать контекст, этот — чтобы сравнить подходы». Но эти мысли исчезают в финальном тексте. Модель видит только результат, не процесс. Поэтому она имитирует стиль, но не мышление. При этом модель хорошо следует ограничениям, которые уже есть в тексте — особенно тем, которые она сама только что написала. Явный тег намерения — это самозаданное ограничение, которое стоит прямо перед абзацем в том же потоке и которое модель не может проигнорировать. Как автор, который вслух произносит план перед каждым абзацем — и уже не может уйти в сторону.

Когда применять

Длинные структурные тексты — аналитика, отчёты, разборы, эссе — особенно когда есть несколько источников и важно чередование функций: контекст, аргумент, сравнение, вывод. Хорошо работает с GPT-4o и Claude — они держат формат тегов на длинных текстах. НЕ подходит для коротких ответов, списков задач и простых вопросов — там теги дают лишний шум без пользы. Осторожно с маленькими моделями без дообучения: могут писать теги формально, не меняя реального содержания абзаца. Если в тексте нет реальных источников — citation intent лучше не подключать, иначе модель будет придумывать обоснования для несуществующих ссылок.

Мини-рецепт

1. Выбери нужные типы абзацев: Не лепи все восемь — для большинства задач достаточно трёх-четырёх. Для аналитики: Аргументация, Сравнение-Контраст, Причина-Следствие, Проблема-Решение. Для разборов добавь Оценку.
2. Добавь инструкцию для paragraph intent: Перед каждым абзацем модель пишет [тип абзаца][1–2 предложения: зачем этот абзац здесь], потом текст. Укажи список допустимых типов прямо в промпте.
3. Если есть источники — подключи citation intent: Перед каждым использованием — [тип: Контекст / Обоснование / Сравнение / Перспектива][зачем здесь этот источник], потом предложение со ссылкой. Типы тоже укажи явно.
4. Убери теги в отдельном запросе: После генерации попроси: Перепиши тот же текст без тегов / и /, сохранив структуру и порядок абзацев.

Примеры

[ПЛОХО] : Напиши аналитическую статью о том, почему молодёжь уходит с телевидения
[ХОРОШО] : Напиши аналитику «Почему молодёжь 16–25 лет уходит с телевидения в подкасты». Источники: — [1] данные Mediascope 2024 о потреблении видео по возрастам — [2] отчёт Яндекса о росте подкастов среди молодёжи Для каждого абзаца добавь перед текстом: [тип из списка: Изложение / Аргументация / Сравнение-Контраст / Причина-Следствие / Проблема-Решение][1–2 предложения: зачем этот абзац в тексте] Для каждого источника перед предложением: [тип: Контекст / Обоснование / Сравнение][зачем здесь этот источник] Структура: введение, три аналитических блока, вывод. Каждый тип абзаца не более одного раза. В итоге: вместо пяти одинаковых «описательных» абзацев — чередование функций. Один блок задаёт контекст, второй строит аргумент через данные, третий сравнивает платформы. Источники появляются с явным обоснованием, а не просто «потому что были в промпте».
Источник: Improving Attributed Long-form Question Answering with Intent Awareness
ArXiv ID: 2603.27435 | Сгенерировано: 2026-03-31 04:33

Проблемы LLM

ПроблемаСутьКак обойти
Длинный текст теряет структурное разнообразиеМодель пишет слева направо. Нет плана в голове. Каждый следующий абзац не знает зачем он нужен. В итоге три абзаца подряд делают одно и то же — излагают факты. Нет аргументов, нет сравнений, нет причин. Текст становится монотонным. Проблема нарастает с длиной: чем длиннее — тем сильнее «плывёт»Заставь модель объявлять функцию абзаца ДО его написания. Добавь в запрос: перед каждым абзацем пиши тег [тип: Аргументация / Сравнение / Причина-Следствие / Оценка / и т.д.][зачем этот абзац]. Тег станет планом — и следующий абзац будет ему следовать

Методы

МетодСуть
Теги намерений — структурный план внутри текстаДобавь в запрос инструкцию: перед каждым абзацем модель сама пишет тег [тип абзаца][1–2 предложения: зачем он нужен], потом сам абзац. Уровни: только абзацный тег — для любых длинных текстов; плюс тег источника [тип цитирования][зачем здесь] — если есть реальные ссылки. Почему работает: тег — это не комментарий, а часть генерируемого текста. Модель написала «Аргументация: доказываю тезис через данные» — и этот текст уже в контексте. Следующий шаг генерации читает его и строит аргумент, а не описание. Когда применять: длинные аналитические тексты, отчёты, разборы. Когда не нужен: короткие тексты, списки, письма — избыточно. Уберёшь теги после: отдельным запросом «перепиши без тегов /»
📖 Простыми словами

Improving Attributed Long-form Question Answering with Intent Awareness

arXiv: 2603.27435

Суть в том, что нейронки по своей природе — это болтливые таксисты, которые едут по навигатору, но не видят конечной точки маршрута. Когда ты просишь AI написать лонгрид, он просто генерирует слово за словом слева направо, часто забывая, зачем вообще начал этот абзац. В итоге получается монотонная каша, где мысли дублируются, а логика хромает. Метод Intent Awareness заставляет модель сначала «подумать об стену»: прежде чем выдать текст, она обязана прописать XML-тег с намерением — зачем этот кусок вообще нужен, будь то аргументация, сравнение или сухой факт.

Это как если бы ты писал диплом и перед каждым абзацем на полях клеил стикер: «Здесь я доказываю, что всё плохо» или «Тут я сравниваю цены». Без такого плана ты рискуешь три страницы подряд ныть об одном и том же, а со стикерами ты вынужден структурировать поток сознания. В этом исследовании модель сначала обосновывает выбор источника и роль абзаца, а уже потом открывает рот. Формально это лишние телодвижения, но на деле это спасает текст от превращения в бессвязный набор букв.

В работе использовали конкретную механику: явное объявление намерений и обоснование цитат. Модель не просто вываливает ссылку на источник, а сначала пишет: «Я беру этот факт, потому что он подтверждает падение охватов». Это работает как предохранитель от галлюцинаций и воды. Если модель заставили объяснить, зачем ей этот кусок данных, она с гораздо меньшей вероятностью притянет за уши левую фигню, которая просто красиво звучит, но не несет смысла.

Хотя тестировали это на длинных ответах на вопросы, принцип универсален. Это золотое правило для любого сложного контента: от аналитики в Telegram до бизнес-стратегий. Если ты хочешь, чтобы ChatGPT выдал не стандартный «AI-стиль» с кучей прилагательных, а жесткую структуру, заставь его использовать эти теги намерений. Это превращает модель из генератора случайных фраз в системного аналитика, который понимает иерархию своих же мыслей.

Главный вывод: структура важнее стиля. Хватит просить нейронку просто «написать текст получше» — заставь её сначала объяснять свои действия через XML-теги или план. Это снижает риск того, что модель уйдет в самоповторы или начнет лить воду. 6 типов намерений и жесткая привязка цитат к логике делают ответ в разы убедительнее. Кто не контролирует зачем модель пишет, тот получает на выходе бесполезный шум.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с