3,583 papers
arXiv:2508.11158 72 14 авг. 2025 г. FREE

RAID G-SEO: оптимизация контента для генеративных поисковиков через моделирование намерений

КЛЮЧЕВАЯ СУТЬ
Парадокс: Традиционное SEO провалилось в генеративных поисковиках. Ключевые слова, ссылки, метатеги — всё это работает для Google, но бесполезно когда ChatGPT Search или Perplexity решают что упомянуть в ответе. Классическое SEO даёт прирост всего +2.28 балла (шестое место из девяти методов). RAID G-SEO решает проблему через моделирование намерений разных типов пользователей (джуниор разработчик, менеджер, HR, фрилансер). Фишка: модель думает как ~8000 ролевых перспектив и переписывает контент так, чтобы он отвечал на намерения разных аудиторий, а не только на одну абстрактную задачу. Результат — 62.8% эффективность попадания в генеративные ответы.
Адаптировать под запрос

TL;DR

RAID G-SEO — метод оптимизации контента специально под генеративные поисковые системы (Perplexity.ai, Google SGE, ChatGPT Search). Вместо традиционного SEO с ключевыми словами здесь работает моделирование намерения пользователя (search intent) и переписывание контента под это намерение. Метод состоит из четырёх этапов: сжатие текста до сути → определение намерения → планирование улучшений → переписывание контента.

Традиционное SEO проваливается в генеративных поисковиках. Ключевые слова, ссылки, метатеги — всё это работает для Google, но бесполезно когда ChatGPT или Perplexity решают какой контент упомянуть в ответе. Исследование показало: классическое SEO даёт прирост всего +2.28 в объективной оценке и +0.11 в субъективной (это шестое место из девяти методов). Генеративные модели выбирают контент по другим правилам — они не ищут ключевые слова, а синтезируют смысл. Если твой текст не попадает в их логику ответа, он просто не появится, как бы идеально он ни был оптимизирован под традиционный поиск.

RAID G-SEO решает проблему через 4W-рефлексию — метод думает как разные типы пользователей: Who (кто ищет?), What (что им нужно?), Why (почему текущий контент не подходит?), How (как его улучшить?). Модель генерирует ~8000 ролевых перспектив (учителя, менеджеры, DIY-энтузиасты, повара) и проверяет: подходит ли твой контент для каждой из них. Затем переписывает текст так, чтобы он отвечал на намерения разных аудиторий, а не только на одну абстрактную задачу.


🔬

Схема метода

ШАГ 1: Content Summarization 
→ Сжатие текста до ключевой сути (убирает шум и стилистику)

ШАГ 2: Intent Inference 
→ Определение начального намерения пользователя (что он ищет)

ШАГ 3: 4W Multi-Role Reflection
→ Who: Какие типы пользователей ищут этот контент?
→ What: Какие у них потребности?
→ Why: Почему текущий текст им не подходит?
→ How: Как обобщить намерение под все группы?

ШАГ 4: Step Planning 
→ План конкретных улучшений (что добавить, убрать, переписать)

ШАГ 5: Content Rewriting
→ Переписывание контента по плану с учётом обобщённого намерения

Важно: Все шаги выполняются через промпты в одной модели. Это не требует кода или API — только структурированные инструкции.


🚀

Пример применения

Задача: У тебя есть статья про удалённую работу в IT. Ты хочешь чтобы её цитировали Perplexity.ai или ChatGPT Search когда люди спрашивают про работу из дома.

Промпт:

Вот моя статья про удалённую работу в IT:

[вставить текст статьи]

Помоги оптимизировать её для генеративных поисковиков (Perplexity, ChatGPT Search).

Сделай это в 5 шагов:

1. SUMMARIZATION: Выдели ключевую суть статьи в 3-4 предложениях. Убери стилистику и шум.

2. INITIAL INTENT: На основе сути определи — какое намерение пользователя может привести к этой статье?

3. 4W REFLECTION: 
 - Who: Какие 5-7 типов людей могут искать эту информацию? (например: джуниор разработчик, менеджер проекта, HR, фрилансер)
 - What: Для каждого типа — что конкретно они хотят узнать?
 - Why: Почему текущая статья не полностью отвечает на их вопросы?
 - How: Как переформулировать намерение чтобы покрыть все группы?

4. OPTIMIZATION PLAN: На основе обобщённого намерения составь план из 5-7 конкретных улучшений. Для каждого пункта укажи:
 - Какую цель он решает (полнота, ясность, факты, структура)
 - Какое действие нужно сделать (добавить, убрать, переписать)

5. REWRITE: Перепиши статью по плану. Сохрани мой стиль, но улучши под намерения всех типов пользователей.

Результат:

Модель выдаст поэтапный анализ:

  • Summarization — короткая выжимка ключевых идей статьи
  • Intent — формулировку намерения ("пользователь ищет практические советы по настройке удалённой работы")
  • 4W Reflection — таблицу с типами пользователей (новичок, опытный, менеджер, HR), их потребностями, пробелами в статье
  • Plan — список из 5-7 пунктов: "добавить раздел про home office setup", "убрать общие фразы", "добавить статистику по продуктивности"
  • Rewrite — финальная версия статьи, оптимизированная под все выявленные типы запросов

Такой контент с большей вероятностью попадёт в ответы ChatGPT Search или Perplexity, потому что покрывает намерения разных аудиторий, а не только одну абстрактную задачу.


🧠

Почему это работает

Слабость LLM: Генеративные поисковики не работают как Google. Они не ищут ключевые слова и не считают ссылки. Вместо этого модель читает несколько источников и синтезирует ответ. Если твой контент не попадает в её логику синтеза — он просто исчезает из результата. Традиционное SEO оптимизирует под видимость в списке, а здесь нужно оптимизировать под упоминание в тексте ответа.

Сильная сторона LLM: Модели хорошо понимают намерения и умеют рассуждать с разных ролевых перспектив. Если попросить модель "подумай как менеджер, потом как джуниор, потом как фрилансер" — она реально меняет фокус и выдаёт разные инсайты. Это не магия — это особенность архитектуры: модель обучена на текстах от разных людей с разными ролями, и она умеет симулировать эти перспективы.

Как метод использует это: RAID G-SEO заставляет модель думать как множество типов пользователей, а не как один абстрактный юзер. Через 4W-рефлексию метод выявляет разные потребности (джуниору нужны базовые советы, менеджеру — про управление командой, фрилансеру — про самодисциплину). Потом контент переписывается так, чтобы покрывать все эти намерения. В итоге когда Perplexity получает запрос от любого из этих типов пользователей, твой контент с большей вероятностью попадёт в ответ, потому что он релевантен с разных углов.

Рычаги управления промптом:

  • Количество ролей — можно запросить 3-5 типов пользователей (для простых тем) или 10-15 (для сложных)
  • Глубина рефлексии — можно упростить 4W до "Who + What" или углубить до "Who + What + Why + How + What if"
  • Баланс обобщения vs специфики — в "How" можно попросить "максимально широкое намерение" или "сохрани фокус на X аудитории"
  • Приоритет улучшений — в Step Planning можно ограничить "только структурные правки" или "фокус на факты и статистику"

📋

Шаблон промпта

Вот мой контент: {текст}

Оптимизируй его для генеративных поисковиков (ChatGPT Search, Perplexity.ai) через моделирование намерений.

ШАГ 1 — SUMMARIZATION:
Выдели ключевую суть контента в 3-4 предложениях. Убери стилистику, оставь только смысл.

ШАГ 2 — INITIAL INTENT:
На основе сути определи: какое намерение пользователя может привести к этому контенту?

ШАГ 3 — 4W REFLECTION:
- Who: Перечисли 5-7 типов пользователей, которые могут искать эту информацию.
- What: Для каждого типа — какая у них конкретная потребность?
- Why: Для каждого типа — почему текущий контент не полностью им подходит?
- How: Переформулируй начальное намерение так, чтобы оно покрывало потребности всех типов.

ШАГ 4 — OPTIMIZATION PLAN:
Составь план из 5-7 улучшений. Для каждого укажи:
- Цель (полнота / ясность / факты / структура)
- Действие (что добавить / убрать / переписать)

ШАГ 5 — REWRITE:
Перепиши контент по плану. Сохрани стиль, но улучши под обобщённое намерение.

Плейсхолдеры:

  • {текст} — твой исходный контент (статья, пост, описание продукта)

🚀 Быстрый старт — вставь в чат:

Вот шаблон RAID G-SEO. Адаптируй под мою задачу: [твоя задача]. 
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про тип контента, целевую аудиторию, контекст — потому что для 4W-рефлексии нужно понимать кто твои читатели. Она возьмёт паттерн из шаблона и адаптирует под задачу.


⚠️

Ограничения

⚠️ Эффективность: Метод работает в 62.8% случаев — это лучше базовых методов, но всё равно меньше 70%. Генеративные поисковики непредсказуемы, и даже хорошая оптимизация не гарантирует попадание в ответ.

⚠️ Overfitting риск: Слишком специфичное намерение может привести к тому, что контент идеально подходит под один запрос, но проваливается на всех остальных. 4W-рефлексия помогает, но баланс между точностью и широтой намерения — всё ещё открытая проблема.

⚠️ Только текст: Метод работает только с текстовым контентом. Картинки, диаграммы, таблицы — игнорируются, хотя они могут влиять на видимость в реальных генеративных поисковиках.

⚠️ Узкая задача: Метод полезен только если твой контент индексируется генеративными поисковиками (сайты, статьи, документация). Для обычных чатов или закрытых систем — не применимо напрямую.


🔍

Как исследовали

Исследователи смоделировали генеративный поисковик на базе GLM-4-9B — это open-source модель с низким уровнем галлюцинаций (по Hallucination Leaderboard). Логика простая: система получает запрос → находит 5 релевантных источников → генерирует ответ с цитатами. Задача G-SEO — увеличить шанс, что твой источник попадёт в цитаты.

Взяли 100 реальных запросов из Bing, Google, Perplexity и для каждого сгенерировали 4 варианта через GPT-4 (итого 500 задач). Это покрывает разнообразие формулировок — люди же не спрашивают одинаково. Сравнили RAID G-SEO с девятью базовыми методами из GEO-bench: традиционное SEO, уникальные слова, упрощение, авторитетность, терминология, статистика, цитаты.

Оценивали двумя способами:

  1. Объективно — Position-Adjusted Word Count (PAWC): считали сколько слов из источника попало в ответ, с учётом позиции (чем раньше упомянули — тем больше вес). RAID G-SEO дал +8.49 против +7.03 у лучшего baseline (статистика).
  2. Субъективно — семь критериев (релевантность, уникальность, разнообразие, вероятность клика, видимость). Оценивали через G-Eval 2.0 — это улучшенная версия, где GPT-4o генерирует детальные промпты для каждого критерия (шкала 0-5), а GLM-4-9B выставляет оценки. RAID G-SEO дал +4.72 в среднем против +3.63 у терминологии.

Что удивило: Традиционное SEO провалилось (+2.28 объективно, +0.11 субъективно) — это шестое место из девяти. Методы с терминологией и статистикой оказались в топ-2, а репутация и авторитетность — в аутсайдерах. Вывод для практики: LLM ценят экспертность контента (специальные термины, цифры, данные) больше, чем внешнюю авторитетность (цитаты известных людей, ссылки на регалии). Это, вероятно, связано с обучающими данными — модели видели больше текстов с терминами, чем с пруфами авторитета.

Ещё провели анализ ролей из 4W-рефлексии: собрали 8030 экземпляров ролей, кластеризовали — получилось, что модель генерирует в основном Knowledge Producers (учителя, аналитики) и Civic Actors (повара, DIY-энтузиасты). Это две трети всех ролей. Health Stakeholders и Creative Professionals — всего 6% и 3%. Модель предпочитает общедоступные перспективы, а не узкоспециализированные.


💡

Адаптации и экстраполяции

📌

💡 Адаптация для работы в обычных чатах

Хотя метод создан для генеративных поисковиков, принципы применимы в обычных чатах ChatGPT/Claude:

Задача: Написать пост для LinkedIn про свой опыт найма разработчиков.

Промпт:

Вот черновик моего поста:

[вставить текст]

Помоги улучшить его через 4W-рефлексию:

1. Who: Какие 4-5 типов людей могут читать пост в моём LinkedIn? 
 (например: рекрутеры, тимлиды, джуниоры, основатели стартапов)

2. What: Для каждого типа — что они хотят узнать из поста про найм?

3. Why: Почему текущий текст не полностью отвечает на их вопросы?

4. How: Переформулируй главную мысль поста так, чтобы она была полезна всем типам.

5. Перепиши пост с учётом обобщённой мысли. Сохрани мой стиль.

Результат: Пост станет релевантнее для разных аудиторий. Вместо "мой опыт найма" получишь текст, который отвечает рекрутерам (про процесс), тимлидам (про критерии), джуниорам (как выделиться), фаундерам (про стратегию).


📌

🔧 Техника: Упрощённая 2W-рефлексия → быстрее, меньше токенов

Что меняем: Убираем Why и How, оставляем только Who + What.

Эффект: В 2-3 раза быстрее, меньше расход токенов, но теряем глубину анализа пробелов.

Когда использовать: Для простых текстов (посты, емейлы), где не нужна глубокая рефлексия.

Промпт:

Проанализируй мой текст через 2W:

1. Who: Какие 3-4 типа людей прочитают это?
2. What: Для каждого типа — одна главная потребность.

Перепиши текст так, чтобы отвечать всем потребностям.

📌

🔧 Техника: Добавить "Check" шаг → контроль качества рефлексии

Что добавляем: После How добавляем шаг "Check: насколько обобщённое намерение покрывает все типы пользователей?"

Эффект: Модель перепроверяет себя, находит пропущенные группы или слишком узкие формулировки.

Промпт (фрагмент):

ШАГ 3.5 — CHECK:
Проверь обобщённое намерение из How:
- Покрывает ли оно потребности всех типов из Who?
- Есть ли типы, которые мы пропустили?
- Слишком ли узкое намерение или слишком общее?

Если нужно — скорректируй намерение.

📌

💡 Экстраполяция: 4W-рефлексия для креатива (не только для контента)

Идея: Применить 4W не к тексту, а к креативной идее (дизайн, продукт, стратегия).

Задача: У тебя есть идея для нового курса по промптингу.

Промпт:

Вот моя идея курса:

[описание идеи]

Проверь через 4W-рефлексию:

1. Who: Какие 5-6 типов людей могут купить курс?
2. What: Для каждого типа — какой результат они хотят?
3. Why: Почему текущая программа курса не даст им этот результат?
4. How: Как изменить программу, чтобы она подходила всем типам?

Выдай улучшенную программу курса.

Результат: Курс станет привлекательнее для разных сегментов — новички получат основы, опытные — продвинутые техники, менеджеры — кейсы применения в бизнесе.


🔗

Ресурсы

Role-Augmented Intent-Driven Generative Search Engine Optimization (2025)

Xiaolu Chen, Haojie Wu, Jie Bao, Zhen Chen, Yong Liao, Hu Huang

University of Science and Technology of China

Связанные работы:

  • GEO-bench — первый бенчмарк для оценки G-SEO методов
  • G-Eval — фреймворк для субъективной оценки через LLM
  • Retrieval-Augmented Generation (RAG) — архитектура генеративных поисковиков

📋 Дайджест исследования

Ключевая суть

Парадокс: Традиционное SEO провалилось в генеративных поисковиках. Ключевые слова, ссылки, метатеги — всё это работает для Google, но бесполезно когда ChatGPT Search или Perplexity решают что упомянуть в ответе. Классическое SEO даёт прирост всего +2.28 балла (шестое место из девяти методов). RAID G-SEO решает проблему через моделирование намерений разных типов пользователей (джуниор разработчик, менеджер, HR, фрилансер). Фишка: модель думает как ~8000 ролевых перспектив и переписывает контент так, чтобы он отвечал на намерения разных аудиторий, а не только на одну абстрактную задачу. Результат — 62.8% эффективность попадания в генеративные ответы.

Принцип работы

Метод работает через 4W-рефлексию — модель последовательно отвечает на четыре вопроса: Who (кто ищет этот контент?), What (что им конкретно нужно?), Why (почему текущий текст не подходит?), How (как обобщить намерение чтобы покрыть все группы?). Это не просто анализ аудитории. Модель генерирует 5-7 ролевых перспектив (учителя, повара, DIY-энтузиасты) и для каждой выявляет пробелы в контенте. Потом контент переписывается так, чтобы он был релевантен с разных углов. Когда Perplexity получает запрос от любого из этих типов пользователей — твой текст с большей вероятностью попадает в ответ.

Почему работает

Генеративные поисковики не работают как Google. Они не ищут ключевые слова и не считают ссылки. Модель читает несколько источников и синтезирует ответ из смысла. Если контент не попадает в логику синтеза — он просто исчезает, как бы идеально он ни был оптимизирован под традиционный поиск. Модели хорошо понимают намерения и умеют рассуждать с разных ролевых перспектив (обучены на текстах от разных людей с разными ролями). RAID заставляет модель думать как множество типов пользователей, а не как один абстрактный юзер. В итоге контент покрывает разные намерения — и попадает в ответы на запросы от разных аудиторий. Эффективность 62.8% против +2.28 балла у традиционного SEO.

Когда применять

Контент-маркетинг → статьи, документация, посты которые индексируются генеративными поисковиками (Perplexity.ai, ChatGPT Search, Google SGE), особенно когда целевая аудитория использует эти поисковики вместо Google. НЕ подходит для закрытых систем, внутренних чатов или контента который не индексируется публично.

Мини-рецепт

1. Сжатие до сути: Попроси модель выделить ключевые идеи контента в 3-4 предложениях. Убери стилистику и шум — оставь только смысл.

2. Начальное намерение: На основе сути определи — какое намерение пользователя может привести к этому контенту? Сформулируй в одном предложении.

3. 4W-рефлексия: Запусти четыре вопроса: Who (перечисли 5-7 типов пользователей которые могут искать эту информацию), What (для каждого типа — какая конкретная потребность?), Why (почему текущий контент не полностью им подходит?), How (переформулируй намерение чтобы покрыть потребности всех типов).

4. План улучшений: Составь список из 5-7 конкретных правок. Для каждой укажи цель (полнота, ясность, факты, структура) и действие (что добавить, убрать, переписать).

5. Переписывание: Перепиши контент по плану. Сохрани стиль, но улучши под обобщённое намерение из шага 3.

Примеры

[ПЛОХО] : Статья про удалённую работу в IT. Добавь ключевые слова: remote work, work from home, онлайн работа. Оптимизируй метатеги и заголовки H2-H3
[ХОРОШО] : Вот статья про удалённую работу в IT: [текст]. Оптимизируй для генеративных поисковиков через 4W-рефлексию: 1) Сожми до сути за 3-4 предложения. 2) Определи начальное намерение. 3) Who: перечисли 5-7 типов (джуниор, менеджер, HR, фрилансер). What: потребности каждого. Why: пробелы в статье. How: обобщи намерение. 4) План из 5-7 улучшений (что добавить про home office setup, статистику продуктивности, управление командой). 5) Перепиши контент по плану
Источник: Role-Augmented Intent-Driven Generative Search Engine Optimization
ArXiv ID: 2508.11158 | Сгенерировано: 2026-01-12 06:01

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с