TL;DR
RAID G-SEO — метод оптимизации контента специально под генеративные поисковые системы (Perplexity.ai, Google SGE, ChatGPT Search). Вместо традиционного SEO с ключевыми словами здесь работает моделирование намерения пользователя (search intent) и переписывание контента под это намерение. Метод состоит из четырёх этапов: сжатие текста до сути → определение намерения → планирование улучшений → переписывание контента.
Традиционное SEO проваливается в генеративных поисковиках. Ключевые слова, ссылки, метатеги — всё это работает для Google, но бесполезно когда ChatGPT или Perplexity решают какой контент упомянуть в ответе. Исследование показало: классическое SEO даёт прирост всего +2.28 в объективной оценке и +0.11 в субъективной (это шестое место из девяти методов). Генеративные модели выбирают контент по другим правилам — они не ищут ключевые слова, а синтезируют смысл. Если твой текст не попадает в их логику ответа, он просто не появится, как бы идеально он ни был оптимизирован под традиционный поиск.
RAID G-SEO решает проблему через 4W-рефлексию — метод думает как разные типы пользователей: Who (кто ищет?), What (что им нужно?), Why (почему текущий контент не подходит?), How (как его улучшить?). Модель генерирует ~8000 ролевых перспектив (учителя, менеджеры, DIY-энтузиасты, повара) и проверяет: подходит ли твой контент для каждой из них. Затем переписывает текст так, чтобы он отвечал на намерения разных аудиторий, а не только на одну абстрактную задачу.
Схема метода
ШАГ 1: Content Summarization
→ Сжатие текста до ключевой сути (убирает шум и стилистику)
ШАГ 2: Intent Inference
→ Определение начального намерения пользователя (что он ищет)
ШАГ 3: 4W Multi-Role Reflection
→ Who: Какие типы пользователей ищут этот контент?
→ What: Какие у них потребности?
→ Why: Почему текущий текст им не подходит?
→ How: Как обобщить намерение под все группы?
ШАГ 4: Step Planning
→ План конкретных улучшений (что добавить, убрать, переписать)
ШАГ 5: Content Rewriting
→ Переписывание контента по плану с учётом обобщённого намерения
Важно: Все шаги выполняются через промпты в одной модели. Это не требует кода или API — только структурированные инструкции.
Пример применения
Задача: У тебя есть статья про удалённую работу в IT. Ты хочешь чтобы её цитировали Perplexity.ai или ChatGPT Search когда люди спрашивают про работу из дома.
Промпт:
Вот моя статья про удалённую работу в IT:
[вставить текст статьи]
Помоги оптимизировать её для генеративных поисковиков (Perplexity, ChatGPT Search).
Сделай это в 5 шагов:
1. SUMMARIZATION: Выдели ключевую суть статьи в 3-4 предложениях. Убери стилистику и шум.
2. INITIAL INTENT: На основе сути определи — какое намерение пользователя может привести к этой статье?
3. 4W REFLECTION:
- Who: Какие 5-7 типов людей могут искать эту информацию? (например: джуниор разработчик, менеджер проекта, HR, фрилансер)
- What: Для каждого типа — что конкретно они хотят узнать?
- Why: Почему текущая статья не полностью отвечает на их вопросы?
- How: Как переформулировать намерение чтобы покрыть все группы?
4. OPTIMIZATION PLAN: На основе обобщённого намерения составь план из 5-7 конкретных улучшений. Для каждого пункта укажи:
- Какую цель он решает (полнота, ясность, факты, структура)
- Какое действие нужно сделать (добавить, убрать, переписать)
5. REWRITE: Перепиши статью по плану. Сохрани мой стиль, но улучши под намерения всех типов пользователей.
Результат:
Модель выдаст поэтапный анализ:
- Summarization — короткая выжимка ключевых идей статьи
- Intent — формулировку намерения ("пользователь ищет практические советы по настройке удалённой работы")
- 4W Reflection — таблицу с типами пользователей (новичок, опытный, менеджер, HR), их потребностями, пробелами в статье
- Plan — список из 5-7 пунктов: "добавить раздел про home office setup", "убрать общие фразы", "добавить статистику по продуктивности"
- Rewrite — финальная версия статьи, оптимизированная под все выявленные типы запросов
Такой контент с большей вероятностью попадёт в ответы ChatGPT Search или Perplexity, потому что покрывает намерения разных аудиторий, а не только одну абстрактную задачу.
Почему это работает
Слабость LLM: Генеративные поисковики не работают как Google. Они не ищут ключевые слова и не считают ссылки. Вместо этого модель читает несколько источников и синтезирует ответ. Если твой контент не попадает в её логику синтеза — он просто исчезает из результата. Традиционное SEO оптимизирует под видимость в списке, а здесь нужно оптимизировать под упоминание в тексте ответа.
Сильная сторона LLM: Модели хорошо понимают намерения и умеют рассуждать с разных ролевых перспектив. Если попросить модель "подумай как менеджер, потом как джуниор, потом как фрилансер" — она реально меняет фокус и выдаёт разные инсайты. Это не магия — это особенность архитектуры: модель обучена на текстах от разных людей с разными ролями, и она умеет симулировать эти перспективы.
Как метод использует это: RAID G-SEO заставляет модель думать как множество типов пользователей, а не как один абстрактный юзер. Через 4W-рефлексию метод выявляет разные потребности (джуниору нужны базовые советы, менеджеру — про управление командой, фрилансеру — про самодисциплину). Потом контент переписывается так, чтобы покрывать все эти намерения. В итоге когда Perplexity получает запрос от любого из этих типов пользователей, твой контент с большей вероятностью попадёт в ответ, потому что он релевантен с разных углов.
Рычаги управления промптом:
- Количество ролей — можно запросить 3-5 типов пользователей (для простых тем) или 10-15 (для сложных)
- Глубина рефлексии — можно упростить 4W до "Who + What" или углубить до "Who + What + Why + How + What if"
- Баланс обобщения vs специфики — в "How" можно попросить "максимально широкое намерение" или "сохрани фокус на X аудитории"
- Приоритет улучшений — в Step Planning можно ограничить "только структурные правки" или "фокус на факты и статистику"
Шаблон промпта
Вот мой контент: {текст}
Оптимизируй его для генеративных поисковиков (ChatGPT Search, Perplexity.ai) через моделирование намерений.
ШАГ 1 — SUMMARIZATION:
Выдели ключевую суть контента в 3-4 предложениях. Убери стилистику, оставь только смысл.
ШАГ 2 — INITIAL INTENT:
На основе сути определи: какое намерение пользователя может привести к этому контенту?
ШАГ 3 — 4W REFLECTION:
- Who: Перечисли 5-7 типов пользователей, которые могут искать эту информацию.
- What: Для каждого типа — какая у них конкретная потребность?
- Why: Для каждого типа — почему текущий контент не полностью им подходит?
- How: Переформулируй начальное намерение так, чтобы оно покрывало потребности всех типов.
ШАГ 4 — OPTIMIZATION PLAN:
Составь план из 5-7 улучшений. Для каждого укажи:
- Цель (полнота / ясность / факты / структура)
- Действие (что добавить / убрать / переписать)
ШАГ 5 — REWRITE:
Перепиши контент по плану. Сохрани стиль, но улучши под обобщённое намерение.
Плейсхолдеры:
{текст}— твой исходный контент (статья, пост, описание продукта)
🚀 Быстрый старт — вставь в чат:
Вот шаблон RAID G-SEO. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про тип контента, целевую аудиторию, контекст — потому что для 4W-рефлексии нужно понимать кто твои читатели. Она возьмёт паттерн из шаблона и адаптирует под задачу.
Ограничения
⚠️ Эффективность: Метод работает в 62.8% случаев — это лучше базовых методов, но всё равно меньше 70%. Генеративные поисковики непредсказуемы, и даже хорошая оптимизация не гарантирует попадание в ответ.
⚠️ Overfitting риск: Слишком специфичное намерение может привести к тому, что контент идеально подходит под один запрос, но проваливается на всех остальных. 4W-рефлексия помогает, но баланс между точностью и широтой намерения — всё ещё открытая проблема.
⚠️ Только текст: Метод работает только с текстовым контентом. Картинки, диаграммы, таблицы — игнорируются, хотя они могут влиять на видимость в реальных генеративных поисковиках.
⚠️ Узкая задача: Метод полезен только если твой контент индексируется генеративными поисковиками (сайты, статьи, документация). Для обычных чатов или закрытых систем — не применимо напрямую.
Как исследовали
Исследователи смоделировали генеративный поисковик на базе GLM-4-9B — это open-source модель с низким уровнем галлюцинаций (по Hallucination Leaderboard). Логика простая: система получает запрос → находит 5 релевантных источников → генерирует ответ с цитатами. Задача G-SEO — увеличить шанс, что твой источник попадёт в цитаты.
Взяли 100 реальных запросов из Bing, Google, Perplexity и для каждого сгенерировали 4 варианта через GPT-4 (итого 500 задач). Это покрывает разнообразие формулировок — люди же не спрашивают одинаково. Сравнили RAID G-SEO с девятью базовыми методами из GEO-bench: традиционное SEO, уникальные слова, упрощение, авторитетность, терминология, статистика, цитаты.
Оценивали двумя способами:
- Объективно — Position-Adjusted Word Count (PAWC): считали сколько слов из источника попало в ответ, с учётом позиции (чем раньше упомянули — тем больше вес). RAID G-SEO дал +8.49 против +7.03 у лучшего baseline (статистика).
- Субъективно — семь критериев (релевантность, уникальность, разнообразие, вероятность клика, видимость). Оценивали через G-Eval 2.0 — это улучшенная версия, где GPT-4o генерирует детальные промпты для каждого критерия (шкала 0-5), а GLM-4-9B выставляет оценки. RAID G-SEO дал +4.72 в среднем против +3.63 у терминологии.
Что удивило: Традиционное SEO провалилось (+2.28 объективно, +0.11 субъективно) — это шестое место из девяти. Методы с терминологией и статистикой оказались в топ-2, а репутация и авторитетность — в аутсайдерах. Вывод для практики: LLM ценят экспертность контента (специальные термины, цифры, данные) больше, чем внешнюю авторитетность (цитаты известных людей, ссылки на регалии). Это, вероятно, связано с обучающими данными — модели видели больше текстов с терминами, чем с пруфами авторитета.
Ещё провели анализ ролей из 4W-рефлексии: собрали 8030 экземпляров ролей, кластеризовали — получилось, что модель генерирует в основном Knowledge Producers (учителя, аналитики) и Civic Actors (повара, DIY-энтузиасты). Это две трети всех ролей. Health Stakeholders и Creative Professionals — всего 6% и 3%. Модель предпочитает общедоступные перспективы, а не узкоспециализированные.
Адаптации и экстраполяции
💡 Адаптация для работы в обычных чатах
Хотя метод создан для генеративных поисковиков, принципы применимы в обычных чатах ChatGPT/Claude:
Задача: Написать пост для LinkedIn про свой опыт найма разработчиков.
Промпт:
Вот черновик моего поста:
[вставить текст]
Помоги улучшить его через 4W-рефлексию:
1. Who: Какие 4-5 типов людей могут читать пост в моём LinkedIn?
(например: рекрутеры, тимлиды, джуниоры, основатели стартапов)
2. What: Для каждого типа — что они хотят узнать из поста про найм?
3. Why: Почему текущий текст не полностью отвечает на их вопросы?
4. How: Переформулируй главную мысль поста так, чтобы она была полезна всем типам.
5. Перепиши пост с учётом обобщённой мысли. Сохрани мой стиль.
Результат: Пост станет релевантнее для разных аудиторий. Вместо "мой опыт найма" получишь текст, который отвечает рекрутерам (про процесс), тимлидам (про критерии), джуниорам (как выделиться), фаундерам (про стратегию).
🔧 Техника: Упрощённая 2W-рефлексия → быстрее, меньше токенов
Что меняем: Убираем Why и How, оставляем только Who + What.
Эффект: В 2-3 раза быстрее, меньше расход токенов, но теряем глубину анализа пробелов.
Когда использовать: Для простых текстов (посты, емейлы), где не нужна глубокая рефлексия.
Промпт:
Проанализируй мой текст через 2W:
1. Who: Какие 3-4 типа людей прочитают это?
2. What: Для каждого типа — одна главная потребность.
Перепиши текст так, чтобы отвечать всем потребностям.
🔧 Техника: Добавить "Check" шаг → контроль качества рефлексии
Что добавляем: После How добавляем шаг "Check: насколько обобщённое намерение покрывает все типы пользователей?"
Эффект: Модель перепроверяет себя, находит пропущенные группы или слишком узкие формулировки.
Промпт (фрагмент):
ШАГ 3.5 — CHECK:
Проверь обобщённое намерение из How:
- Покрывает ли оно потребности всех типов из Who?
- Есть ли типы, которые мы пропустили?
- Слишком ли узкое намерение или слишком общее?
Если нужно — скорректируй намерение.
💡 Экстраполяция: 4W-рефлексия для креатива (не только для контента)
Идея: Применить 4W не к тексту, а к креативной идее (дизайн, продукт, стратегия).
Задача: У тебя есть идея для нового курса по промптингу.
Промпт:
Вот моя идея курса:
[описание идеи]
Проверь через 4W-рефлексию:
1. Who: Какие 5-6 типов людей могут купить курс?
2. What: Для каждого типа — какой результат они хотят?
3. Why: Почему текущая программа курса не даст им этот результат?
4. How: Как изменить программу, чтобы она подходила всем типам?
Выдай улучшенную программу курса.
Результат: Курс станет привлекательнее для разных сегментов — новички получат основы, опытные — продвинутые техники, менеджеры — кейсы применения в бизнесе.
Ресурсы
Role-Augmented Intent-Driven Generative Search Engine Optimization (2025)
Xiaolu Chen, Haojie Wu, Jie Bao, Zhen Chen, Yong Liao, Hu Huang
University of Science and Technology of China
Связанные работы:
- GEO-bench — первый бенчмарк для оценки G-SEO методов
- G-Eval — фреймворк для субъективной оценки через LLM
- Retrieval-Augmented Generation (RAG) — архитектура генеративных поисковиков
