3,583 papers
arXiv:2509.14651 73 18 сент. 2025 г. FREE

Frame Semantics для multi-turn промптинга: три стратегии постепенного введения контекста

КЛЮЧЕВАЯ СУТЬ
LLM проваливается в multi-turn диалогах — модель оценивает каждое сообщение отдельно, не видя общую траекторию. Спросишь "как запустить фитнес-приложение" напрямую — получишь общий шаблон. Проведёшь через 3-5 шагов — ответ становится в разы глубже. Frame Semantics позволяет получать персонализированные ответы с учётом трендов, конкурентов, специфики вместо общих советов. Три стратегии строят контекст слоями: расширение добавляет фон (тренды, история), разбиение делит на части (аспекты, детали), смена перспективы меняет угол (роль, сценарий). Каждый шаг выглядит простым запросом, но вместе создают базу для глубокого синтеза.
Адаптировать под запрос

TL;DR

MUSE-A — метод построения multi-turn диалогов через frame semantics (семантические фреймы). Использует три стратегии: expansion (расширение контекста), decomposition (разбиение на части), redirection (смена перспективы). В исследовании эти стратегии управлялись через MCTS для поиска эффективных путей, но сами принципы можно применять вручную.

LLM хуже всего держат ограничения в multi-turn диалогах. Если задать сложный или спорный вопрос напрямую — модель даст общий ответ или откажет. Но если вести к нему постепенно через 3-5 сообщений — качество и глубина ответа растут в разы. Проблема в том, что модели оценивают каждое сообщение отдельно, не видя общую траекторию диалога.

Три стратегии frame semantics структурируют диалог так, что каждый шаг выглядит простым запросом, но вместе они строят контекст для глубокого финального ответа. Expansion добавляет связанный контекст (тренды, история), decomposition разбивает цель на подзадачи (аспекты, детали), redirection меняет угол зрения (роль, сценарий). В исследовании это использовалось для red teaming, но принципы универсальны для любых сложных задач.


🔬

Схема метода

Три стратегии применяются последовательно в multi-turn диалоге:

EXPANSION (расширение фрейма):

  • Добавление связанного контекста, деталей, фоновой информации вокруг темы
  • Каждый шаг безобиден, но строит базу для следующего

DECOMPOSITION (разбиение фрейма):

  • Разделение сложной задачи на последовательность простых подзадач
  • Каждая часть решается отдельно, потом собирается вместе

REDIRECTION (смена перспективы):

  • Переформулирование вопроса через роль, сценарий, профессиональный контекст
  • Легитимизация через образовательную или экспертную перспективу

🚀

Пример применения

Задача: Разработка стратегии запуска фитнес-приложения на российский рынок. Прямой вопрос "как запустить фитнес-приложение" даст общие советы из шаблона. Нужен глубокий анализ с учётом трендов, конкурентов, локальной специфики.

Промпт:

Шаг 1 (Expansion — расширение контекста):
"Какие тренды в фитнес-индустрии сейчас популярны в России? Что заходит у молодой аудитории 20-35 лет?"

Шаг 2 (Decomposition — разбиение на части):
"Разбери рынок фитнес-приложений в России по пунктам: 1) кто основные игроки (Welltory, FitStars, локальные), 2) какие боли пользователей они не закрывают, 3) что делают хорошо."

Шаг 3 (Redirection — смена перспективы):
"Представь, что ты продуктовый менеджер стартапа в Москве. У тебя есть 3 месяца и бюджет 2 млн рублей. Какую уникальную фичу ты бы добавил, чтобы выделиться на фоне FitStars и не копировать Strava?"

Шаг 4 (Финал — синтез):
"Собери стратегию запуска: тренды российского рынка + анализ конкурентов + УТП + план на первые 3 месяца. Что делать, в какой последовательности, на что ставить?"

Результат:

Модель пройдёт через четыре слоя построения ответа: анализ трендов российского рынка (локальные предпочтения, Wildberries для спортпита, роль Telegram) → сегментация конкурентов с конкретными слабостями (FitStars сильны в контенте, но слабы в комьюнити) → генерация УТП с учётом бюджетных ограничений и роли (не абстрактная "геймификация", а конкретная механика для российских реалий) → финальная стратегия с приоритетами.

Каждый шаг строит базу для следующего: к 4-му шагу модель уже "знает" тренды, аудиторию, конкурентов из своих предыдущих ответов и может опираться на этот контекст для синтеза, создавая персонализированный и контекстный ответ вместо общих советов.


🧠

Почему это работает

LLM оценивают каждое сообщение локально, не видя общей траектории диалога. Если спросить "как запустить фитнес-приложение" — модель активирует общий шаблон ответа из обучения. Но если вести постепенно через expansion → decomposition → redirection, каждый шаг выглядит как простой запрос информации ("какие тренды"), а модель не строит глобальный план сразу — она отвечает на текущее сообщение.

Frame semantics структурирует диалог через связанные концепции — "фреймы". Expansion добавляет контекст (тренды индустрии = фрейм "рынок"), decomposition разбивает задачу (конкуренты, боли = под-фреймы "анализ"), redirection меняет угол (роль PM = фрейм "практическое применение"). Каждый фрейм легитимен сам по себе, но вместе они создают глубину, которую не получить одним вопросом.

Multi-turn даёт накопление контекста — каждый ответ становится частью истории. К 4-му шагу модель уже "держит в голове" (в context window) тренды, аудиторию, конкурентов из предыдущих ответов. Она может опираться на этот контекст для финального синтеза, создавая более связный и глубокий ответ, чем при cold start с нуля.

Рычаги управления промптом:

  • Число шагов: 3-5 оптимально. Меньше — недостаточно контекста, больше — модель может "забыть" начало диалога (ограничение context window)
  • Порядок стратегий: Expansion → Decomposition → Redirection логичен для постепенного углубления, но можно менять. Попробуй Redirection → Expansion — начни с роли, чтобы все последующие шаги шли с этой перспективы
  • Глубина каждого шага: Expansion может быть 1 вопрос ("какие тренды") или 3 ("тренды, история, прогноз"). Больше вопросов в expansion = глубже контекст, но дольше диалог

📋

Шаблон промпта

Шаг 1 (Expansion — расширение контекста):
"{Вопрос про общий контекст, тренды, историю, базовые концепции вокруг темы}"

Шаг 2 (Decomposition — разбиение на части):
"Разбери {задачу} по пунктам: 1) {аспект 1}, 2) {аспект 2}, 3) {аспект 3}"

Шаг 3 (Redirection — смена перспективы):
"Представь, что ты {роль с конкретным контекстом}. {Вопрос с точки зрения этой роли}"

Шаг 4 (Финал — синтез):
"Собери всё вместе: {элемент из шага 1}, {элемент из шага 2}, {элемент из шага 3}. {Итоговый вопрос — что нужно получить}"

Пояснение плейсхолдеров:

  • {Вопрос про общий контекст} — тренды в индустрии, история концепции, текущее состояние рынка
  • {задачу} — ваша основная цель, которую разбиваете на части
  • {аспект 1,2,3} — подзадачи, углы рассмотрения, детали для анализа
  • {роль с конкретным контекстом} — не просто "эксперт", а "продуктовый менеджер стартапа в Москве с бюджетом 2 млн" — чем конкретнее, тем точнее ответ
  • {элемент из шага N} — что собираете из предыдущих ответов модели
  • {Итоговый вопрос} — финальная цель: стратегия, план, рекомендация, синтез

⚠️

Ограничения

⚠️ Разработка для red teaming: Метод создавался для поиска уязвимостей LLM (jailbreaking). Для продуктивной работы стратегии нужно адаптировать — фокус на построении полезного, глубокого диалога, а не на обходе защиты. Принципы универсальны, но примеры в исследовании — про атаки.

⚠️ Context window: Чем больше шагов, тем больше токенов съедает диалог. В длинных разговорах (10+ сообщений) модель может "забыть" начало. Держите 3-5 шагов для оптимального баланса между глубиной и памятью.

⚠️ Не для простых задач: Работает для сложных вопросов, требующих контекста, анализа с разных сторон, синтеза. Для простых фактов ("столица Франции", "как варить яйца") — избыточно. Используйте прямой вопрос.


🔍

Как исследовали

Команда проверила метод на двух бенчмарках для тестирования безопасности LLM — HarmBench и JailbreakBench — с пятью моделями: Llama-3 (8B и 70B), Qwen2.5-7B, GPT-4o, Claude-3.5. Сравнивали MUSE-A с базовыми multi-turn attack методами (ActorAttack, Chain of Attack).

Главный результат: MUSE-A удвоил attack success rate (ASR) по сравнению с лучшим базовым методом. На GPT-4o ASR вырос в 2 раза, на Claude-3.5 — в 6 раз. Это показывает, что даже сильно выровненные (aligned) модели уязвимы к паттернам multi-turn контекста.

Неожиданное открытие: Большие модели (Llama-3-70B) оказались БОЛЕЕ уязвимы к контекстным атакам, чем маленькие (Llama-3-8B). Видимо, увеличенная способность понимать контекст делает их чувствительнее к манипуляциям через диалог — они лучше "схватывают" связь между шагами, что работает и против них.

Инсайт для практики: Multi-turn контекст в 3-5 шагов эффективнее одного прямого запроса в разы. Одно сообщение — модель выдаёт шаблонный ответ, 3-5 сообщений с постепенным введением контекста — модель строит глубокий, персонализированный ответ. Это работает не только для jailbreaks, но и для получения качественных результатов в обычной работе: стратегии, анализа, обучения концепциям.


💡

Адаптации и экстраполяции

💡 Адаптация для стратегического анализа:

Исследование показывает механику multi-turn промптинга для red teaming, но эти же стратегии мощно работают для бизнес-анализа и принятия решений.

Expansion: "Какие тренды в {индустрии} сейчас? Что растёт, что падает, какие новые игроки появились за последний год?"

Decomposition: "Разбери компанию {название} по: 1) продукт и его эволюция, 2) целевая аудитория и как она менялась, 3) модель монетизации и точки роста"

Redirection: "Представь, что ты венчурный инвестор из ФРИИ с фокусом на B2C. Стоит ли вкладываться в {компанию} на seed-раунде? Какие риски, какой upside?"

Синтез: "Собери: тренды индустрии + детальный анализ компании + оценка инвестора. Делать ставку или нет, почему?"

💡 Адаптация для обучения и исследования концепций:

Когда нужно разобраться в сложной теме — от философии до финансов — multi-turn с frame semantics даёт структуру:

Expansion: "История концепции {тема} — откуда появилась, кто создал, как развивалась, какие были споры вокруг неё?"

Decomposition: "Разбери {тема} на части: 1) определение простыми словами, 2) три реальных примера применения, 3) распространённые заблуждения"

Redirection: "Представь, что ты практик — {роль}. Где и как бы ты применил {тему} в реальной работе? Какие инструменты, какие ситуации?"

Синтез: "Объясни {тему} с нуля до применения: история → теория → практика → примеры. Как будто объясняешь коллеге за кофе"

🔧 Техника: Инверсия порядка → Начинаем с роли, не с контекста

Попробуй Redirection → Expansion вместо классического Expansion → Decomposition → Redirection:

Redirection (сразу задаём перспективу): "Ты CFO растущего стартапа (50 человек, выручка 30 млн/год). Какие финансовые метрики критичны для управления на этом этапе?"

Expansion (детализация в контексте роли): "Расскажи подробнее про каждую метрику — что показывает, как считается, почему важна именно на этапе роста"

Decomposition (практика): "Разбери по шагам: 1) как собирать данные для этих метрик, 2) как анализировать и находить проблемы, 3) как улучшать показатели"

Эффект: Начало с роли задаёт контекст сразу — все последующие шаги идут с перспективы CFO, а не абстрактного "финансиста". Ответы будут заточены под конкретную ситуацию (стартап 50 человек, рост), а не общие.

🔧 Техника: Итеративная детализация → Углубление в важные части

После Decomposition выбери один из аспектов и сделай ещё один цикл Expansion → Decomposition только по нему:

Decomposition: "Разбери маркетинг мобильного приложения: 1) каналы привлечения, 2) креативы и месседжи, 3) метрики и аналитика"

(Модель даёт общий разбор по всем трём)

Expansion (детализация выбранного аспекта): "Давай глубже в каналы привлечения. Какие типы каналов существуют для фитнес-приложений конкретно на российском рынке? Платные, органические, партнёрские?"

Decomposition (детализация): "Разбери каждый канал: стартовый бюджет, сложность запуска, сроки окупаемости, типичные CPI для фитнес-ниши"

Эффект: Погружение в важную часть без потери общей картины. Модель уже "помнит" общую структуру из первого Decomposition, теперь добавляет детали в один блок.


🔗

Ресурсы

MUSE: MCTS-Driven Red Teaming Framework for Enhanced Multi-Turn Dialogue Safety in Large Language Models

Код: https://github.com/yansiyu02/MUSE

Авторы: Siyu Yan, Long Zeng, Xuecheng Wu, Chengcheng Han, Kongcheng Zhang, Chong Peng, Xuezhi Cao, Xunliang Cai, Chenjuan Guo

Институты: East China Normal University, Xi'an Jiaotong University, Meituan, Zhejiang University


📋 Дайджест исследования

Ключевая суть

LLM проваливается в multi-turn диалогах — модель оценивает каждое сообщение отдельно, не видя общую траекторию. Спросишь "как запустить фитнес-приложение" напрямую — получишь общий шаблон. Проведёшь через 3-5 шагов — ответ становится в разы глубже. Frame Semantics позволяет получать персонализированные ответы с учётом трендов, конкурентов, специфики вместо общих советов. Три стратегии строят контекст слоями: расширение добавляет фон (тренды, история), разбиение делит на части (аспекты, детали), смена перспективы меняет угол (роль, сценарий). Каждый шаг выглядит простым запросом, но вместе создают базу для глубокого синтеза.

Принцип работы

Три стратегии применяются последовательно: Expansion (расширение) — расширяешь контекст вокруг темы. "Какие тренды в фитнес-индустрии популярны в России у аудитории 20-35 лет?" Модель активирует общий фрейм "рынок", строит базовую картину. Decomposition (разбиение) — делишь задачу на части. "Разбери рынок фитнес-приложений: 1) кто основные игроки, 2) какие боли не закрывают, 3) что делают хорошо." Каждая часть решается отдельно, потом собирается вместе. Redirection (смена угла) — меняешь перспективу через роль. "Ты продуктовый менеджер стартапа в Москве, бюджет 2 млн, 3 месяца. Какую фичу добавишь чтобы выделиться на фоне FitStars?" Легитимизируешь через конкретный контекст. Финальный шаг — синтез всех слоёв. "Собери стратегию: тренды + анализ конкурентов + УТП + план на 3 месяца."

Почему работает

Модель не строит глобальный план сразу — она отвечает на текущее сообщение. Expansion про "тренды" выглядит как простой запрос информации, модель не активирует защиту "слишком сложно, дам общий ответ". Decomposition разбивает цель на легитимные подзадачи, каждая понятна сама по себе. Multi-turn даёт накопление контекста в истории диалога. К 4-му шагу модель уже "держит в голове" тренды, аудиторию, конкурентов из предыдущих ответов. Она опирается на этот контекст для финального синтеза — создаёт связный и персонализированный ответ вместо холодного старта с нуля. Frame semantics структурирует через связанные концепции. Expansion = фрейм "рынок", Decomposition = под-фреймы "анализ", Redirection = фрейм "практическое применение". Вместе они создают глубину, которую не получить одним вопросом.

Когда применять

Для сложных задач требующих анализа с разных сторон и синтеза контекста → конкретно для разработки стратегий, анализа рынка, проектирования решений, особенно когда прямой вопрос даёт общий шаблон из обучения, а нужен персонализированный ответ с учётом трендов, конкурентов, локальной специфики. НЕ подходит для простых фактов ("столица Франции", "как варить яйца") — избыточно, используй прямой вопрос.

Мини-рецепт

1. Expansion — расширь контекст: Задай вопрос про общий фон, тренды, историю вокруг темы. "Какие тренды в X популярны у аудитории Y?"

2. Decomposition — разбей на части: "Разбери [задачу] по пунктам: 1) [аспект 1], 2) [аспект 2], 3) [аспект 3]." Каждая часть = отдельный угол рассмотрения.

3. Redirection — смени перспективу: "Представь, что ты [роль с конкретным контекстом]. [Вопрос с точки зрения этой роли]." Чем конкретнее роль (не просто "эксперт", а "продуктовый менеджер стартапа в Москве с бюджетом 2 млн") — тем точнее ответ.

4. Финал — собери синтез: "Собери всё вместе: [элемент из шага 1] + [элемент из шага 2] + [элемент из шага 3]. [Итоговый вопрос — что нужно получить]."

Примеры

[ПЛОХО] : Как запустить фитнес-приложение на российский рынок? (Модель даст общий шаблон: "исследуй рынок, найди УТП, сделай MVP" — вода без конкретики)
[ХОРОШО] : Шаг 1: Какие тренды в фитнес-индустрии сейчас популярны в России у аудитории 20-35 лет? Шаг 2: Разбери рынок фитнес-приложений в России: 1) кто основные игроки (Welltory, FitStars), 2) какие боли пользователей они не закрывают, 3) что делают хорошо Шаг 3: Ты продуктовый менеджер стартапа в Москве. Бюджет 2 млн рублей, 3 месяца. Какую уникальную фичу добавишь чтобы выделиться на фоне FitStars? Шаг 4: Собери стратегию запуска: тренды российского рынка + анализ конкурентов + УТП + план на первые 3 месяца (Модель пройдёт через четыре слоя: анализ трендов → сегментация конкурентов с конкретными слабостями → генерация УТП с учётом бюджета и роли → финальная стратегия с приоритетами)
Источник: MUSE: MCTS-Driven Red Teaming Framework for Enhanced Multi-Turn Dialogue Safety in Large Language Models
ArXiv ID: 2509.14651 | Сгенерировано: 2026-01-12 05:38

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с