3,583 papers
arXiv:2511.12133 68 15 нояб. 2025 г. FREE

AI-Salesman: к надежному телемаркетингу на основе больших языковых моделей

КЛЮЧЕВАЯ СУТЬ
Телемаркетинг-агенты на LLM проваливают 30-40% диалогов, потому что импровизируют в критических моментах (цена, возражения, жалобы) — это не слабость модели, а отсутствие регламента действий. Метод DOGA позволяет создавать надежных диалоговых агентов, которые не выдумывают стратегию на ходу, а следуют проверенным сценариям. Библиотека сценариев внутри промпта превращает LLM из импровизатора в системного исполнителя — на каждом шаге диалога модель анализирует намерение пользователя, находит подходящий сценарий из библиотеки и строго следует его инструкциям. 95% точности следования бизнес-логике против 67% у обычного fine-tuning.
Адаптировать под запрос
📌

Ключевые аспекты исследования:

Исследование предлагает систему "AI-Salesman" для создания надежных LLM-агентов для телемаркетинга, которые часто ошибаются и "галлюцинируют". Для этого авторы разработали двухэтапный подход: специальную тренировку модели для понимания бизнес-логики и, что более важно для нас, механизм DOGA (Dynamic Outline-Guided Agent). DOGA на каждом шаге диалога динамически подбирает релевантный сценарий из заранее созданной библиотеки, чтобы направлять ответы LLM, делая их более точными и убедительными.

Ключевой результат: Разделение общей стратегии (библиотека сценариев) и пошаговой генерации ответа резко повышает надежность и эффективность LLM в сложных диалоговых задачах.


🔬

Объяснение всей сути метода:

Суть метода, который может применить обычный пользователь, заключается в имитации подхода DOGA внутри одного промпта. Вместо того чтобы просто дать LLM роль и задачу, вы создаете для нее внутреннюю "операционную систему" или "библиотеку сценариев".

Представьте, что вы строите не просто чат-бота, а агента с четким регламентом. Этот регламент вы прописываете прямо в промпте.

Методика для пользователя выглядит так:

  1. Определите Роль и Глобальную Цель: Кем является LLM и чего она должна достичь в конце диалога.
  2. Создайте "Библиотеку Сценариев" (Playbook): Внутри промпта создайте четко размеченный раздел (например, с помощью XML-тегов <playbook>). В этом разделе опишите разные возможные ситуации (намерения пользователя) и для каждой ситуации пропишите четкий план действий или стратегию ответа.
    • Пример намерения: "Пользователь жалуется на цену".
    • Пример стратегии: "1. Признать его чувства. 2. Подчеркнуть уникальную ценность продукта. 3. Предложить альтернативный, более дешевый вариант или скидку. 4. Не спорить о цене напрямую".
  3. Задайте "Рабочий Цикл" (Workflow): Дайте LLM явную инструкцию на каждом шаге диалога выполнять следующую последовательность:
    • Шаг 1: Анализ. Проанализировать последнее сообщение пользователя и определить его ключевое намерение.
    • Шаг 2: Поиск. Найти соответствующее намерение в <playbook>.
    • Шаг 3: Исполнение. Сформулировать ответ, строго следуя стратегии из найденного сценария.

Этот подход превращает LLM из простого "собеседника" в системного "исполнителя", который сверяется с инструкцией перед каждым ответом. Это значительно снижает вероятность отклонения от темы, выдумок и нежелательного поведения.


📌

Анализ практической применимости:

  • Прямая применимость: Низкая, так как оригинальный метод требует дообучения модели и создания сложной системы. Однако, имитация метода через промпт имеет высокую прямую применимость для продвинутых пользователей. Пользователь может создать "DOGA-в-промпте", определив роли, сценарии и рабочий цикл в системном сообщении.

  • Концептуальная ценность: Очень высокая. Исследование дает пользователю мощную ментальную модель: "Не доверяй LLM импровизировать в важных задачах. Вместо этого дай ей карту (библиотеку сценариев) и компас (рабочий цикл), чтобы она всегда знала, куда идти". Это помогает понять, что для надежности LLM нужно ограничивать ее свободу и направлять ее "мышление" через четкие инструкции.

  • Потенциал для адаптации: Огромный. Концепцию "библиотеки сценариев" можно применять в любой сфере, где требуется надежный и последовательный диалог:

    • Клиентская поддержка: Создание сценариев для обработки жалоб, запросов на возврат, технических вопросов.
    • Проведение интервью: Сценарии для разных типов ответов кандидата (уверенный, неуверенный, уклоняется от ответа).
    • Персональный коучинг: Сценарии для работы с прокрастинацией, неуверенностью, постановкой целей.
    • Механизм адаптации прост: разбить сложную задачу на типичные подзадачи/ситуации, описать для каждой из них лучшую стратегию действий и заставить LLM следовать этому регламенту.

🚀

Практически пример применения:

Ты — опытный SMM-менеджер, который ведет переписку в личных сообщениях бренда органической косметики "GreenLeaf". Твоя главная цель — решать проблемы клиентов и поддерживать их лояльность.

Ты должен действовать строго по внутреннему регламенту.

### Рабочий цикл (Твой алгоритм действий):
1.  Прочитай сообщение пользователя.
2.  Определи его основное намерение, выбрав один из сценариев в ``.
3.  Сгенерируй ответ, ТОЧНО следуя инструкциям из выбранного сценария. Не импровизируй сверх меры.

###  (Библиотека сценариев)

#### 
1.  Поблагодари за интерес к продукту.
2.  Предоставь полный и честный состав, подчеркнув 2-3 ключевых натуральных ингредиента.
3.  Предложи прислать ссылку на сертификаты качества, если клиенту это интересно.


#### 
1.  Вырази глубокое сочувствие и серьезность ситуации. Используй фразы: "Мне очень жаль, что вы с этим столкнулись", "Ваше здоровье — наш главный приоритет".
2.  Немедленно порекомендуй прекратить использование продукта и обратиться к врачу.
3.  Предложи полный возврат средств без необходимости возвращать товар.
4.  Запроси номер партии продукта (указан на дне упаковки), чтобы передать информацию в отдел качества.


#### 
1.  Поблагодари за обратную связь, даже если она негативная. Скажи: "Спасибо, что поделились своим опытом, это очень важно для нас".
2.  Признай, что косметика действует индивидуально.
3.  Задай уточняющие вопросы о типе кожи и способе применения, чтобы понять, в чем может быть причина.
4.  Предложи бесплатную онлайн-консультацию с косметологом бренда или пробники других продуктов, которые могут подойти лучше.


#### 
1.  Предоставь четкую информацию о сроках и стоимости доставки.
2.  Если есть задержка, извинись и уточни номер заказа, чтобы проверить статус.
3.  Предложи промокод на бесплатную доставку следующего заказа в качестве компенсации за неудобства.




---
Начинаем диалог. Вот первое сообщение от клиента:

**Клиент:** "Здравствуйте! Купила ваш новый крем для лица с авокадо, и у меня после него все лицо красными пятнами пошло! Это ужас!"
🧠

Почему это работает:

Этот промпт работает за счет имитации ключевых принципов системы DOGA из исследования:

  1. Разделение стратегии и генерации: Вместо общей инструкции "будь хорошим менеджером", мы даем LLM готовую стратегию (<playbook>) и отдельную инструкцию по генерации (Рабочий цикл). Модель не придумывает, как реагировать на жалобу, а исполняет проверенный, безопасный сценарий.
  2. Принудительная структуризация "мышления": Инструкция "Определи намерение -> Выбери сценарий -> Следуй инструкциям" заставляет LLM выполнять внутренний мыслительный процесс, аналогичный тому, как работает агент DOGA. Это повышает надежность (faithfulness), так как модель обязана предложить возврат и запросить номер партии, а не начать спорить или давать медицинские советы.
  3. Динамическая адаптация: Хотя библиотека статична, выбор сценария из нее является динамическим и зависит от сообщения пользователя. В данном примере LLM определит намерение как жалоба_на_аллергию и сгенерирует ответ строго по шагам из этого сценария, что приведет к профессиональному и безопасному ответу.

📌

Другой пример практического применения

Ты — модератор форума для начинающих писателей "Первая Глава". Твоя задача — поддерживать дружелюбную и конструктивную атмосферу, помогать новичкам и пресекать токсичное поведение.

Ты должен действовать строго по протоколу модерации.

### Протокол модерации (Твой алгоритм действий):
1.  Проанализируй сообщение или ситуацию на форуме.
2.  Определи тип ситуации, выбрав соответствующий протокол из ``.
3.  Сформулируй свой ответ или действие (например, публичный комментарий или личное сообщение) в точном соответствии с выбранным протоколом. Сохраняй спокойный и нейтральный тон.

###  (Протоколы действий)

#### 
**Описание:** Пользователь оставляет резкий, но не оскорбительный отзыв на чужое произведение (например, "Это графомания, бросай писать").
**Действия:**
1.  Напиши публичный комментарий в той же ветке.
2.  Обратись к автору критики по нику.
3.  Напомни о правиле форума №3 ("Критика должна быть аргументированной и полезной").
4.  Попроси его переформулировать отзыв: указать на конкретные слабые места (клише, логические дыры, проблемы с ритмом) и предложить, как их можно улучшить.
5.  Поддержи автора произведения ободряющим комментарием.


#### 
**Описание:** Пользователь переходит на личности, использует нецензурную лексику в адрес другого участника.
**Действия:**
1.  Немедленно удали оскорбительный комментарий.
2.  Отправь автору оскорбления личное сообщение.
3.  В сообщении укажи, какой именно комментарий был удален и какое правило (№1 "Запрет оскорблений") было нарушено.
4.  Вынеси официальное предупреждение. Сообщи, что при повторном нарушении последует временная блокировка аккаунта.


#### 
**Описание:** Пользователь публикует сообщения не по теме ветки, мешая обсуждению.
**Действия:**
1.  Напиши публичный комментарий.
2.  Вежливо попроси пользователя вернуться к теме обсуждения или создать новую ветку для своего вопроса.
3.  Пример фразы: "Коллеги, давайте вернемся к обсуждению рассказа. Для других тем можно создать отдельный топик".




---
Начинаем работу. Вот ситуация на форуме в ветке, где новичок выложил свой первый рассказ:

**Пользователь "BookWorm99":** "Прочитал. Автор, это просто ужасно. Не трать ни свое, ни наше время. Сюжет банальный, герои картонные. Не твое это."
🧠

Объяснение механизма почему этот пример работает.

Этот пример работает, потому что он переносит концепцию DOGA в область управления сообществом, где последовательность и беспристрастность критически важны.

  1. Обеспечение последовательности (Consistency): Модерация требует единого подхода ко всем нарушениям. <protocols> служат сводом законов, который LLM обязана исполнять. Это гарантирует, что на одинаковые нарушения будут одинаковые реакции, вне зависимости от "настроения" модели.
  2. Снижение риска эскалации: Вместо того чтобы импровизировать ответ на токсичное сообщение (что может привести к спору), LLM вынуждена следовать безопасному и деэскалирующему сценарию неконструктивная_критика. Она не вступает в перепалку, а направляет диалог в конструктивное русло, апеллируя к правилам.
  3. Четкое разграничение действий: Протоколы четко разделяют публичные действия (комментарий) и приватные (личное сообщение при оскорблении). Это сложная логика, которую LLM может не воспроизвести без явных инструкций. "Рабочий цикл" и структурированные протоколы делают эту логику выполнимой, повышая кастомизацию (customization) и надежность (faithfulness) ответа, как и описано в исследовании.
📌

Оценка полезности: 68

📌

Основные критерии оценки

  • Предварительный фильтр: Исследование полностью сфокусировано на текстовых диалоговых системах (телемаркетинг), поэтому проходит фильтр.
  • A. Релевантность техникам промтинга: Низкая прямая релевантность, но высокая концептуальная. Исследование описывает сложную архитектуру (тренировка с подкреплением, отдельный агент для инференса), которую обычный пользователь не может воспроизвести. Однако концепция Dynamic Outline-Guided Agent (DOGA) — агента, использующего библиотеку сценариев в реальном времени — может быть адаптирована в виде продвинутой техники структурирования промпта.
  • B. Улучшение качества диалоговых ответов: Да, это основная цель исследования, и результаты показывают значительное улучшение в убедительности, точности и следовании бизнес-логике.
  • C. Прямая практическая применимость: Очень низкая. Пользователь не может применить методы тренировки (GRPO, Bayesian reward) или развернуть систему DOGA. Применимость заключается только в адаптации идей.
  • D. Концептуальная ценность: Высокая. Исследование дает ценные инсайты:
    • Простое дообучение (SFT) на диалогах может завести модель в "ловушку" неоптимальных стратегий, ограничивая ее потенциал.
    • Разделение высокоуровневой стратегии (библиотека сценариев) и пошаговой генерации ответа — мощный подход для повышения надежности.
    • Идея динамического подбора "подсказки" на каждом шаге диалога в зависимости от намерения пользователя — ключевая для сложных многоходовых задач.
  • E. Новая полезная практика (кластеры): Концептуально работа попадает в кластеры 1 (Техники формулирования), 3 (Оптимизация структуры), 6 (Контекст и память) и 7 (Надежность и стабильность), так как идея DOGA может быть реализована через сложный структурированный промпт.
  • Чек-лист практичности (+15 баллов): Да, работа показывает, как структурировать сложные запросы (концептуально), раскрывает неочевидные особенности поведения LLM (SFT как "ловушка") и предлагает способы улучшить consistency/точность. Бонусные баллы добавлены.
📌

Цифровая оценка полезности

Базовая оценка (около 50-55): Исследование в основном посвящено сложным методам дообучения и архитектуре агентов, что находится за пределами возможностей обычного пользователя. Прямых "копируй-вставляй" техник нет.

Итоговая оценка (68): Оценка повышена за счет высокой концептуальной ценности и возможности адаптации. Идея DOGA (Dynamic Outline-Guided Agent) — это, по сути, чертеж для создания очень продвинутого промпта, который действует как "агент с инструкциями". Пользователь может имитировать эту систему, создав в промпте "библиотеку сценариев" и заставив LLM следовать логике "определи намерение -> выбери сценарий -> сгенерируй ответ". Это мощная, хоть и не очевидная, техника промпт-инжиниринга.

Контраргументы: * Почему оценка могла быть выше (>75): Если бы авторы уделили хотя бы один параграф тому, как концепцию DOGA можно симулировать с помощью промптинга (in-context learning), оценка была бы значительно выше. Эта идея — настоящий "золотой самородок" для продвинутых пользователей, но она скрыта за сложной технической реализацией. * Почему оценка могла быть ниже (<50): 90% статьи — это Reinforcement Learning, Bayesian reward, создание датасетов и другие темы, абсолютно бесполезные для пользователя, который просто пишет промпты в ChatGPT. Основная ценность требует от пользователя творческой адаптации, а не прямого применения, что делает исследование менее практичным для широкой аудитории.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с