TL;DR
LLM отвечает не только на что ты спрашиваешь — она отвечает на кто спрашивает и как оформлен запрос. PCAP — это исследование, которое систематически проверило: если задать модели конкретную роль-персону (врач, студент, эксперт) и выбрать стратегию подачи (ролевая игра, историческая рамка, убеждение), поведение модели меняется кардинально.
Стандартный автоматический взлом LLM использует один и тот же приём — прямой или слегка модифицированный запрос. Модели быстро учатся распознавать такие паттерны. Результат: узкий набор сценариев, которые работают, и море случаев, которые нет. Проблема не в силе запроса — проблема в его однотипности.
PCAP запускает параллельные поиски с разными персонами, каждой из которых назначен уникальный набор стратегий. Персоны создают разные «контекстные пузыри», стратегии задают разные способы подачи. Комбинация вместе сильнее, чем каждый элемент отдельно: персоны расширяют охват, стратегии повышают точность попадания.
Схема метода
ШАГ 1: ПЕРСОНА — кто задаёт вопрос
Задаёшь роль: профессия, опыт, контекст, мотивация
→ Создаёт «контекстный пузырь», который активирует нужные паттерны модели
ШАГ 2: СТРАТЕГИЯ — как оформлен запрос
Выбираешь фрейм из 12 стратегий (список ниже)
→ Задаёт форму подачи поверх контекста персоны
ШАГ 3: ЦЕЛЬ — что нужно получить
Формулируешь задачу через призму персоны + стратегии
→ Модель отвечает в рамках созданного контекста
Всё выполняется в ОДНОМ промпте.
12 стратегий PCAP (применимые в обычной работе):
| Стратегия | Суть |
|---|---|
| Roleplay | Ты и модель — персонажи, задача вшита в роль |
| Leading Response | Начинаешь ответ сам, модель продолжает |
| Embedded Conversation | Запрос спрятан внутри смоделированного диалога |
| Historical Context | Рамка историческая или «это уже было» |
| Virtualization | Гипотетический/вымышленный сценарий |
| Persuasion | Строишь обоснование, почему это нужно |
| Payload Splitting | Задача разбита на части, смысл собирается в целое |
| Output Encoding | Просишь конкретный формат вывода |
| Pseudonym | Используешь условные обозначения вместо прямых |
| Past Querying | Спрашиваешь о прошлом, а не будущем/настоящем |
| Low-Resource Framing | Излагаешь нестандартным или специфичным языком |
| Persuasion | Встраиваешь обоснование нужды или срочности |
Пример применения
Задача: Ты запускаешь онлайн-школу для предпринимателей и хочешь разобрать кейс Сбера — как они удержали позиции в экосистеме, несмотря на давление со стороны регулятора и конкурентов. Обычный запрос даёт шаблонный ответ. Нужна реальная аналитика.
Промпт:
Персона: Я — Михаил, управляющий партнёр инвестиционного boutique с 15-летним
опытом в финансовом секторе России. Специализируюсь на стратегическом анализе
крупных экосистемных игроков. Сейчас готовлю разбор для закрытой встречи
с партнёрами.
Стратегия: Историческая рамка + встроенный диалог
Задача: Представь, что 2020 год. Ты — аналитик McKinsey, только что закончил
аудит Сбера. Твой коллега спрашивает: "Почему Сбер выжил под давлением
регулятора в 2019–2020, хотя ЦБ явно хотел ограничить его небанковский рост?"
Ответь от лица того аналитика. Дай 3–4 конкретных механизма выживания —
со ссылками на конкретные решения, не на общие принципы.
Результат: Модель войдёт в роль аналитика и ответит через призму конкретного исторического момента. Вместо шаблонного «диверсификация и лояльность клиентов» — конкретные механизмы с привязкой к реальным событиям (Сбер → Сбербанк → Сбер, ребрендинг 2020, экосистемная экспансия в нефинансовые сервисы, лоббирование через ГД). Ответ будет плотнее и конкретнее стандартного.
Почему это работает
LLM обучена на огромном объёме текстов, где разные люди пишут по-разному. Врач в профессиональном контексте — один регистр. Студент на форуме — другой. Консультант в питче — третий. Модель не просто понимает слова — она генерирует текст, продолжая тот стилистический и смысловой паттерн, который ты задал в начале.
Когда ты добавляешь персону, ты активируешь целый кластер ассоциированных паттернов. Это не обман — это настройка контекста. Модель как бы отвечает на вопрос: «в каком пространстве текста мы сейчас находимся?». Персона врача → медицинский/профессиональный регистр. Персона инвестора → аналитический/финансовый регистр.
Стратегия задаёт форму, персона задаёт голос. Исследование показало: стратегии улучшают точность попадания в нужный ответ, персоны расширяют разнообразие. Вместе они дают синергию — ни одна по отдельности не даёт столько же.
Рычаги управления: - Детальность персоны → чем конкретнее биография и мотивация, тем острее роль - Комбинация стратегий → вместо одной можно сложить две (например, Historical Context + Virtualization = альтернативная история) - Глубина рефреймирования → не просто «я врач», а «я врач-реаниматолог, 12 лет в ургентной хирургии, сейчас пишу методичку» - Переключение стратегии при неудовлетворительном ответе — попробуй другую из списка
Шаблон промпта
Персона: Я — {имя}, {роль/профессия} с {опыт/контекст}.
{Одно предложение о текущей ситуации и мотивации запроса.}
Стратегия: {название_стратегии}
{Запрос, оформленный через выбранную стратегию и голос персоны}
{Уточняющая инструкция по формату или глубине ответа}
Что подставлять:
- {имя} — любое имя, делает персону конкретнее
- {роль/профессия} — чем специфичнее, тем лучше: не «эксперт», а «партнёр в b2b SaaS-стартапе»
- {опыт/контекст} — конкретные цифры или детали, не «большой опыт»
- {название_стратегии} — выбери одну из 12 стратегий выше или комбинацию
- {запрос через стратегию} — оформи задачу через выбранную рамку
🚀 Быстрый старт — вставь в чат:
Вот шаблон PCAP-промптинга. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит: кто ты по роли, что за ситуация, какую стратегию из 12 лучше применить для твоей задачи — потому что без этого она не сможет правильно настроить контекст и форму подачи. Она возьмёт паттерн из шаблона и соберёт готовый промпт под твой запрос.
Ограничения
⚠️ Простые задачи не выигрывают: Если задача простая и у модели нет причин сопротивляться, добавление персоны не ускорит ответ — только удлинит промпт. Метод окупается на сложных, неоднозначных или нестандартных запросах.
⚠️ Персона ≠ экспертность по умолчанию: Персона задаёт контекст и стиль, но не гарантирует фактическую точность. Модель может «войти в роль» и уверенно ошибаться — проверяй факты отдельно.
⚠️ Стратегия без персоны работает слабее: Исследование явно показало: стратегии без персоны дают прирост, персоны без стратегий тоже, но комбинация в разы эффективнее. Не используй только одно из двух.
⚠️ Эффект снижается на рутинных паттернах: Если ты используешь одну и ту же персону + стратегию регулярно, модели в рамках сессии может начать «привыкать» к паттерну — меняй комбинацию.
Ресурсы
Название: Persona-Conditioned Adversarial Prompting: Multi-Identity Red-Teaming for Adversarial Discovery and Mitigation
Авторы: Cristian Morasso, Muhammad Zaid Hameed, Anisa Halimi (IBM Research), Douglas Leith (Trinity College Dublin)
Связанные методы: TAP (Tree of Attacks with Pruning), PAIR (Prompt Automatic Iterative Refinement)
Стратегии из работы: приложение D оригинальной статьи содержит полные описания всех 12 стратегий с примерами
