TL;DR
Human-LLM Archetypes — таксономия из 17 повторяющихся паттернов взаимодействия человека и LLM в процессе принятия решений. Исследователи проанализировали 113 научных работ и выделили устойчивые схемы того, как распределяются роли и задачи между человеком и моделью: от "role taker" (модель принимает личность эксперта) до "model" (модель делает предсказания на основе данных). Каждый архетип определяет кто что делает, кто контролирует решение, как структурирован процесс.
Главная находка: выбор архетипа напрямую влияет на результат работы LLM — точность, согласованность ответов, сложность информации. Большинство пользователей не осознают, что промпт "ты — эксперт" это лишь один из множества возможных паттернов взаимодействия. Разные задачи требуют разных ролевых схем. Проблема в том, что люди либо вообще не задумываются о роли модели, либо используют один-два знакомых паттерна по привычке, упуская более подходящие варианты.
Фреймворк показывает 7 ключевых измерений выбора архетипа: контроль решения (кто принимает финальное решение), социальная иерархия (равные партнёры или подчинённый), стратегии критического мышления (как заставить модель думать глубже), информационные требования (сколько данных нужно), автономия сторон, интенты пользователя, временнáя динамика взаимодействия. Понимание этих измерений помогает осознанно конструировать промпты.
Схема основных архетипов
Полная таксономия включает 17 архетипов. В исследовании показаны примеры:
ROLE TAKER (Принятие роли): Модели даётся личность: "Ты — эксперт-врач. Дай только букву ответа, без текста." → Модель отвечает с позиции заданной роли
MODEL (Модель-предсказатель): Модель получает данные и делает предсказание: "На основе этих данных предскажи отток сотрудника" → Модель выдаёт классификацию или прогноз
Другие архетипы включают: информационный агент, факт-чекер, арбитр, второе мнение, генератор гипотез, критик, помощник сбора данных, и другие (15 паттернов не раскрыты в тексте).
Пример применения
⚠️ Важно: Это фреймворк для осознанного выбора, не готовая техника. Примеры показывают РАЗНИЦУ между архетипами на одной задаче.
Задача: Ты консультант, клиент просит оценить бизнес-идею — открыть кофейню в спальном районе Москвы. Нужно понять жизнеспособность.
Промпт А (ROLE TAKER — эксперт):
Ты — опытный бизнес-консультант с 15-летним стажем в российском ритейле.
Клиент хочет открыть кофейню в спальном районе Москвы (Бутово).
Оцени идею: жизнеспособна или нет? Дай обоснованный вывод.
Промпт Б (MODEL — предсказатель):
На основе следующих данных предскажи вероятность успеха кофейни:
- Локация: Бутово, Москва (спальный район)
- Конкуренты: 3 сетевые кофейни в радиусе 1 км
- Проходимость: станция метро 400м
- Бюджет: 3 млн рублей на старт
- Формат: кофе с собой + 4 столика
Выдай: процент вероятности успеха и ключевые риски.
Промпт В (гипотетический архетип CRITIC — критик):
Клиент предлагает бизнес-план кофейни в Бутово.
Твоя задача — найти слабые места и риски, которые клиент мог упустить.
Не оценивай общую жизнеспособность, только критикуй предпосылки.
План: [вставить описание идеи]
Результат: - ROLE TAKER даст экспертное мнение с обоснованием — комплексный анализ от лица консультанта - MODEL выдаст числовую оценку и структурированные факторы риска — фокус на данных и прогнозе - CRITIC сосредоточится на поиске проблем и пробелов в рассуждениях — заострит внимание на рисках
Почему это работает
Слабость LLM: Модель не понимает КОНТЕКСТ своей роли в процессе принятия решения. По умолчанию она пытается дать "полный универсальный ответ", что может быть избыточным или недостаточным для конкретного этапа работы.
Сильная сторона LLM: Модель хорошо адаптируется к явно заданным рамкам задачи. Если чётко определить "кто ты, что делаешь, какой формат нужен" — модель генерирует контент точнее под эту роль.
Механика работы: Фреймворк архетипов помогает осознанно конструировать контекст взаимодействия. Вместо абстрактного "помоги с задачей" ты определяешь: - Какую роль играет модель (эксперт / инструмент / критик / генератор идей) - Кто контролирует финальное решение (ты или модель) - Как структурирован процесс (одношаговый / итеративный / параллельный)
Рычаги управления:
1. Тип роли — меняй архетип под этап работы: - Генерация идей → "Brainstorm partner" - Проверка логики → "Critic" - Финальное решение → "Model-predictor"
2. Уровень автономии — явно укажи границы: - "Предложи 5 вариантов, я выберу" (низкая автономия модели) - "Выдай финальный прогноз" (высокая автономия модели)
3. Информационный контекст — один архетип требует детальных данных (MODEL), другой работает с общим описанием (ROLE TAKER).
4. Социальная иерархия — формулировка роли влияет на "смелость" модели: - "Ты — мой помощник" → осторожные, консервативные советы - "Ты — равноправный партнёр в дискуссии" → более смелые предложения - "Ты — независимый эксперт" → критика без оглядки на автора
Шаблон промпта
Это НЕ одна техника — это фреймворк. Выбери подходящий архетип для задачи:
Шаблон A: ROLE TAKER (для экспертной оценки)
Ты — {профессия/роль} с опытом {контекст опыта}.
{Описание ситуации или проблемы}
Задача: {что нужно сделать}
Формат ответа: {структура вывода}
Шаблон B: MODEL (для предсказаний и классификации)
На основе следующих данных {предскажи/классифицируй/оцени} {что именно}:
Данные:
- {параметр 1}
- {параметр 2}
- {параметр 3}
Выдай: {конкретный формат — процент, категория, рейтинг}
Шаблон C: CRITIC (для поиска слабых мест)
Задача требует критической оценки следующего {плана/текста/идеи}:
{вставить материал для критики}
Твоя роль — найти проблемы, пробелы в логике, неучтённые риски.
НЕ предлагай решения, только критикуй предпосылки.
Как выбрать архетип:
- Нужна экспертная оценка → ROLE TAKER
- Нужен прогноз на основе данных → MODEL
- Нужно найти слабости в идее → CRITIC
- Нужны варианты решения → архетипы генерации (не показаны полностью)
Ограничения
⚠️ Неполная таксономия в тексте: Исследование описывает 17 архетипов, но в доступном тексте раскрыто только 2 полностью (role taker, model). Остальные 15 паттернов упомянуты в общем виде без детальных описаний и примеров.
⚠️ Это не техника, а фреймворк мышления: Архетипы помогают осознанно выбирать роль модели, но не дают готовых промптов для всех ситуаций. Нужно самому адаптировать принцип под задачу.
⚠️ Эффект зависит от модели: Исследование показывает, что выбор архетипа влияет на результат, но насколько сильно — зависит от конкретной модели (GPT-4, Claude, LlaMa). Слабые модели могут игнорировать тонкие различия между ролями.
Как исследовали
Команда провела scoping literature review — широкий обзор литературы, чтобы увидеть как LLM используются в реальных задачах принятия решений. Искали в двух базах: ACM Digital Library (компьютерные науки и HCI) и Web of Science (медицина, бизнес, психология, информационные системы). Ключевые слова: "large language model" / "LLM" + "decision making".
Нашли 286 статей, после фильтрации осталось 113 работ из 81 научного журнала и конференции, опубликованных в 2023-2025 годах. Проанализировали, как в каждой работе распределены роли между человеком и моделью: кто что делает, кто принимает решение, как структурирован процесс.
Использовали тематический анализ: два исследователя независимо кодировали каждую статью, выделяя паттерны взаимодействия. Потом обсуждали коды, уточняли, группировали похожие. В итоге вышли на 17 устойчивых архетипов.
Самые частые домены применения: медицина (29 работ — диагностика, рекомендации лечения), рекомендательные системы (8), data science (7), аннотация данных, факт-чекинг. Самые популярные модели: GPT-4 (30 раз), GPT-4o (22), GPT-3.5 (19), LlaMa (28), Claude (12).
Что удивило: Почти все исследователи НЕ обсуждали выбор архетипа осознанно — просто использовали тот паттерн, который казался "естественным" для задачи. При этом выбор архетипа влиял на результаты (точность, согласованность, формат ответа), но эту зависимость никто не анализировал систематически. Авторы решили заполнить этот пробел — создали таксономию, чтобы люди могли осознанно выбирать подходящий паттерн взаимодействия.
Ключевой инсайт для практики: Большинство пользователей бессознательно застревают в 1-2 знакомых архетипах ("ты эксперт, реши задачу"). Но разные задачи требуют разных ролевых схем. Осознание спектра архетипов даёт гибкость в конструировании промптов.
Адаптации и экстраполяции
🔧 Техника: Явная декларация иерархии → управление "смелостью" модели
Внутри одного архетипа (например, ROLE TAKER) можно менять формулировку иерархии — это влияет на то, насколько смело или осторожно модель будет рассуждать:
Вариант 1 (подчинённый):
Ты — мой ассистент-юрист. Помоги проверить договор на риски.
Укажи только очевидные проблемы.
→ Модель будет осторожна, выдаст консервативный список
Вариант 2 (равный партнёр):
Ты — коллега-юрист с таким же опытом. Давай вместе разберём договор.
Какие риски ты видишь? Где я мог ошибиться?
→ Модель будет активнее, может оспорить твои предпосылки
Вариант 3 (независимый эксперт):
Ты — независимый эксперт-юрист. Твоя задача — дать объективную оценку договора,
даже если выводы будут неудобными для заказчика.
→ Модель может выдать жёсткую критику
🔧 Техника: Комбинирование архетипов → многоступенчатый процесс
Используй РАЗНЫЕ архетипы на разных этапах одной задачи:
Пример: Оценка стартап-идеи
ШАГ 1 (ROLE TAKER — генератор идей):
Ты — креативный предприниматель. Клиент хочет открыть [описание].
Предложи 5 смелых вариантов развития этой идеи.
ШАГ 2 (CRITIC — критик):
Вот 5 вариантов развития бизнеса: [вставить из Шага 1]
Твоя задача — найти слабые места в каждом. Только критика, без похвалы.
ШАГ 3 (MODEL — предсказатель):
На основе анализа рисков [из Шага 2] и вариантов [из Шага 1],
оцени каждый вариант по шкале 0-100 (жизнеспособность).
Выдай: таблицу с рейтингом и одним главным риском для каждого.
Это превращает одну задачу в конвейер из трёх разных ролей модели: сначала творчество, потом критика, потом аналитика.
Ресурсы
Who Does What? Archetypes of Roles Assigned to LLMs During Human-AI Decision-Making
Shreya Chappidi (University of Cambridge, National Cancer Institute), Jatinder Singh (University of Duisburg-Essen, University of Cambridge), Andra V. Krauze (National Cancer Institute)
CHI 2026
Исследование ссылается на работы по explainability, prompt engineering, user autonomy, cognitive forcing strategies в контексте HAI (Human-AI Interaction).
