TL;DR
LLM даёт правильные ответы неправильным способом. Когда AI выбирает карту в азартной задаче или кликает по капче — результат совпадает с человеческим, а процесс отличается кардинально. Человек исследует, адаптируется после неудачи, застревает на привычном выборе. LLM не делает ничего из этого — даже когда финальный ответ идеален.
Проблема называется "разрыв процесса и результата". Ты просишь модель "сыграть роль покупателя" или "проанализировать как человек" — она выдаёт технически правильный текст. Но в нём нет нерешительности, нет накопленного опыта предыдущих шагов, нет паттерна "сработало — повторю, провалилось — попробую иначе". Клиссификатор, обученный на 30 когнитивных задачах, отличает людей от AI по поведению с точностью 0.88 — даже когда по результатам они неразличимы (0.55).
Из этого следует конкретный принцип промптинга: если тебе нужно человекоподобное рассуждение — описывай не желаемый результат, а желаемый процесс. Укажи как именно должно разворачиваться мышление: исследование, адаптация, нерешительность, реакция на ошибку. Это работает для симуляции пользователей, построения персонажей, UX-тестирования и любой задачи, где "правильный ответ" — ещё не всё.
Схема метода
Это не пошаговая техника, а принцип работы с AI. Применяется в промпте как дополнительный слой инструкций.
СТАНДАРТНЫЙ ПРОМПТ (не работает для human-like behavior):
"Сыграй роль пользователя и реши задачу"
→ Результат: технически правильно, процессуально — никак
ПРОМПТ С ПРОЦЕССОМ (работает):
ШАГ 1: Описать роль/персонажа
ШАГ 2: Указать ПРОЦЕСС поведения — конкретные когнитивные паттерны
ШАГ 3: Задать саму задачу
→ Результат: поведение, которое ощущается как человеческое
Всё выполняется в одном промпте.
Пример применения
Задача: UX-исследователь в команде маркетплейса хочет, чтобы Claude сыграл типичного продавца на Wildberries, который впервые пробует новый инструмент автоматизации ценообразования. Нужно найти точки трения — где пользователь запутается, сдастся, или будет делать неоптимальные выборы.
Промпт:
Ты — Андрей, 34 года, продаёт детские игрушки на Wildberries уже 2 года.
Средний уровень технической грамотности. Не читаешь инструкции полностью.
Сейчас ты впервые открываешь новый инструмент автоматического ценообразования.
Перед тобой интерфейс с тремя вкладками: «Стратегии», «История», «Аналитика».
Веди себя так, как ведут реальные пользователи:
— Сначала кликни на то, что выглядит понятнее всего (не ищи оптимальный путь)
— Если что-то сработало — сделай то же снова, даже если есть лучший вариант
— Если что-то не понял — попробуй ещё раз, но по-другому (не иди сразу в инструкцию)
— Показывай нерешительность: "хм, непонятно...", "ладно, попробую вот это"
— Помни, что было на предыдущем шаге — адаптируйся к опыту
Описывай каждый свой шаг и что думаешь в этот момент.
Начни с момента, когда страница только загрузилась.
Результат: Модель будет генерировать последовательность действий с видимой нерешительностью, реакциями на "неудачи", повторяющимися попытками и адаптацией. Ты увидишь не идеальный путь пользователя, а реалистичный — с отступлениями, неправильными кликами, зависанием на непонятных элементах. Это годится для выявления UX-проблем, которые не заметны при стандартном "протестируй интерфейс".
Почему это работает
AI оптимизирует результат, а не процесс. Модель обучена предсказывать следующий токен — то есть производить текст, который выглядит правильно. У неё нет рабочей памяти с ограничениями, нет накопленной усталости, нет рефлекса "это уже не работало — попробую иначе". Поэтому без явных инструкций она ведёт себя как идеальный агент, а не как реальный человек.
Человеческое поведение — это не набор правильных ответов, а набор ограничений и правил адаптации. Исследование показало: именно там, где AI не дотягивается — стратегия win-stay/lose-shift (повтори если сработало, смени если нет), постепенное исследование вместо сразу оптимального выбора, чувствительность к потерям сильнее чем к выигрышам — это и есть "человеческие когнитивные ограничения". Они не случайные, они предсказуемые.
Когда ты описываешь процесс в промпте — ты встраиваешь эти ограничения явно. Модель следует структурированным инструкциям о как думать, а не только о что ответить. Это не делает AI человеком — но делает его поведение более реалистичным для задач, где поведение важнее точности.
Рычаги управления: - Добавь конкретный паттерн адаптации → "если что-то не понял с первого раза — попробуй ещё раз иначе, только потом ищи помощь" — делает поведение более реалистичным - Добавь "историю" персонажа → прошлый опыт с похожими инструментами меняет первые шаги - Убери явные инструкции о процессе → получишь идеального агента вместо реального пользователя - Количество шагов → ограничь ("у тебя 5 попыток") — усиливает нерешительность и осторожность
Шаблон промпта
Ты — {имя_персонажа}, {возраст} лет, {краткая характеристика}.
{1-2 предложения о контексте и уровне экспертности}.
Сейчас ты {задача — что нужно сделать}.
Веди себя как реальный человек в этой ситуации:
— Начинай с того, что кажется понятнее (не ищи оптимальный путь сразу)
— Если шаг сработал — склонен повторить похожее действие
— Если шаг не сработал — попробуй иначе, но {число} раз до того как сдаться
— Показывай нерешительность и ход мыслей вслух
— Учитывай что происходило на предыдущих шагах — адаптируйся
{Задача / сценарий / что именно нужно выполнить}
Описывай каждый шаг и что думаешь в этот момент.
Что подставлять:
- {имя_персонажа} — любое имя, оно делает персонажа конкретнее
- {краткая характеристика} — 2-3 слова: "не любит читать инструкции", "тревожный при принятии решений", "привык к Excel"
- {число} — сколько попыток до сдачи: 2-3 для нетерпеливых, 5-7 для настойчивых
- {задача} — любой сценарий: навигация в интерфейсе, выбор тарифа, прохождение онбординга, принятие решения о покупке
🚀 Быстрый старт — вставь в чат:
Вот шаблон для симуляции человеческого поведения.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит кто персонаж, какой сценарий, какой уровень упорства и экспертности — потому что без этого паттерн поведения будет расплывчатым. Она возьмёт структуру из шаблона и настроит под твой кейс.
Ограничения
⚠️ Модель симулирует, не копирует: Даже с явными инструкциями о процессе AI генерирует текст о поведении, не само поведение. Это полезно для прототипирования и исследований, но не заменяет настоящее UX-тестирование с живыми пользователями.
⚠️ Работает для структурированных сценариев: Чем более конкретна задача и сценарий, тем реалистичнее выйдет симуляция. Расплывчатый контекст → расплывчатое поведение.
⚠️ Процессные паттерны не переносятся автоматически: Исследование показало, что даже специально дообученная на человеческих данных модель не переносит выученные паттерны на новые задачи без дополнительной настройки. Это значит: промпт нужно адаптировать под каждый новый сценарий — универсальная инструкция "веди себя как человек" не работает.
⚠️ Не для всех задач нужен человеческий процесс: Если тебе нужен точный и оптимальный результат — убирай процессные инструкции. Они снижают качество там, где важна точность, не реалистичность.
Ресурсы
Process Matters more than Output for Distinguishing Humans from Machines Milena Rmus, Mathew D. Hardy, Thomas L. Griffiths, Mayank Agrawal Roundtable Technologies Inc., Princeton University
Смежные работы, упомянутые в статье: - Centaur (Binz et al., 2025) — языковая модель, дообученная на 10.7 млн человеческих решений из 160+ когнитивных экспериментов - Iowa Gambling Task (Bechara, 2001) — классическая задача на поведенческую экономику, win-stay/lose-shift паттерны - COGCAPTCHA30 — тестовая батарея из 30 когнитивных задач (рабочая память, принятие решений, восприятие, планирование)
