TL;DR
Главный вывод из 4-недельного исследования с живыми участниками: воспринимаемая полезность AI-советника определяется одним фактором — явным отражением того, что именно написал пользователь, а не умностью алгоритма выбора техники. Модель, которая говорит «ты написал, что устал после работы — вот почему короткая прогулка сейчас особенно важна», воспринимается радикально лучше, чем та, что выдаёт хороший, но безликий совет.
Слабость LLM без явного требования: предоставленный себе LLM выбирает позитивную подачу в 60–70% случаев и игнорирует другие углы зрения. Он «слышит» твой контекст, но не обязательно показывает, что услышал — просто использует его где-то внутри. Пользователь не видит связи между тем, что написал, и тем, что получил.
Решение простое: явно требовать в промпте, чтобы модель сначала отразила слова пользователя, потом давала совет. Этот шаг — не вежливость, а механизм, который напрямую определяет, почувствует ли человек, что его услышали.
Схема метода
Один промпт с двумя обязательными частями:
ШАГ 1: Пользователь даёт рефлексию → свободный текст о своём состоянии/ситуации
ШАГ 2: Модель ЯВНО отражает сказанное → "ты написал X, поэтому..."
ШАГ 3: Модель даёт конкретный совет/поддержку → основан на контексте из шага 1
Всё в одном запросе. Ключевое — порядок: сначала отражение, потом совет.
Пример применения
Задача: Иван ведёт чат-трекер для похудения. Каждый день пишет короткую рефлексию — что получилось, что нет, как себя чувствует. Хочет получать мотивирующий ответ, который ощущается как разговор с тренером, а не как уведомление из фитнес-приложения.
Промпт:
Ты — мой личный фитнес-коуч. Я буду каждый день писать тебе короткую рефлексию о своём дне, еде и тренировках.
Твой ответ строится так:
1. Сначала явно отрази то, что я написал — процитируй или перефразируй конкретные детали из моего сообщения. Покажи, что ты это услышал.
2. Только потом — дай совет или поддержку, исходя из этого контекста.
3. Если я пишу о сложном дне — не игнорируй это в пользу бодрого позитива. Признай сложность, потом предложи конкретный маленький шаг.
4. В конце — один вопрос на завтра, чтобы я мог снова написать рефлексию.
Длина ответа — 4–6 предложений. Без общих фраз про "ты молодец".
Моя сегодняшняя рефлексия: [текст]
Результат: Модель начнёт ответ с явного отражения — «ты написал, что не дошёл до зала из-за встречи в 8 вечера» — и только потом перейдёт к совету. Это ощущается принципиально иначе, чем стандартное «не сдавайся, каждый шаг важен». Завершающий вопрос создаёт петлю: пользователь тянется написать завтра.
Почему это работает
LLM генерирует текст по паттернам из огромного корпуса — где хорошие советники всегда показывают, что услышали собеседника, прежде чем советовать. Но без явной инструкции модель использует контекст молча: он влияет на ответ, но не виден пользователю.
Человек оценивает полезность не объективно, а через ощущение: «меня услышали» — это не мягкость, это сигнал, что совет относится именно ко мне, а не к абстрактному «кому-то в похожей ситуации». Исследование показало: разница в оценке между шаблонным советом (даже умно подобранным алгоритмом) и LLM-ответом с явным отражением контекста — почти полтора балла из пяти. Это огромный разрыв.
Рычаги управления промптом: - «Признай сложность, потом предложи шаг» — защита от слепого позитива, к которому LLM тяготеет по умолчанию - Явный порядок «отрази → потом советуй» — можно усилить: «процитируй мои слова дословно» - Финальный вопрос — создаёт следующие данные для рефлексии, поддерживает петлю - История переписки — чем больше предыдущих сообщений в контексте, тем точнее ответ; не начинай новый чат каждый день
Шаблон промпта
Ты — мой {роль: коуч/ментор/советник} по теме {тема: питание / карьера / учёба / спорт}.
Я буду писать тебе регулярные рефлексии. Каждый ответ строй так:
1. ОТРАЖЕНИЕ — явно покажи, что ты услышал. Упомяни конкретные детали из моего сообщения.
2. ОТВЕТ — дай совет или поддержку, исходя из этого контекста. Не игнорируй сложное ради позитива.
3. ВОПРОС — один вопрос для следующей рефлексии.
Стиль: {стиль: прямой / мягкий / требовательный}. Без общих фраз.
Длина: {длина} предложений.
Моя рефлексия сегодня: {текст рефлексии}
Что подставлять:
- {роль} — тренер, карьерный советник, ментор по продуктивности
- {тема} — любая сфера, где нужна регулярная обратная связь
- {стиль} — задаёт тональность; «требовательный» снижает позитивный уклон
- {текст рефлексии} — свободный текст: что сделал, как себя чувствовал, что мешало
🚀 Быстрый старт — вставь в чат:
Вот шаблон для регулярного коучинга с явным отражением контекста.
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про тему и стиль — потому что без этого она не знает, насколько жёстким делать отражение и какой угол совета выбирать.
Ограничения
⚠️ Разовые запросы: Принцип работает на дистанции — когда есть что отражать. В одноразовом запросе («дай совет по X») разницы почти нет.
⚠️ Позитивный уклон по умолчанию: Если не прописать явно «признай сложность», LLM возьмёт gain-framing и обойдёт неудобные детали. Особенно заметно в темах здоровья, отношений, карьеры — там модель обучена на «поддерживающем» тоне.
⚠️ Длина истории: С накоплением переписки (10+ сообщений) модель начинает обобщать, а не слышать конкретный сегодняшний день. Иногда помогает давать «сброс контекста»: «сегодня не учитывай историю, реагируй только на это сообщение».
⚠️ Не работает для задач без рефлексии: Метод заточен под ситуации, где пользователь что-то рассказывает о себе. Для фактических вопросов («сколько белка в курице»), генерации текстов или аналитики — неприменим.
Как исследовали
54 участника 28 дней получали ежедневные мотивационные сообщения о физической активности. Каждый день человек заполнял психометрику (настроение, стресс, самоэффективность) и писал свободную рефлексию — что происходит, как он себя чувствует в отношении движения. Система случайно выбирала один из пяти подходов: чистый шаблон, шаблон с алгоритмической оптимизацией выбора техники (bandit), LLM без истории, LLM с историей переписки, и гибрид алгоритм+LLM. После каждого сообщения — оценка полезности по пятибалльной шкале.
Самый неожиданный результат: добавление сложной математической оптимизации выбора техники поверх LLM не дало никакого прироста — гибрид и простой LLM оценивались одинаково. Зато разрыв между шаблоном и любым LLM оказался огромным: почти полтора балла. Девять человек прошли выходное интервью, где сначала оценивали сообщения вслепую, потом узнавали, как они генерировались, и переоценивали — это позволило отделить реальное ощущение от ожиданий.
Исследователи обнаружили, что LLM в свободном режиме концентрировался на одной технике (позитивное обрамление) в 60–70% случаев — bandit-система насильно распределяла по всем четырём, но это не давало пользователям дополнительной пользы. Качественный анализ показал причину: участники ценили не «правильно подобранную технику», а ощущение, что система их услышала.
Адаптации и экстраполяции
1. Борьба с позитивным уклоном через явную роль
🔧 Техника: добавить «адвоката дьявола» в ответ
Если нужен честный разбор, а не поддержка — добавь в промпт: «Сначала отрази мой контекст. Потом дай один позитивный и один критический взгляд на ситуацию. Не сглаживай второй ради первого.» Это вытягивает модель из gain-framing по умолчанию.
2. Формат «рефлексия + ответ» для командных встреч
Тот же принцип работает для обратной связи коллегам или клиентам:
Я менеджер. Сотрудник прислал отчёт о своей неделе: {текст отчёта}
Помоги мне написать ответ:
1. Сначала явно отрази 2-3 конкретные детали из отчёта — что он делал, с чем столкнулся.
2. Потом — одно признание того, что было сложно (без обесценивания).
3. Потом — один конкретный следующий шаг.
Тон: уважительный, прямой. Без «ты молодец» в начале.
Исследование показало: именно явное отражение специфики — а не оптимальный выбор техники мотивации — определяет, чувствует ли человек, что его услышали.
Ресурсы
Название работы: Structured Exploration vs. Generative Flexibility: A Field Study Comparing Bandit and LLM Architectures for Personalised Health Behaviour Interventions
Связанная техника: DIAMANTE trial (RL-based BCT selection), HeartSteps (Thompson Sampling для физической активности), Contextual Multi-Armed Bandits (cMAB)
Авторы: Dominik Hofer, Haochen Song, Laura Hawkins, Ananya Bhattacharjee, Joseph Jay Williams, Jan Smeddinck, Rania Islambouli, Meredith Franklin
Организации: Ludwig Boltzmann Institute for Digital Health and Prevention (Зальцбург, Австрия), University of Toronto (Канада), Stanford University (США)
