3,583 papers
arXiv:2603.06330 74 6 мар. 2026 г. FREE

Contextual Acknowledgement: почему AI-коуч работает только когда слышит тебя

КЛЮЧЕВАЯ СУТЬ
Модель читает то, что ты написал — и молча прячет это в ответе. Ты писал об усталости, она учла... но не сказала. Совет выходит умным, но ощущается как шаблон — потому что ты не видишь связи между тем, что написал, и тем, что получил. Метод явного отражения контекста позволяет строить AI-коучей, которые воспринимаются как реальный разговор, а не как умный автоответчик. Добавь один структурный шаг в промпт: 'сначала отрази мои слова — потом советуй' — и разрыв в оценке полезности составит почти полтора балла из пяти по сравнению с теми же данными без этого шага.
Адаптировать под запрос

TL;DR

Главный вывод из 4-недельного исследования с живыми участниками: воспринимаемая полезность AI-советника определяется одним фактором — явным отражением того, что именно написал пользователь, а не умностью алгоритма выбора техники. Модель, которая говорит «ты написал, что устал после работы — вот почему короткая прогулка сейчас особенно важна», воспринимается радикально лучше, чем та, что выдаёт хороший, но безликий совет.

Слабость LLM без явного требования: предоставленный себе LLM выбирает позитивную подачу в 60–70% случаев и игнорирует другие углы зрения. Он «слышит» твой контекст, но не обязательно показывает, что услышал — просто использует его где-то внутри. Пользователь не видит связи между тем, что написал, и тем, что получил.

Решение простое: явно требовать в промпте, чтобы модель сначала отразила слова пользователя, потом давала совет. Этот шаг — не вежливость, а механизм, который напрямую определяет, почувствует ли человек, что его услышали.


🔬

Схема метода

Один промпт с двумя обязательными частями:

ШАГ 1: Пользователь даёт рефлексию → свободный текст о своём состоянии/ситуации
ШАГ 2: Модель ЯВНО отражает сказанное → "ты написал X, поэтому..."
ШАГ 3: Модель даёт конкретный совет/поддержку → основан на контексте из шага 1

Всё в одном запросе. Ключевое — порядок: сначала отражение, потом совет.


🚀

Пример применения

Задача: Иван ведёт чат-трекер для похудения. Каждый день пишет короткую рефлексию — что получилось, что нет, как себя чувствует. Хочет получать мотивирующий ответ, который ощущается как разговор с тренером, а не как уведомление из фитнес-приложения.

Промпт:

Ты — мой личный фитнес-коуч. Я буду каждый день писать тебе короткую рефлексию о своём дне, еде и тренировках.

Твой ответ строится так:
1. Сначала явно отрази то, что я написал — процитируй или перефразируй конкретные детали из моего сообщения. Покажи, что ты это услышал.
2. Только потом — дай совет или поддержку, исходя из этого контекста.
3. Если я пишу о сложном дне — не игнорируй это в пользу бодрого позитива. Признай сложность, потом предложи конкретный маленький шаг.
4. В конце — один вопрос на завтра, чтобы я мог снова написать рефлексию.

Длина ответа — 4–6 предложений. Без общих фраз про "ты молодец".

Моя сегодняшняя рефлексия: [текст]

Результат: Модель начнёт ответ с явного отражения — «ты написал, что не дошёл до зала из-за встречи в 8 вечера» — и только потом перейдёт к совету. Это ощущается принципиально иначе, чем стандартное «не сдавайся, каждый шаг важен». Завершающий вопрос создаёт петлю: пользователь тянется написать завтра.


🧠

Почему это работает

LLM генерирует текст по паттернам из огромного корпуса — где хорошие советники всегда показывают, что услышали собеседника, прежде чем советовать. Но без явной инструкции модель использует контекст молча: он влияет на ответ, но не виден пользователю.

Человек оценивает полезность не объективно, а через ощущение: «меня услышали» — это не мягкость, это сигнал, что совет относится именно ко мне, а не к абстрактному «кому-то в похожей ситуации». Исследование показало: разница в оценке между шаблонным советом (даже умно подобранным алгоритмом) и LLM-ответом с явным отражением контекста — почти полтора балла из пяти. Это огромный разрыв.

Рычаги управления промптом: - «Признай сложность, потом предложи шаг» — защита от слепого позитива, к которому LLM тяготеет по умолчанию - Явный порядок «отрази → потом советуй» — можно усилить: «процитируй мои слова дословно» - Финальный вопрос — создаёт следующие данные для рефлексии, поддерживает петлю - История переписки — чем больше предыдущих сообщений в контексте, тем точнее ответ; не начинай новый чат каждый день


📋

Шаблон промпта

Ты — мой {роль: коуч/ментор/советник} по теме {тема: питание / карьера / учёба / спорт}.

Я буду писать тебе регулярные рефлексии. Каждый ответ строй так:

1. ОТРАЖЕНИЕ — явно покажи, что ты услышал. Упомяни конкретные детали из моего сообщения.
2. ОТВЕТ — дай совет или поддержку, исходя из этого контекста. Не игнорируй сложное ради позитива.
3. ВОПРОС — один вопрос для следующей рефлексии.

Стиль: {стиль: прямой / мягкий / требовательный}. Без общих фраз.
Длина: {длина} предложений.

Моя рефлексия сегодня: {текст рефлексии}

Что подставлять: - {роль} — тренер, карьерный советник, ментор по продуктивности - {тема} — любая сфера, где нужна регулярная обратная связь - {стиль} — задаёт тональность; «требовательный» снижает позитивный уклон - {текст рефлексии} — свободный текст: что сделал, как себя чувствовал, что мешало


🚀 Быстрый старт — вставь в чат:

Вот шаблон для регулярного коучинга с явным отражением контекста. 
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про тему и стиль — потому что без этого она не знает, насколько жёстким делать отражение и какой угол совета выбирать.


⚠️

Ограничения

⚠️ Разовые запросы: Принцип работает на дистанции — когда есть что отражать. В одноразовом запросе («дай совет по X») разницы почти нет.

⚠️ Позитивный уклон по умолчанию: Если не прописать явно «признай сложность», LLM возьмёт gain-framing и обойдёт неудобные детали. Особенно заметно в темах здоровья, отношений, карьеры — там модель обучена на «поддерживающем» тоне.

⚠️ Длина истории: С накоплением переписки (10+ сообщений) модель начинает обобщать, а не слышать конкретный сегодняшний день. Иногда помогает давать «сброс контекста»: «сегодня не учитывай историю, реагируй только на это сообщение».

⚠️ Не работает для задач без рефлексии: Метод заточен под ситуации, где пользователь что-то рассказывает о себе. Для фактических вопросов («сколько белка в курице»), генерации текстов или аналитики — неприменим.


🔍

Как исследовали

54 участника 28 дней получали ежедневные мотивационные сообщения о физической активности. Каждый день человек заполнял психометрику (настроение, стресс, самоэффективность) и писал свободную рефлексию — что происходит, как он себя чувствует в отношении движения. Система случайно выбирала один из пяти подходов: чистый шаблон, шаблон с алгоритмической оптимизацией выбора техники (bandit), LLM без истории, LLM с историей переписки, и гибрид алгоритм+LLM. После каждого сообщения — оценка полезности по пятибалльной шкале.

Самый неожиданный результат: добавление сложной математической оптимизации выбора техники поверх LLM не дало никакого прироста — гибрид и простой LLM оценивались одинаково. Зато разрыв между шаблоном и любым LLM оказался огромным: почти полтора балла. Девять человек прошли выходное интервью, где сначала оценивали сообщения вслепую, потом узнавали, как они генерировались, и переоценивали — это позволило отделить реальное ощущение от ожиданий.

Исследователи обнаружили, что LLM в свободном режиме концентрировался на одной технике (позитивное обрамление) в 60–70% случаев — bandit-система насильно распределяла по всем четырём, но это не давало пользователям дополнительной пользы. Качественный анализ показал причину: участники ценили не «правильно подобранную технику», а ощущение, что система их услышала.


💡

Адаптации и экстраполяции

1. Борьба с позитивным уклоном через явную роль

🔧 Техника: добавить «адвоката дьявола» в ответ

Если нужен честный разбор, а не поддержка — добавь в промпт: «Сначала отрази мой контекст. Потом дай один позитивный и один критический взгляд на ситуацию. Не сглаживай второй ради первого.» Это вытягивает модель из gain-framing по умолчанию.

2. Формат «рефлексия + ответ» для командных встреч

Тот же принцип работает для обратной связи коллегам или клиентам:

Я менеджер. Сотрудник прислал отчёт о своей неделе: {текст отчёта}

Помоги мне написать ответ:
1. Сначала явно отрази 2-3 конкретные детали из отчёта — что он делал, с чем столкнулся.
2. Потом — одно признание того, что было сложно (без обесценивания).
3. Потом — один конкретный следующий шаг.

Тон: уважительный, прямой. Без «ты молодец» в начале.

Исследование показало: именно явное отражение специфики — а не оптимальный выбор техники мотивации — определяет, чувствует ли человек, что его услышали.


🔗

Ресурсы

Название работы: Structured Exploration vs. Generative Flexibility: A Field Study Comparing Bandit and LLM Architectures for Personalised Health Behaviour Interventions

Связанная техника: DIAMANTE trial (RL-based BCT selection), HeartSteps (Thompson Sampling для физической активности), Contextual Multi-Armed Bandits (cMAB)

Авторы: Dominik Hofer, Haochen Song, Laura Hawkins, Ananya Bhattacharjee, Joseph Jay Williams, Jan Smeddinck, Rania Islambouli, Meredith Franklin

Организации: Ludwig Boltzmann Institute for Digital Health and Prevention (Зальцбург, Австрия), University of Toronto (Канада), Stanford University (США)


📋 Дайджест исследования

Ключевая суть

Модель читает то, что ты написал — и молча прячет это в ответе. Ты писал об усталости, она учла... но не сказала. Совет выходит умным, но ощущается как шаблон — потому что ты не видишь связи между тем, что написал, и тем, что получил. Метод явного отражения контекста позволяет строить AI-коучей, которые воспринимаются как реальный разговор, а не как умный автоответчик. Добавь один структурный шаг в промпт: 'сначала отрази мои слова — потом советуй' — и разрыв в оценке полезности составит почти полтора балла из пяти по сравнению с теми же данными без этого шага.

Принцип работы

Без явной инструкции модель в 60–70% случаев выбирает позитивную подачу. Обходит неудобные детали. Игнорирует усталость. Выдаёт бодрый ответ. Прикол: модель не врёт — она просто не показывает, что слышала. Контекст работает, но невидимо. Строгий порядок ломает этот паттерн: сначала явное отражение ('ты написал, что...') → признание сложности → совет → вопрос на завтра. Человек видит цепочку — и это само по себе меняет восприятие.

Почему работает

Человек оценивает полезность не объективно. Главный вопрос не 'правильный ли совет?' — а 'этот совет про меня или про абстрактного человека в похожей ситуации?'. Явное отражение — это сигнал: совет сделан под тебя, не скопирован из базы знаний. LLM обучены на текстах, где хорошие советники всегда сначала показывают, что услышали — поэтому модель умеет это делать. Просто не делает без команды. Разница в 1.5 балла из 5 — это не мелочь. Это 30% от всей шкалы оценки.

Когда применять

Регулярный AI-коучинг в любой сфере — фитнес, продуктивность, карьера, питание — особенно когда пользователь пишет рефлексию или описывает свою ситуацию. Хорошо ложится на чат-боты с дневником, трекеры привычек, инструменты для самоанализа. НЕ подходит для одноразовых фактических вопросов ('сколько калорий в гречке') — там нечего отражать.

Мини-рецепт

1. Задай роль с темой: например, <роль>личный коуч по питанию — чтобы модель понимала угол отражения и нужную тональность
2. Пропиши порядок жёстко: ОТРАЖЕНИЕ → ПРИЗНАНИЕ СЛОЖНОСТИ → СОВЕТ → ВОПРОС. Не просто 'учитывай контекст' — это не работает. Именно последовательность
3. Заблокируй позитивный уклон: добавь явно 'если пишу о сложном — сначала признай это, не уходи в бодрость ради бодрости, потом предложи маленький шаг'
4. Создай петлю: всегда заканчивай одним вопросом для следующей рефлексии — это держит человека в системе и даёт материал для следующего отражения
5. Сохраняй историю: не начинай новый чат каждый день — без контекста прошлых дней отражение выходит поверхностным. Если переписка накопилась больше 10 сообщений — иногда давай сброс: 'сегодня реагируй только на это сообщение, без истории'

Примеры

[ПЛОХО] : Помоги мне с мотивацией для похудения
[ХОРОШО] : Ты — мой коуч по питанию. Каждый ответ строй в три шага: 1) ОТРАЖЕНИЕ — явно процитируй или перефразируй конкретные детали из моего сообщения, покажи что услышал; 2) ОТВЕТ — дай совет исходя из этого контекста, если пишу о сложном — признай сложность, не уходи в позитив; 3) ВОПРОС — один вопрос для следующей рефлексии. Без общих фраз про 'ты молодец'. 4–6 предложений. Моя рефлексия: не дошёл до зала, встреча затянулась до 21:00, злюсь на себя.
Источник: Structured Exploration vs. Generative Flexibility: A Field Study Comparing Bandit and LLM Architectures for Personalised Health Behaviour Interventions
ArXiv ID: 2603.06330 | Сгенерировано: 2026-03-09 04:23

Проблемы LLM

ПроблемаСутьКак обойти
Модель использует контекст пользователя скрытоПользователь пишет о своей ситуации. Модель читает. Учитывает при генерации. Но не показывает что именно прочитала. Пользователь получает хороший совет — и не понимает откуда он. Связь между "я написал X" и "мне ответили Y" невидима. Человек не чувствует что его услышали. Это разрушает доверие к ответу, даже если совет объективно верныйЯвно требуй отражения в промпте: "Сначала процитируй или перефразируй конкретные детали из моего сообщения. Потом давай совет." Порядок обязателен: отражение совет. Не наоборот

Методы

МетодСуть
Отражение перед советом — пользователь чувствует себя услышаннымДобавь в промпт явный первый шаг: модель должна показать что услышала. "1. Отрази — упомяни конкретные детали из моего сообщения. 2. Только потом — дай совет исходя из этого контекста." Для защиты от слепого позитива добавь: "Если я пишу о сложном — признай сложность, не обходи её. Только потом предложи шаг." Почему работает: Люди оценивают полезность не объективно. Сигнал "меня услышали" говорит человеку: этот совет про меня, а не про абстрактного Ивана в похожей ситуации. Когда применять: регулярная переписка с рефлексией пользователя — коучинг, трекинг, обратная связь по работе. Не работает: разовые фактические вопросы, генерация текстов — там нечего отражать
📖 Простыми словами

Structured Exploration vs. Generative Flexibility: A Field Study Comparing Bandit andLLMArchitectures for Personalised Health Behaviour Interventions

arXiv: 2603.06330

Суть тут в том, что AI-ассистенты проваливаются не из-за глупых советов, а из-за отсутствия эмпатичного фидбека. Исследование показало: пользователю плевать, насколько сложный алгоритм подбирал ему рекомендацию. Главное — видит ли он в ответе отражение своих же слов. Если модель просто выдает правильный совет, она воспринимается как бездушный калькулятор. Но как только она вставляет в ответ цитату из контекста пользователя, уровень доверия взлетает до небес. Это фундаментальный сдвиг от «умного выбора» к демонстрации понимания.

Это как прийти к психологу, излить душу, а в ответ услышать сухую фразу: «Вам нужно больше спать». Формально он прав, но ты чувствуешь себя идиотом, потому что тебя как будто не слушали. А теперь представь, что он говорит: «Ты сказал, что зашиваешься на работе и чувствуешь вину перед семьей — именно поэтому сейчас сон для тебя не просто отдых, а способ не сорваться на близких». Совет тот же, но контекстная привязка меняет всё. Без нее любой ИИ — это просто назойливое уведомление, которое хочется смахнуть.

В работе это реализуется через жесткую структуру промпта из двух частей: отражение контекста и выбор техники. Сначала модель обязана проговорить: «Ты написал, что устал после работы», и только потом выдать рекомендацию. Это называется явным использованием контекста. Исследование на живых людях подтвердило, что такая связка работает лучше любых навороченных «бандитов» и математических моделей оптимизации. Пользователю нужно подтверждение, что его «услышали», а не просто прогнали через фильтры.

Принцип универсален и выходит далеко за рамки медицины или ЗОЖ. Это работает в персонализированных продажах, техподдержке и даже в корпоративном обучении. Если ты делаешь чат-бота для фитнеса или финансового консультанта, забудь про попытки сделать его «самым умным». Сделай его внимательным слушателем. Тестировали на советах по здоровью, но паттерн применим везде, где есть диалог: если AI не возвращает пользователю его же смыслы, он проигрывает обычному текстовому шаблону.

Короче: хватит полировать алгоритмы выбора контента, лучше заставь модель цитировать пользователя. Главный вывод исследования — воспринимаемая полезность зависит от того, насколько ответ «пришит» к словам человека. Если AI-советник не объясняет, почему он дает этот совет на основе твоей ситуации, это бесполезный шум. Либо ты внедряешь структурированную рефлексию в каждый ответ, либо твой продукт отправляется в корзину вместе с остальным мусором.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с