TL;DR
Когда люди ставили цели не сами по себе, а через разговор с AI-коучем, спустя две недели они добивались заметно больше — не потому что лучше поняли себя, а потому что почувствовали себя обязанными перед собеседником. Механизм тот же, что работает с живым коучем или боссом: ты знаешь, что кто-то спросит, — и делаешь.
Главная находка: LLM создаёт настоящее чувство социальной ответственности, даже когда собеседник — программа. Люди инстинктивно относятся к разговорному AI как к социальному агенту — кому-то, перед кем неловко облажаться. Это значит, что если вы просто разговариваете с GPT о своих целях вместо того чтобы записывать их в заметки или в форму — вы автоматически берёте на себя больше обязательств.
Суть метода: четырёхфазный разговор с AI, который заканчивается не просто зафиксированной целью, а явным обещанием вернуться с отчётом. Сначала AI расспрашивает про контекст и ценности, потом вместе формулируется конкретная цель, потом — обязательство о check-in. Именно последний шаг создаёт эффект.
Схема метода
Всё в одном разговоре:
ФАЗ 1: Контекст → AI расспрашивает про работу, ситуацию, что даёт энергию
ФАЗ 2: Приоритеты → AI выясняет что важно сейчас, какие ограничения есть
ФАЗ 3: Совместная формулировка → AI уточняет расплывчатые намерения,
добивается конкретики (срок + измеримый результат)
ФАЗ 4: Обязательство → явный check-in: "когда вернёшься и что расскажешь?"
Один сеанс ≈ 20–25 минут. Через 2 недели — второй разговор с отчётом о прогрессе.
Пример применения
Задача: Антон — дизайнер, фрилансит два года. Хочет наконец запустить своё Телеграм-портфолио и поднять чек. Ставит цели каждый январь, но к февралю забывает.
Промпт:
Ты — мой персональный трекер целей. Тебя зовут Макс.
Ты дотошный, не даёшь уйти в расплывчатые формулировки
и всегда спрашиваешь про конкретику.
Наша задача: за этот разговор поставить мне 1–2 реальные цели
на ближайшие две недели.
Начни с вопросов:
1. Чем я занимаюсь и что сейчас происходит в работе?
2. Что больше всего даёт энергию, а что забирает?
3. Что сейчас важнее всего — если честно, не "надо бы", а реально важно?
После моих ответов помоги сформулировать цель с конкретным сроком
и измеримым результатом. Если формулировка расплывчатая —
уточняй, пока не станет конкретной.
В конце скажи: когда я вернусь к тебе с отчётом и что именно расскажу?
Результат: AI задаст 3–5 уточняющих вопросов, вытащит конкретику из расплывчатых намерений ("хочу поднять чек" → "отправить 3 предложения с ценой выше X рублей до 20-го"), и завершит разговор явным приглашением вернуться. Именно это ощущение "Макс будет ждать отчёта" и создаёт эффект.
Почему это работает
LLM плохо справляется с пустой страницей. Когда человек ставит цели сам — без собеседника — они получаются расплывчатыми, слабо связанными с реальными приоритетами, и нет никого, кому нужно будет отчитываться. Нет давления — нет динамики.
LLM хорошо имитирует присутствие заинтересованного собеседника. Мозг не умеет чётко различать "настоящий" и "виртуальный" социальный контракт — мы инстинктивно реагируем на разговорную форму как на отношения. Это называют эффектом CASA (Computers Are Social Actors): люди применяют социальные нормы к машинам, которые общаются на естественном языке. Поэтому AI-коуч создаёт почти то же чувство обязательства, что живой ментор.
Метод использует это: разговорный формат + имя у AI + явное приглашение вернуться с отчётом = ощущение, что кто-то следит и ждёт. Именно это, а не глубокое самопознание, и двигает прогресс.
Рычаги управления: - Имя у AI — "Макс", "Наставник", "Трекер" вместо безликого "ассистента" → усиливает ощущение социального присутствия - Конкретная дата check-in — "вернись 18-го и расскажи X" → создаёт реальное обязательство, не абстрактное - Уточняющие вопросы — попросите AI не принимать расплывчатые формулировки, требовать срок и измеримый результат → цели становятся конкретнее и выполнимее - Сфера разговора — если не ограничивать только карьерой, AI вытаскивает более личные и важные цели (в исследовании 40% участников поставили нe-карьерные цели — и показали более высокую внутреннюю мотивацию)
Шаблон промпта
Ты — мой трекер целей, тебя зовут {имя_AI}.
Твоя задача: помочь мне поставить {число} реальных целей на {срок}.
Сначала расспроси меня:
— Что сейчас происходит в {сфера: работа / проект / жизнь}?
— Что даёт энергию, что забирает?
— Что важнее всего прямо сейчас — честно, не "надо бы"?
Потом помоги сформулировать цели.
Правило: не принимай расплывчатые формулировки.
Уточняй, пока не появится конкретный срок и измеримый результат.
В конце зафиксируй:
— Чего именно я планирую достичь?
— Когда вернусь к тебе с отчётом?
— Что именно расскажу?
Что подставлять:
- {имя_AI} — любое имя, лучше конкретное ("Макс", "Наставник")
- {число} — 1–3 цели, больше не нужно
- {срок} — 1–2 недели, оптимально
- {сфера} — работа, бизнес, проект, здоровье, учёба
🚀 Быстрый старт — вставь в чат:
Вот шаблон для сессии постановки целей с AI-трекером.
Адаптируй под мою ситуацию: {опиши коротко что хочешь прокачать}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про сферу, срок и количество целей — потому что без этого не сможет правильно выстроить разговор и момент check-in. Она возьмёт структуру из шаблона и адаптирует под твою задачу.
Ограничения
⚠️ Эффект слабее чем кажется: AI-коуч значимо лучше контрольной группы (без поддержки), но не лучше письменной анкеты по итоговому прогрессу. Разница с анкетой — только в ощущении ответственности, а не в реальных результатах. Это значит: даже простой структурированный список вопросов уже работает.
⚠️ Только две недели: Долгосрочный эффект не изучали. Неизвестно, сохраняется ли ощущение ответственности через месяц, три, полгода — или угасает.
⚠️ Мотивация не меняется: Всё что метод делает точно — это создаёт внешнее давление (ответственность). Внутренняя мотивация, ценности, "хочу vs надо" — не менялись ни в одной группе. Для глубокой перестройки мотивации нужны другие инструменты.
⚠️ Эффект может затухать: Чем дольше вы общаетесь с одним и тем же AI без реального человека, тем больше мозг "разоблачает" иллюзию социального агента. Рекомендуется комбинировать с реальным партнёром по ответственности.
Как исследовали
Команда из Кембриджа и Мюнхена провела настоящий рандомизированный контролируемый эксперимент — редкость для исследований AI. 517 работающих взрослых из UK и US случайно разделили на три группы: первая ставила цели сама по себе, вторая заполняла структурированную письменную анкету с теми же вопросами что и AI, третья разговаривала с "Леоном" — карьерным коучем на Claude Sonnet. Через две недели у всех спросили: как продвигаетесь?
Хитрость дизайна — в том, что они специально сделали анкету настолько же глубокой как AI-разговор: те же темы, те же вопросы. Это позволило изолировать именно разговорный, интерактивный формат, убрав "AI знает больше" как возможное объяснение.
Результат удивил: AI лучше контрольной группы, но не лучше анкеты по прогрессу. Зато AI создал ощущение ответственности в два раза сильнее (d=0.68 vs контроль), и именно это ощущение статistically значимо объяснило разницу между AI и анкетой. Что интересно — самомотивация и ценностное согласование не изменились ни у кого. Это важный вывод: AI не делает тебя "лучше внутри", он создаёт внешнее давление — и этого, оказывается, вполне достаточно для двухнедельного рывка.
Адаптации и экстраполяции
1. Группа ответственности из AI-агентов
🔧 Техника: несколько ролей → публичное обязательство
Попросите AI симулировать трёх участников: вас, скептика ("а вдруг не сделаешь?") и поддерживающего свидетеля. Вы формулируете цель вслух перед тремя "людьми" — ощущение публичности усиливается.
Сыграй три роли одновременно: Я (помоги мне сформулировать цель вслух),
СКЕПТИК (задаёт жёсткие вопросы: "почему не получилось раньше?",
"что помешает сейчас?"), СВИДЕТЕЛЬ (фиксирует финальное обязательство
и напоминает о нём в конце).
Моя цель: {черновик цели}. Начни с вопросов СКЕПТИКА.
2. Еженедельный check-in промпт
🔧 Техника: открывающий ритуал → поддержание ответственности
Привет, {имя_AI}. Две недели назад я обещал тебе:
[цель из прошлой сессии]
Вот что произошло: {краткий отчёт}
Теперь: задай мне три жёстких вопроса про прогресс,
потом помоги скорректировать цель на следующие две недели.
Это превращает разовый эксперимент в систему. Именно повторные check-in'ы создают накопительный эффект ответственности.
Ресурсы
Название: AI-Assisted Goal Setting Improves Goal Progress Through Social Accountability (2026, preprint)
Авторы: Michel Schimpf, Julian Voigt, Thomas Bohné
Организации: University of Cambridge (Department of Engineering), Technical University of Munich
Контакт: ms2957@cam.ac.uk
Ключевые теории: Goal-Setting Theory (Locke & Latham), Computers Are Social Actors — CASA (Nass & Moon), Self-Determination Theory
Регистрация эксперимента: https://archive.org/details/osf-registrations-6awmq-v1
