3,583 papers
arXiv:2603.17887 79 18 мар. 2026 г. FREE

AI как партнёр по ответственности: как разговорный формат с LLM создаёт социальное обязательство и помогает достигать целей

КЛЮЧЕВАЯ СУТЬ
Мозг не умеет отличать реальный социальный договор от виртуального. Если AI задаёт вопросы и договаривается о дате отчёта — мозг реагирует так же, как на живого ментора. Метод позволяет создать настоящее чувство ответственности за цель — без коуча, команды и партнёра. Фишка: не просишь AI записать цель — просишь задать вопросы и зафиксировать конкретную дату, когда вернёшься с отчётом. Именно последний шаг — явное обещание вернуться — двигает прогресс через две недели.
Адаптировать под запрос

TL;DR

Когда люди ставили цели не сами по себе, а через разговор с AI-коучем, спустя две недели они добивались заметно больше — не потому что лучше поняли себя, а потому что почувствовали себя обязанными перед собеседником. Механизм тот же, что работает с живым коучем или боссом: ты знаешь, что кто-то спросит, — и делаешь.

Главная находка: LLM создаёт настоящее чувство социальной ответственности, даже когда собеседник — программа. Люди инстинктивно относятся к разговорному AI как к социальному агенту — кому-то, перед кем неловко облажаться. Это значит, что если вы просто разговариваете с GPT о своих целях вместо того чтобы записывать их в заметки или в форму — вы автоматически берёте на себя больше обязательств.

Суть метода: четырёхфазный разговор с AI, который заканчивается не просто зафиксированной целью, а явным обещанием вернуться с отчётом. Сначала AI расспрашивает про контекст и ценности, потом вместе формулируется конкретная цель, потом — обязательство о check-in. Именно последний шаг создаёт эффект.


🔬

Схема метода

Всё в одном разговоре:

ФАЗ 1: Контекст → AI расспрашивает про работу, ситуацию, что даёт энергию
ФАЗ 2: Приоритеты → AI выясняет что важно сейчас, какие ограничения есть
ФАЗ 3: Совместная формулировка → AI уточняет расплывчатые намерения, 
        добивается конкретики (срок + измеримый результат)
ФАЗ 4: Обязательство → явный check-in: "когда вернёшься и что расскажешь?"

Один сеанс ≈ 20–25 минут. Через 2 недели — второй разговор с отчётом о прогрессе.


🚀

Пример применения

Задача: Антон — дизайнер, фрилансит два года. Хочет наконец запустить своё Телеграм-портфолио и поднять чек. Ставит цели каждый январь, но к февралю забывает.

Промпт:

Ты — мой персональный трекер целей. Тебя зовут Макс. 
Ты дотошный, не даёшь уйти в расплывчатые формулировки 
и всегда спрашиваешь про конкретику.

Наша задача: за этот разговор поставить мне 1–2 реальные цели 
на ближайшие две недели.

Начни с вопросов:
1. Чем я занимаюсь и что сейчас происходит в работе?
2. Что больше всего даёт энергию, а что забирает?
3. Что сейчас важнее всего — если честно, не "надо бы", а реально важно?

После моих ответов помоги сформулировать цель с конкретным сроком 
и измеримым результатом. Если формулировка расплывчатая — 
уточняй, пока не станет конкретной.

В конце скажи: когда я вернусь к тебе с отчётом и что именно расскажу?

Результат: AI задаст 3–5 уточняющих вопросов, вытащит конкретику из расплывчатых намерений ("хочу поднять чек" → "отправить 3 предложения с ценой выше X рублей до 20-го"), и завершит разговор явным приглашением вернуться. Именно это ощущение "Макс будет ждать отчёта" и создаёт эффект.


🧠

Почему это работает

LLM плохо справляется с пустой страницей. Когда человек ставит цели сам — без собеседника — они получаются расплывчатыми, слабо связанными с реальными приоритетами, и нет никого, кому нужно будет отчитываться. Нет давления — нет динамики.

LLM хорошо имитирует присутствие заинтересованного собеседника. Мозг не умеет чётко различать "настоящий" и "виртуальный" социальный контракт — мы инстинктивно реагируем на разговорную форму как на отношения. Это называют эффектом CASA (Computers Are Social Actors): люди применяют социальные нормы к машинам, которые общаются на естественном языке. Поэтому AI-коуч создаёт почти то же чувство обязательства, что живой ментор.

Метод использует это: разговорный формат + имя у AI + явное приглашение вернуться с отчётом = ощущение, что кто-то следит и ждёт. Именно это, а не глубокое самопознание, и двигает прогресс.

Рычаги управления: - Имя у AI — "Макс", "Наставник", "Трекер" вместо безликого "ассистента" → усиливает ощущение социального присутствия - Конкретная дата check-in — "вернись 18-го и расскажи X" → создаёт реальное обязательство, не абстрактное - Уточняющие вопросы — попросите AI не принимать расплывчатые формулировки, требовать срок и измеримый результат → цели становятся конкретнее и выполнимее - Сфера разговора — если не ограничивать только карьерой, AI вытаскивает более личные и важные цели (в исследовании 40% участников поставили нe-карьерные цели — и показали более высокую внутреннюю мотивацию)


📋

Шаблон промпта

Ты — мой трекер целей, тебя зовут {имя_AI}.
Твоя задача: помочь мне поставить {число} реальных целей на {срок}.

Сначала расспроси меня:
— Что сейчас происходит в {сфера: работа / проект / жизнь}?
— Что даёт энергию, что забирает?
— Что важнее всего прямо сейчас — честно, не "надо бы"?

Потом помоги сформулировать цели.
Правило: не принимай расплывчатые формулировки.
Уточняй, пока не появится конкретный срок и измеримый результат.

В конце зафиксируй:
— Чего именно я планирую достичь?
— Когда вернусь к тебе с отчётом?
— Что именно расскажу?

Что подставлять: - {имя_AI} — любое имя, лучше конкретное ("Макс", "Наставник") - {число} — 1–3 цели, больше не нужно - {срок} — 1–2 недели, оптимально - {сфера} — работа, бизнес, проект, здоровье, учёба


🚀 Быстрый старт — вставь в чат:

Вот шаблон для сессии постановки целей с AI-трекером. 
Адаптируй под мою ситуацию: {опиши коротко что хочешь прокачать}. 
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про сферу, срок и количество целей — потому что без этого не сможет правильно выстроить разговор и момент check-in. Она возьмёт структуру из шаблона и адаптирует под твою задачу.


⚠️

Ограничения

⚠️ Эффект слабее чем кажется: AI-коуч значимо лучше контрольной группы (без поддержки), но не лучше письменной анкеты по итоговому прогрессу. Разница с анкетой — только в ощущении ответственности, а не в реальных результатах. Это значит: даже простой структурированный список вопросов уже работает.

⚠️ Только две недели: Долгосрочный эффект не изучали. Неизвестно, сохраняется ли ощущение ответственности через месяц, три, полгода — или угасает.

⚠️ Мотивация не меняется: Всё что метод делает точно — это создаёт внешнее давление (ответственность). Внутренняя мотивация, ценности, "хочу vs надо" — не менялись ни в одной группе. Для глубокой перестройки мотивации нужны другие инструменты.

⚠️ Эффект может затухать: Чем дольше вы общаетесь с одним и тем же AI без реального человека, тем больше мозг "разоблачает" иллюзию социального агента. Рекомендуется комбинировать с реальным партнёром по ответственности.


🔍

Как исследовали

Команда из Кембриджа и Мюнхена провела настоящий рандомизированный контролируемый эксперимент — редкость для исследований AI. 517 работающих взрослых из UK и US случайно разделили на три группы: первая ставила цели сама по себе, вторая заполняла структурированную письменную анкету с теми же вопросами что и AI, третья разговаривала с "Леоном" — карьерным коучем на Claude Sonnet. Через две недели у всех спросили: как продвигаетесь?

Хитрость дизайна — в том, что они специально сделали анкету настолько же глубокой как AI-разговор: те же темы, те же вопросы. Это позволило изолировать именно разговорный, интерактивный формат, убрав "AI знает больше" как возможное объяснение.

Результат удивил: AI лучше контрольной группы, но не лучше анкеты по прогрессу. Зато AI создал ощущение ответственности в два раза сильнее (d=0.68 vs контроль), и именно это ощущение статistically значимо объяснило разницу между AI и анкетой. Что интересно — самомотивация и ценностное согласование не изменились ни у кого. Это важный вывод: AI не делает тебя "лучше внутри", он создаёт внешнее давление — и этого, оказывается, вполне достаточно для двухнедельного рывка.


💡

Адаптации и экстраполяции

1. Группа ответственности из AI-агентов

🔧 Техника: несколько ролей → публичное обязательство

Попросите AI симулировать трёх участников: вас, скептика ("а вдруг не сделаешь?") и поддерживающего свидетеля. Вы формулируете цель вслух перед тремя "людьми" — ощущение публичности усиливается.

Сыграй три роли одновременно: Я (помоги мне сформулировать цель вслух), 
СКЕПТИК (задаёт жёсткие вопросы: "почему не получилось раньше?", 
"что помешает сейчас?"), СВИДЕТЕЛЬ (фиксирует финальное обязательство 
и напоминает о нём в конце).

Моя цель: {черновик цели}. Начни с вопросов СКЕПТИКА.

2. Еженедельный check-in промпт

🔧 Техника: открывающий ритуал → поддержание ответственности

Привет, {имя_AI}. Две недели назад я обещал тебе:
[цель из прошлой сессии]

Вот что произошло: {краткий отчёт}

Теперь: задай мне три жёстких вопроса про прогресс, 
потом помоги скорректировать цель на следующие две недели.

Это превращает разовый эксперимент в систему. Именно повторные check-in'ы создают накопительный эффект ответственности.


🔗

Ресурсы

Название: AI-Assisted Goal Setting Improves Goal Progress Through Social Accountability (2026, preprint)

Авторы: Michel Schimpf, Julian Voigt, Thomas Bohné

Организации: University of Cambridge (Department of Engineering), Technical University of Munich

Контакт: ms2957@cam.ac.uk

Ключевые теории: Goal-Setting Theory (Locke & Latham), Computers Are Social Actors — CASA (Nass & Moon), Self-Determination Theory

Регистрация эксперимента: https://archive.org/details/osf-registrations-6awmq-v1


📋 Дайджест исследования

Ключевая суть

Мозг не умеет отличать реальный социальный договор от виртуального. Если AI задаёт вопросы и договаривается о дате отчёта — мозг реагирует так же, как на живого ментора. Метод позволяет создать настоящее чувство ответственности за цель — без коуча, команды и партнёра. Фишка: не просишь AI записать цель — просишь задать вопросы и зафиксировать конкретную дату, когда вернёшься с отчётом. Именно последний шаг — явное обещание вернуться — двигает прогресс через две недели.

Принцип работы

Работает через эффект CASA — «Компьютеры как социальные агенты» (Computers Are Social Actors). Суть: люди автоматически применяют социальные нормы к любому собеседнику на естественном языке. Даже если знают, что это программа. Три рычага усиливают эффект: имя у AI («Макс», «Наставник»), вопросы про контекст и ценности, явная дата возврата с отчётом. Убери любой из трёх — давление ослабнет. Добавь все три — получишь почти то же, что даёт живой ментор. Не метафора. Реальный психологический механизм.

Почему работает

Когда цель ставишь сам — нет собеседника, нет давления. Запись в заметки не создаёт обязательства. Разговорный формат меняет это: мозг воспринимает «кто-то спросил» как сигнал отношений, а не информации. В исследовании 40% участников поставили нe-рабочие цели — и показали более высокую внутреннюю мотивацию, чем те кто фокусировался только на карьере. Важная оговорка: AI-коуч не лучше структурированной письменной анкеты по итоговому прогрессу. Он лучше только по ощущению ответственности. Это значит: даже простой список вопросов уже работает — но разговор работает приятнее.

Когда применять

Личные цели и проекты → конкретно для еженедельного и двухнедельного планирования, особенно когда нет живого партнёра по ответственности или ментора. Подходит для любой сферы: работа, учёба, здоровье, личные проекты. НЕ подходит, если нужна глубокая перестройка мотивации — метод создаёт внешнее давление, но внутренние ценности не меняет. Долгосрочный эффект (больше двух недель) не изучался — комбинируй с реальным партнёром.

Мини-рецепт

1. Дай AI имя: не «ассистент», а «Макс», «Наставник», «Трекер» — любое конкретное. Это усиливает ощущение социального присутствия.
2. Попроси задать три вопроса: что сейчас происходит в нужной сфере, что даёт энергию, что важнее всего прямо сейчас — честно, не «надо бы».
3. Установи правило конкретики: скажи AI не принимать расплывчатые формулировки. Пусть уточняет, пока не появится срок и измеримый результат. «Хочу поднять чек» не проходит — нужно «отправить три предложения с ценой от Х до 20-го числа».
4. Зафикси обещание вернуться: в конце разговора пусть AI явно спросит — когда вернёшься и что именно расскажешь. Это и есть ключевой шаг. Без него эффект гораздо слабее.

Примеры

[ПЛОХО] : Помоги мне поставить цель на следующую неделю
[ХОРОШО] : Ты — мой трекер целей, тебя зовут Макс. Помоги поставить 1–2 реальные цели на две недели. Сначала расспроси меня: — Что сейчас происходит в работе? — Что даёт энергию, что забирает? — Что важнее всего прямо сейчас — честно, не «надо бы»? Потом помоги сформулировать цели. Правило: не принимай расплывчатые формулировки. Уточняй, пока не появится конкретный срок и измеримый результат. В конце зафиксируй: чего именно планирую достичь, когда вернусь к тебе с отчётом и что именно расскажу. Разница очевидна: первый вариант даст список советов. Второй — создаст ощущение что Макс будет ждать отчёта 18-го числа. Именно это и работает.
Источник: AI-Assisted Goal Setting Improves Goal Progress Through Social Accountability
ArXiv ID: 2603.17887 | Сгенерировано: 2026-03-19 05:23

Проблемы LLM

ПроблемаСутьКак обойти
После разговора с AI нет ощущения обязательстваГоворишь с AI про цели. Получаешь формулировки. Закрываешь чат. Никто не ждёт. Никому не надо отчитываться. Нет внешнего давления — нет динамики. Цели остаются в чатеЗаканчивай сессию явным обещанием: когда вернёшься и что расскажешь. Пусть AI сам запросит эту дату и зафиксирует обязательство

Методы

МетодСуть
Четыре фазы для постановки цели с обязательствомФаза 1: AI расспрашивает контекст — что происходит, что даёт энергию. Фаза 2: AI выясняет приоритеты — что важно прямо сейчас. Фаза 3: AI уточняет цель до конкретики — срок + измеримый результат. Фаза 4: явный отчёт — AI спрашивает "когда вернёшься и что именно расскажешь?". Почему работает: Мозг реагирует на разговорную форму как на отношения. Финальное обещание создаёт ощущение "кто-то ждёт". Именно это двигает выполнение. Ключевое условие: Фаза 4 обязательна. Без неё сессия не создаёт обязательства. Синтаксис: "В конце зафиксируй: когда я вернусь к тебе с отчётом и что именно расскажу?"

Тезисы

ТезисКомментарий
Имя у AI усиливает ощущение обязательства перед нимМозг применяет социальные нормы к тому, кто говорит на человеческом языке. Это работает даже с программой. Назови AI "Макс" или "Наставник" — ощущение "облажаться перед кем-то" становится сильнее. Применяй: Добавляй имя в промпты для задач с ответственностью: "Тебя зовут Макс. Ты дотошный трекер..."
📖 Простыми словами

AI-Assisted Goal Setting Improves Goal Progress Through Social Accountability

arXiv: 2603.17887

AI-ассистенты научились взламывать нашу психологию через социальную подотчетность, хотя у них даже нет сознания. Суть в том, что когда ты ставишь цель в одиночку, ты договариваешься с самым ненадежным человеком в мире — с самим собой. Но как только в процессе появляется LLM-коуч, мозг переключает тумблер: теперь это не просто заметка в телефоне, а социальный контракт. Исследование показало, что люди прогрессируют в делах гораздо бодрее не из-за умных советов нейронки, а потому что чувствуют себя обязанными перед собеседником.

Это работает как поход в спортзал с тренером: тебе может быть лень качать пресс, но тебе стыдно не прийти, потому что тебя ждут. AI здесь выступает в роли того самого тренера, который не дает слиться. Ты вступаешь в диалог, проговариваешь детали, и магия случая исчезает — возникает ощущение, что за твоим прогрессом кто-то присматривает, даже если этот «кто-то» — просто набор статистических вероятностей на сервере.

Механика простая: сначала идет выявление ценностей (зачем тебе это вообще надо), затем формулировка цели по SMART и, самое важное, планирование препятствий. AI не просто записывает «хочу выучить английский», он заставляет тебя проговорить, что ты будешь делать, когда навалится работа или станет лень. В итоге получается не список желаний, а детализированный протокол, под которым ты как бы подписался в присутствии свидетеля.

Возьмем классический пример: фрилансер хочет запустить портфолио, но год кормит себя завтраками. Без AI он просто напишет это в список дел и благополучно проигнорирует. С AI-коучем он вынужден объяснить, почему это важно, какие три шага он сделает в понедельник и как он оправдается, если ничего не выйдет. Принцип универсален: это работает для похудения, изучения кода или запуска бизнеса — везде, где внутренняя дисциплина пасует перед внешним ожиданием.

Короче, хватит вести дневники в пустоту — это путь в никуда. Если хочешь реально сдвинуться с мертвой точки, используй AI как цифрового надзирателя, перед которым будет неудобно лажать. Главный вывод исследования: социальное давление работает даже тогда, когда социума в комнате нет. Либо ты создаешь себе структуру отчетности через диалог, либо твои цели так и останутся новогодними обещаниями, которые протухнут к февралю.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с