TL;DR
Исследование показало, что структурированный диалог с LLM для постановки целей работает лучше, чем просто "поставь цель". Протестировали три механизма: guidance (пошаговые вопросы), suggestions (примеры перед ответом), feedback (проверка и просьба доработать). Все проверяли на реальных людях через чатбот, который помогал ставить личные цели: от "пробежать марафон" до "получить повышение" и "выучить Python".
Главная находка: feedback критически важен, suggestions — нет. Когда LLM задаёт вопросы по шагам (guidance), цели становятся конкретнее. Но настоящий скачок качества происходит, когда LLM проверяет ответ и просит доработать недостающие части. Например, если в плане действий указано "когда будет время" — просит назвать конкретный день и время. Удивительно: адаптивные примеры (suggestions) вообще не показали эффекта на качество целей. Выдача "правильных образцов" перед тем как человек формулирует — не работает. А вот критика уже сформулированного — работает отлично.
Метод повышает specificity (конкретность) целей и quality (качество планов действий), но не увеличивает commitment (обязательство следовать цели). То есть люди формулируют лучше, но не становятся более мотивированными. Feedback помогает оформить цель по фреймворкам goal setting theory и implementation intentions, но не меняет внутреннюю решимость.
Схема метода
GUIDANCE (пошаговые вопросы):
Вопрос 1: Какая у тебя цель? → Общая формулировка
Вопрос 2: Это цель на обучение (освоить навык) или результат (достичь показателя)? → Тип цели
Вопрос 3: Какой конкретный результат? Когда? Сколько? → Конкретизация
SUGGESTIONS (опционально, показали низкую эффективность):
Перед ответом юзера: "Например, вместо 'больше бегать' можно 'пробежать 5 км за 30 минут к концу марта'"
FEEDBACK (ключевой элемент):
Юзер: "Запущу курс весной"
LLM: "В формулировке не хватает конкретики — какой именно курс? для кого? что значит 'весной' — март или май? Пожалуйста, уточни."
Юзер дорабатывает → LLM проверяет снова → цикл до полной формулировки
IMPLEMENTATION INTENTIONS (if-then план):
Вопрос: Когда и где ты будешь действовать? → If-then формулировка
Feedback: Проверка что указан конкретный cue (триггер) и action (действие)
Все шаги в одном диалоге с LLM. Обычно 15-30 сообщений.
Пример применения
Задача: Ты хочешь запустить свой онлайн-курс по личным финансам для начинающих, но формулировка размытая: "Сделать курс в этом году, продавать через соцсети, зарабатывать". Нужна конкретика и план действий.
Промпт:
Помоги мне поставить чёткую цель и план действий. Задавай вопросы по шагам, как коуч. После каждого моего ответа проверяй — достаточно ли конкретно, и проси доработать если что-то расплывчато.
Моя цель: {запустить онлайн-курс по финансам}
Веди меня через:
1. Уточнение цели (что именно, для кого, какой результат, к какому сроку)
2. Тип цели (обучение новому или достижение показателя)
3. Формулировка if-then плана действий (когда, где, что конкретно делаю)
Не принимай расплывчатые ответы типа "весной", "когда будет время", "через соцсети". Проси конкретику: даты, числа, места, действия.
Результат:
LLM задаст 5-7 вопросов с проверками. Сначала уточнит: какой именно курс (формат, длительность, цена), для кого (новички 18-25 или 30-40?), какой показатель успеха (продать 50 мест? заработать 300к рублей?), к какой дате (не "этот год", а "15 июня 2026").
Потом перейдёт к if-then плану: "Если наступит [день недели, время], то я буду [конкретное действие] в [место/контекст]". Например: "Если наступит понедельник 9:00, то я буду писать первый модуль курса в коворкинге на Павелецкой".
Если ты напишешь "буду работать над курсом когда будет свободное время" — LLM не примет и попросит назвать конкретный день, время и место. Если напишешь "запущу весной" — попросит месяц и число.
В итоге получишь конкретную цель ("Запустить 4-недельный видеокурс по бюджетированию для 18-25 лет, продать 50 мест по 5000₽, к 1 июня 2026") и if-then план с триггерами.
Почему это работает
Слабость LLM: Если спросить LLM "помоги поставить цель" в лоб — она выдаст общие советы или примет любую расплывчатую формулировку. LLM не знает, что именно тебе важно уточнить, и не будет "придираться" к деталям без явной инструкции.
Сильная сторона LLM: Отлично распознаёт паттерны и задаёт уточняющие вопросы, если ей дать критерии проверки. Может сравнить твой ответ с чек-листом (specificity, measurability, deadline) и указать что пропущено. Может вести итеративный диалог, где каждый следующий вопрос строится на предыдущем ответе.
Как метод использует сильную сторону: 1. Пошаговость (guidance) убирает перегрузку — ты не думаешь обо всём сразу, а отвечаешь на конкретный вопрос. 2. Feedback использует способность LLM проверять по критериям. Вместо одного прохода ("поставил цель и всё"), идёт итеративная доработка — как с редактором текста. 3. Структура if-then использует способность LLM распознавать формат. Если ты пишешь "буду работать вечерами" — LLM видит отсутствие конкретного триггера и просит "какой день, какое время".
Рычаги управления: - Количество итераций feedback: Можешь попросить LLM "проверь максимум 2 раза, дальше принимай как есть" — сэкономит время на простых целях. - Критерии проверки: Можешь добавить "проверяй ещё и реалистичность — слишком амбициозно или нет" или убрать часть критериев для быстрой формулировки. - Строгость: "Не принимай ответ пока не будет всех деталей" vs "Если не могу уточнить — просто отметь и иди дальше". - Тип цели: Явно указать "это learning goal (освоить навык)" или "performance goal (достичь числа)" — LLM будет задавать разные вопросы.
Шаблон промпта
Помоги мне поставить конкретную цель и план действий по психологическим фреймворкам goal setting theory и implementation intentions.
Моя цель: {опиши цель общими словами}
ТВОЯ РОЛЬ: Коуч по постановке целей. Задавай вопросы по шагам. После каждого моего ответа проверяй по критериям ниже и проси доработать если чего-то не хватает. Не переходи к следующему шагу пока текущий не complete.
ШАГ 1 — УТОЧНЕНИЕ ЦЕЛИ:
Задай вопросы чтобы цель стала SMART:
- Specific: что именно? для кого? в чём результат?
- Measurable: какое число/показатель?
- Timebound: к какой дате (день, месяц, год)?
Не принимай расплывчатое: "весной", "побольше", "через соцсети", "когда будет время".
Проси конкретику: "15 марта", "50 клиентов", "Telegram-канал", "понедельник 9:00".
ШАГ 2 — ТИП ЦЕЛИ:
Это learning goal (освоить навык, изучить тему) или performance goal (достичь результата, числа)?
{для learning goals спрашивай про стратегию обучения; для performance — про метрики}
ШАГ 3 — IMPLEMENTATION INTENTION (if-then план):
Помоги создать if-then формулировку:
"Если [конкретный триггер: день недели, время, место, событие], то я буду [конкретное действие]"
ОБЯЗАТЕЛЬНО проверь:
- Триггер конкретен? (не "когда будет время", а "среда 19:00")
- Действие конкретно? (не "поработаю над целью", а "напишу 500 слов текста")
- Место указано? (дом, офис, коворкинг, кафе — где именно)
Если что-то расплывчато — спрашивай уточнения. Не переходи дальше пока if-then не будет полным.
ШАГ 4 — ИТОГОВАЯ ФОРМУЛИРОВКА:
Выдай финальную цель и if-then план. Спроси: "Это финальная версия или есть что доработать?"
Плейсхолдеры:
- {опиши цель общими словами} — твоя текущая формулировка, даже если размытая: "хочу запустить курс", "найти новую работу", "похудеть".
- {для learning goals / для performance} — это внутренняя логика LLM, подставлять не нужно. LLM сама выберет по типу цели.
🚀 Быстрый старт — вставь в чат:
Вот шаблон для goal setting с feedback. Адаптируй под мою задачу: [твоя цель].
Задавай вопросы, чтобы заполнить детали.
[вставить шаблон выше]
LLM спросит конкретику по каждому пункту SMART и if-then — потому что это логика фреймворка. Она возьмёт паттерн проверки (specificity, measurability, timebound, конкретный триггер) и будет итеративно уточнять пока цель не станет чёткой.
Ограничения
⚠️ Не повышает мотивацию: Метод делает цель конкретнее и качественнее, но не увеличивает commitment (обязательство следовать) или intention to act (намерение действовать). Ты сформулируешь цель лучше, но это не сделает тебя более мотивированным её достичь.
⚠️ Suggestions оказались бесполезны: Исследование показало, что адаптивные примеры перед ответом не работают. Выдача "правильных образцов" не улучшает формулировку. Работает только критика уже написанного (feedback).
⚠️ Требует мотивации: Тестировали на участниках, которые сами хотели ставить цели. Если человек не мотивирован изначально — структурированный диалог может раздражать ("зачем столько вопросов?").
⚠️ Не для простых целей: Если цель уже конкретна ("прочитать книгу X к 15 марта"), фреймворк избыточен. Метод полезен для размытых амбициозных целей типа "запустить бизнес", "сменить карьеру", "освоить новую сферу".
Как исследовали
Исследователи из Кембриджа и LMU Munich провели рандомизированный эксперимент с 543 участниками. Каждый человек получал одну из пяти версий чатбота:
- ControlBot — два фиксированных вопроса ("Какая цель? Какой план?"), как линейная анкета.
- GuidanceBot — пошаговые вопросы через rule-based логику, без LLM.
- SuggestionBot — guidance + адаптивные примеры от LLM перед каждым ответом.
- FeedbackBot — guidance + проверка ответов LLM с просьбой доработать.
- GenBot — все три фичи: guidance + suggestions + feedback.
Участники формулировали реальные личные цели — от спортивных ("пробежать марафон") до карьерных ("получить повышение") и учебных ("выучить Python", "сдать экзамен"). Диалог шёл через iOS-приложение с бэкендом на Python и OpenAI API (gpt-4o, temperature 0.1). Использовали state-based архитектуру — каждый шаг процесса соответствовал определённому состоянию, LLM переключала состояния через function calling.
Оценивали два типа метрик: - Objective — независимые оценщики читали финальные цели и планы, оценивали specificity (1-5) и quality of implementation intentions (1-4) не зная какой чатбот использовал участник. - Subjective — сами участники оценивали goal difficulty (насколько цель challenging), goal commitment (насколько обязуюсь следовать), intention to act (намерение действовать).
Главный результат: FeedbackBot и GenBot показали значительно более высокую specificity (+0.3-0.4 балла, effect size Cohen's d ≈ 0.3) и quality of implementation intentions (+0.2-0.3 балла) по сравнению с ControlBot. SuggestionBot не показал улучшений — ни по одной метрике не отличался от GuidanceBot.
Почему suggestions не сработали: Команда предполагает, что примеры либо слишком общие (не попадают в личный контекст), либо создают anchor effect (человек копирует пример вместо того чтобы думать самостоятельно). Feedback же заставляет активно дорабатывать свою формулировку, что эффективнее.
Медиация через social presence: Проверяли гипотезу, что LLM-чатботы повышают commitment через ощущение social presence (чувство взаимодействия с человекоподобным агентом). Результат: медиации нет. GenBot действительно создаёт более сильное ощущение присутствия, но это не переводится в commitment. Люди формулируют лучше, но не становятся более мотивированными.
Исследование преререгистрировано (OSF), что исключает p-hacking. Прошло более 10 итераций тестирования прототипа перед основным экспериментом. Код бэкенда опубликован на GitHub.
Адаптации и экстраполяции
🔧 Техника: Убрать suggestions, оставить только guidance + feedback → экономия токенов без потери качества
Исследование показало, что адаптивные примеры не работают. Значит можно упростить промпт — убрать блок с генерацией suggestions перед каждым вопросом. Это сократит длину промпта и количество токенов при том же результате.
Изменённый шаблон:
Помоги поставить конкретную цель. Задавай вопросы по шагам. После каждого ответа проверяй:
- Есть ли конкретика (что, сколько, когда)?
- Указан ли триггер для действия (день, время, место)?
Если чего-то не хватает — проси доработать. Не переходи дальше пока не будет полная формулировка.
Моя цель: {твоя цель}
Эффект: Такой же результат, меньше слов в промпте. SuggestionBot не отличался от GuidanceBot по метрикам, так что убираем лишнее.
🔧 Техника: Добавить "объясни почему спрашиваешь" → понимание фреймворка
Если хочешь не просто получить хорошую формулировку, но и понять логику goal setting theory — проси LLM объяснять зачем каждый вопрос.
После каждого вопроса добавляй в скобках: "(Спрашиваю потому что [причина из goal setting theory])"
Пример диалога:
LLM: К какой дате ты хочешь достичь цели?
(Спрашиваю потому что timebound goal повышает commitment — дедлайн создаёт срочность)
Юзер: К концу марта.
LLM: Конкретная дата? "Конец марта" может значить 25-е или 31-е.
(Спрашиваю потому что goal setting theory показывает: чем конкретнее срок, тем выше likelihood of achievement)
Эффект: Обучение через процесс. Ты не просто ставишь цель, но понимаешь почему важна конкретика. В следующий раз сможешь ставить цели самостоятельно качественнее.
🔧 Техника: Экспорт в Notion/Todoist через структурированный вывод
После того как цель и if-then план сформулированы, попроси LLM выдать в формате для task-менеджера:
Теперь выдай это в формате для Notion:
- [ ] Goal: {финальная формулировка}
- [ ] Deadline: {дата}
- [ ] If-then plan: {триггер} → {действие}
- [ ] Место: {где}
Можно попросить сразу для Todoist, TickTick, Google Calendar — LLM адаптирует формат.
Эффект: Бесшовный переход от формулировки к действию. Скопировал output → вставил в свой task-менеджер → цель не зависает в чате, а сразу в системе продуктивности.
Ресурсы
"Supporting Effective Goal Setting with LLM-Based Chatbots" — CHI 2026 Conference on Human Factors in Computing Systems.
Авторы: Michel Schimpf, Sebastian Maier (University of Cambridge), Lara Christoforakos, Stefan Feuerriegel (LMU Munich & MCML), Anton Wyrowski (Technical University of Munich, University of Cambridge), Thomas Bohné (University of Cambridge).
Репозиторий: Backend implementation: https://github.com/michel-schimpf/goal-setting-llm-backend
Преререгистрация: OSF https://osf.io/kjmdw/overview
Связанные фреймворки из исследования: - Goal Setting Theory (Locke & Latham, 2002) — цели должны быть specific, challenging, attainable. - Implementation Intentions (Gollwitzer, 1999) — if-then планы повышают вероятность действия. - SMART Goals — популярная адаптация goal setting theory для практики.
