3,583 papers
arXiv:2602.08636 87 9 фев. 2026 г. FREE

Goal Setting с Feedback: пошаговая постановка целей через структурированный диалог

КЛЮЧЕВАЯ СУТЬ
Парадокс: показать правильный пример ПЕРЕД тем как человек формулирует цель — не работает. А вот проверить УЖЕ написанное и попросить доработать — работает отлично. Исследование протестировало три механизма помощи LLM в постановке целей (пошаговые вопросы, адаптивные примеры, проверка с доработкой) на реальных людях. Выяснилось: адаптивные примеры вообще не дали эффекта, а вот итеративная критика увеличила конкретность целей. Метод позволяет превратить размытую формулировку типа "запущу курс весной" в чёткий план с датами, числами и if-then триггерами — "Если наступит понедельник 9:00, то я буду писать первый модуль в коворкинге".
Адаптировать под запрос

TL;DR

Исследование показало, что структурированный диалог с LLM для постановки целей работает лучше, чем просто "поставь цель". Протестировали три механизма: guidance (пошаговые вопросы), suggestions (примеры перед ответом), feedback (проверка и просьба доработать). Все проверяли на реальных людях через чатбот, который помогал ставить личные цели: от "пробежать марафон" до "получить повышение" и "выучить Python".

Главная находка: feedback критически важен, suggestions — нет. Когда LLM задаёт вопросы по шагам (guidance), цели становятся конкретнее. Но настоящий скачок качества происходит, когда LLM проверяет ответ и просит доработать недостающие части. Например, если в плане действий указано "когда будет время" — просит назвать конкретный день и время. Удивительно: адаптивные примеры (suggestions) вообще не показали эффекта на качество целей. Выдача "правильных образцов" перед тем как человек формулирует — не работает. А вот критика уже сформулированного — работает отлично.

Метод повышает specificity (конкретность) целей и quality (качество планов действий), но не увеличивает commitment (обязательство следовать цели). То есть люди формулируют лучше, но не становятся более мотивированными. Feedback помогает оформить цель по фреймворкам goal setting theory и implementation intentions, но не меняет внутреннюю решимость.


🔬

Схема метода

GUIDANCE (пошаговые вопросы):

Вопрос 1: Какая у тебя цель? → Общая формулировка
Вопрос 2: Это цель на обучение (освоить навык) или результат (достичь показателя)? → Тип цели
Вопрос 3: Какой конкретный результат? Когда? Сколько? → Конкретизация

SUGGESTIONS (опционально, показали низкую эффективность):

Перед ответом юзера: "Например, вместо 'больше бегать' можно 'пробежать 5 км за 30 минут к концу марта'"

FEEDBACK (ключевой элемент):

Юзер: "Запущу курс весной"
LLM: "В формулировке не хватает конкретики — какой именно курс? для кого? что значит 'весной' — март или май? Пожалуйста, уточни."
Юзер дорабатывает → LLM проверяет снова → цикл до полной формулировки

IMPLEMENTATION INTENTIONS (if-then план):

Вопрос: Когда и где ты будешь действовать? → If-then формулировка
Feedback: Проверка что указан конкретный cue (триггер) и action (действие)

Все шаги в одном диалоге с LLM. Обычно 15-30 сообщений.


🚀

Пример применения

Задача: Ты хочешь запустить свой онлайн-курс по личным финансам для начинающих, но формулировка размытая: "Сделать курс в этом году, продавать через соцсети, зарабатывать". Нужна конкретика и план действий.

Промпт:

Помоги мне поставить чёткую цель и план действий. Задавай вопросы по шагам, как коуч. После каждого моего ответа проверяй — достаточно ли конкретно, и проси доработать если что-то расплывчато. 

Моя цель: {запустить онлайн-курс по финансам}

Веди меня через:
1. Уточнение цели (что именно, для кого, какой результат, к какому сроку)
2. Тип цели (обучение новому или достижение показателя)
3. Формулировка if-then плана действий (когда, где, что конкретно делаю)

Не принимай расплывчатые ответы типа "весной", "когда будет время", "через соцсети". Проси конкретику: даты, числа, места, действия.

Результат:

LLM задаст 5-7 вопросов с проверками. Сначала уточнит: какой именно курс (формат, длительность, цена), для кого (новички 18-25 или 30-40?), какой показатель успеха (продать 50 мест? заработать 300к рублей?), к какой дате (не "этот год", а "15 июня 2026").

Потом перейдёт к if-then плану: "Если наступит [день недели, время], то я буду [конкретное действие] в [место/контекст]". Например: "Если наступит понедельник 9:00, то я буду писать первый модуль курса в коворкинге на Павелецкой".

Если ты напишешь "буду работать над курсом когда будет свободное время" — LLM не примет и попросит назвать конкретный день, время и место. Если напишешь "запущу весной" — попросит месяц и число.

В итоге получишь конкретную цель ("Запустить 4-недельный видеокурс по бюджетированию для 18-25 лет, продать 50 мест по 5000₽, к 1 июня 2026") и if-then план с триггерами.


🧠

Почему это работает

Слабость LLM: Если спросить LLM "помоги поставить цель" в лоб — она выдаст общие советы или примет любую расплывчатую формулировку. LLM не знает, что именно тебе важно уточнить, и не будет "придираться" к деталям без явной инструкции.

Сильная сторона LLM: Отлично распознаёт паттерны и задаёт уточняющие вопросы, если ей дать критерии проверки. Может сравнить твой ответ с чек-листом (specificity, measurability, deadline) и указать что пропущено. Может вести итеративный диалог, где каждый следующий вопрос строится на предыдущем ответе.

Как метод использует сильную сторону: 1. Пошаговость (guidance) убирает перегрузку — ты не думаешь обо всём сразу, а отвечаешь на конкретный вопрос. 2. Feedback использует способность LLM проверять по критериям. Вместо одного прохода ("поставил цель и всё"), идёт итеративная доработка — как с редактором текста. 3. Структура if-then использует способность LLM распознавать формат. Если ты пишешь "буду работать вечерами" — LLM видит отсутствие конкретного триггера и просит "какой день, какое время".

Рычаги управления: - Количество итераций feedback: Можешь попросить LLM "проверь максимум 2 раза, дальше принимай как есть" — сэкономит время на простых целях. - Критерии проверки: Можешь добавить "проверяй ещё и реалистичность — слишком амбициозно или нет" или убрать часть критериев для быстрой формулировки. - Строгость: "Не принимай ответ пока не будет всех деталей" vs "Если не могу уточнить — просто отметь и иди дальше". - Тип цели: Явно указать "это learning goal (освоить навык)" или "performance goal (достичь числа)" — LLM будет задавать разные вопросы.


📋

Шаблон промпта

Помоги мне поставить конкретную цель и план действий по психологическим фреймворкам goal setting theory и implementation intentions. 

Моя цель: {опиши цель общими словами}

ТВОЯ РОЛЬ: Коуч по постановке целей. Задавай вопросы по шагам. После каждого моего ответа проверяй по критериям ниже и проси доработать если чего-то не хватает. Не переходи к следующему шагу пока текущий не complete.

ШАГ 1 — УТОЧНЕНИЕ ЦЕЛИ:
Задай вопросы чтобы цель стала SMART:
- Specific: что именно? для кого? в чём результат?
- Measurable: какое число/показатель?
- Timebound: к какой дате (день, месяц, год)?

Не принимай расплывчатое: "весной", "побольше", "через соцсети", "когда будет время".
Проси конкретику: "15 марта", "50 клиентов", "Telegram-канал", "понедельник 9:00".

ШАГ 2 — ТИП ЦЕЛИ:
Это learning goal (освоить навык, изучить тему) или performance goal (достичь результата, числа)?
{для learning goals спрашивай про стратегию обучения; для performance — про метрики}

ШАГ 3 — IMPLEMENTATION INTENTION (if-then план):
Помоги создать if-then формулировку:
"Если [конкретный триггер: день недели, время, место, событие], то я буду [конкретное действие]"

ОБЯЗАТЕЛЬНО проверь:
- Триггер конкретен? (не "когда будет время", а "среда 19:00")
- Действие конкретно? (не "поработаю над целью", а "напишу 500 слов текста")
- Место указано? (дом, офис, коворкинг, кафе — где именно)

Если что-то расплывчато — спрашивай уточнения. Не переходи дальше пока if-then не будет полным.

ШАГ 4 — ИТОГОВАЯ ФОРМУЛИРОВКА:
Выдай финальную цель и if-then план. Спроси: "Это финальная версия или есть что доработать?"

Плейсхолдеры: - {опиши цель общими словами} — твоя текущая формулировка, даже если размытая: "хочу запустить курс", "найти новую работу", "похудеть". - {для learning goals / для performance} — это внутренняя логика LLM, подставлять не нужно. LLM сама выберет по типу цели.

🚀 Быстрый старт — вставь в чат:

Вот шаблон для goal setting с feedback. Адаптируй под мою задачу: [твоя цель]. 
Задавай вопросы, чтобы заполнить детали.

[вставить шаблон выше]

LLM спросит конкретику по каждому пункту SMART и if-then — потому что это логика фреймворка. Она возьмёт паттерн проверки (specificity, measurability, timebound, конкретный триггер) и будет итеративно уточнять пока цель не станет чёткой.


⚠️

Ограничения

⚠️ Не повышает мотивацию: Метод делает цель конкретнее и качественнее, но не увеличивает commitment (обязательство следовать) или intention to act (намерение действовать). Ты сформулируешь цель лучше, но это не сделает тебя более мотивированным её достичь.

⚠️ Suggestions оказались бесполезны: Исследование показало, что адаптивные примеры перед ответом не работают. Выдача "правильных образцов" не улучшает формулировку. Работает только критика уже написанного (feedback).

⚠️ Требует мотивации: Тестировали на участниках, которые сами хотели ставить цели. Если человек не мотивирован изначально — структурированный диалог может раздражать ("зачем столько вопросов?").

⚠️ Не для простых целей: Если цель уже конкретна ("прочитать книгу X к 15 марта"), фреймворк избыточен. Метод полезен для размытых амбициозных целей типа "запустить бизнес", "сменить карьеру", "освоить новую сферу".


🔍

Как исследовали

Исследователи из Кембриджа и LMU Munich провели рандомизированный эксперимент с 543 участниками. Каждый человек получал одну из пяти версий чатбота:

  1. ControlBot — два фиксированных вопроса ("Какая цель? Какой план?"), как линейная анкета.
  2. GuidanceBot — пошаговые вопросы через rule-based логику, без LLM.
  3. SuggestionBot — guidance + адаптивные примеры от LLM перед каждым ответом.
  4. FeedbackBot — guidance + проверка ответов LLM с просьбой доработать.
  5. GenBot — все три фичи: guidance + suggestions + feedback.

Участники формулировали реальные личные цели — от спортивных ("пробежать марафон") до карьерных ("получить повышение") и учебных ("выучить Python", "сдать экзамен"). Диалог шёл через iOS-приложение с бэкендом на Python и OpenAI API (gpt-4o, temperature 0.1). Использовали state-based архитектуру — каждый шаг процесса соответствовал определённому состоянию, LLM переключала состояния через function calling.

Оценивали два типа метрик: - Objective — независимые оценщики читали финальные цели и планы, оценивали specificity (1-5) и quality of implementation intentions (1-4) не зная какой чатбот использовал участник. - Subjective — сами участники оценивали goal difficulty (насколько цель challenging), goal commitment (насколько обязуюсь следовать), intention to act (намерение действовать).

Главный результат: FeedbackBot и GenBot показали значительно более высокую specificity (+0.3-0.4 балла, effect size Cohen's d ≈ 0.3) и quality of implementation intentions (+0.2-0.3 балла) по сравнению с ControlBot. SuggestionBot не показал улучшений — ни по одной метрике не отличался от GuidanceBot.

Почему suggestions не сработали: Команда предполагает, что примеры либо слишком общие (не попадают в личный контекст), либо создают anchor effect (человек копирует пример вместо того чтобы думать самостоятельно). Feedback же заставляет активно дорабатывать свою формулировку, что эффективнее.

Медиация через social presence: Проверяли гипотезу, что LLM-чатботы повышают commitment через ощущение social presence (чувство взаимодействия с человекоподобным агентом). Результат: медиации нет. GenBot действительно создаёт более сильное ощущение присутствия, но это не переводится в commitment. Люди формулируют лучше, но не становятся более мотивированными.

Исследование преререгистрировано (OSF), что исключает p-hacking. Прошло более 10 итераций тестирования прототипа перед основным экспериментом. Код бэкенда опубликован на GitHub.


💡

Адаптации и экстраполяции

🔧 Техника: Убрать suggestions, оставить только guidance + feedback → экономия токенов без потери качества

Исследование показало, что адаптивные примеры не работают. Значит можно упростить промпт — убрать блок с генерацией suggestions перед каждым вопросом. Это сократит длину промпта и количество токенов при том же результате.

Изменённый шаблон:

Помоги поставить конкретную цель. Задавай вопросы по шагам. После каждого ответа проверяй: 
- Есть ли конкретика (что, сколько, когда)?
- Указан ли триггер для действия (день, время, место)?

Если чего-то не хватает — проси доработать. Не переходи дальше пока не будет полная формулировка.

Моя цель: {твоя цель}

Эффект: Такой же результат, меньше слов в промпте. SuggestionBot не отличался от GuidanceBot по метрикам, так что убираем лишнее.


🔧 Техника: Добавить "объясни почему спрашиваешь" → понимание фреймворка

Если хочешь не просто получить хорошую формулировку, но и понять логику goal setting theory — проси LLM объяснять зачем каждый вопрос.

После каждого вопроса добавляй в скобках: "(Спрашиваю потому что [причина из goal setting theory])"

Пример диалога:

LLM: К какой дате ты хочешь достичь цели? 
     (Спрашиваю потому что timebound goal повышает commitment — дедлайн создаёт срочность)

Юзер: К концу марта.

LLM: Конкретная дата? "Конец марта" может значить 25-е или 31-е.
     (Спрашиваю потому что goal setting theory показывает: чем конкретнее срок, тем выше likelihood of achievement)

Эффект: Обучение через процесс. Ты не просто ставишь цель, но понимаешь почему важна конкретика. В следующий раз сможешь ставить цели самостоятельно качественнее.


🔧 Техника: Экспорт в Notion/Todoist через структурированный вывод

После того как цель и if-then план сформулированы, попроси LLM выдать в формате для task-менеджера:

Теперь выдай это в формате для Notion:
- [ ] Goal: {финальная формулировка}
- [ ] Deadline: {дата}
- [ ] If-then plan: {триггер} → {действие}
- [ ] Место: {где}

Можно попросить сразу для Todoist, TickTick, Google Calendar — LLM адаптирует формат.

Эффект: Бесшовный переход от формулировки к действию. Скопировал output → вставил в свой task-менеджер → цель не зависает в чате, а сразу в системе продуктивности.


🔗

Ресурсы

"Supporting Effective Goal Setting with LLM-Based Chatbots" — CHI 2026 Conference on Human Factors in Computing Systems.

Авторы: Michel Schimpf, Sebastian Maier (University of Cambridge), Lara Christoforakos, Stefan Feuerriegel (LMU Munich & MCML), Anton Wyrowski (Technical University of Munich, University of Cambridge), Thomas Bohné (University of Cambridge).

Репозиторий: Backend implementation: https://github.com/michel-schimpf/goal-setting-llm-backend

Преререгистрация: OSF https://osf.io/kjmdw/overview

Связанные фреймворки из исследования: - Goal Setting Theory (Locke & Latham, 2002) — цели должны быть specific, challenging, attainable. - Implementation Intentions (Gollwitzer, 1999) — if-then планы повышают вероятность действия. - SMART Goals — популярная адаптация goal setting theory для практики.


📋 Дайджест исследования

Ключевая суть

Парадокс: показать правильный пример ПЕРЕД тем как человек формулирует цель — не работает. А вот проверить УЖЕ написанное и попросить доработать — работает отлично. Исследование протестировало три механизма помощи LLM в постановке целей (пошаговые вопросы, адаптивные примеры, проверка с доработкой) на реальных людях. Выяснилось: адаптивные примеры вообще не дали эффекта, а вот итеративная критика увеличила конкретность целей. Метод позволяет превратить размытую формулировку типа "запущу курс весной" в чёткий план с датами, числами и if-then триггерами — "Если наступит понедельник 9:00, то я буду писать первый модуль в коворкинге".

Принцип работы

LLM ведёт тебя через пошаговый диалог: сначала уточняет что именно, для кого, к какой дате (SMART-критерии), потом проверяет твой ответ по чек-листу и просит доработать если что-то расплывчато. Написал "весной" — попросит месяц и число. Написал "когда будет время" — попросит день недели и час. Цикл повторяется пока формулировка не станет конкретной. Это как работа с редактором текста: не одна отправка и готово, а несколько итераций доработки. Обычно 15-30 сообщений до финальной цели.

Почему работает

LLM отлично распознаёт паттерны и может проверять по критериям (конкретность, измеримость, дедлайн), но не знает что именно ТЕБЕ важно уточнить без явной инструкции. Если просто спросить "помоги поставить цель" — примет любую расплывчатость. Секрет в том что ты даёшь LLM критерии проверки заранее — она сравнивает твой ответ с чек-листом и указывает что пропущено. Пошаговость убирает перегрузку — ты не думаешь обо всём сразу, а отвечаешь на конкретный вопрос. А проверка с доработкой использует способность LLM вести итеративный диалог — как редактор который не примет текст пока не будут все детали.

Когда применять

Для размытых амбициозных целей → конкретно для задач типа "запустить бизнес", "сменить карьеру", "освоить новую сферу", особенно когда формулировка расплывчатая ("побольше", "весной", "когда будет время"). НЕ подходит для уже конкретных целей типа "прочитать книгу X к 15 марта" — там фреймворк избыточен.

Мини-рецепт

1. Дай LLM критерии проверки: Попроси задавать вопросы по SMART (конкретно что, для кого, к какой дате) и не принимать расплывчатое типа "весной", "побольше", "когда будет время"
2. Опиши цель общими словами: Даже если размытая — "хочу запустить курс", "найти новую работу"
3. Веди диалог с проверками: LLM спросит детали → ты ответишь → она проверит по критериям → попросит доработать если чего-то не хватает → цикл повторяется
4. Создай if-then план: Попроси сформулировать "Если [конкретный триггер: день, время, место], то я буду [конкретное действие]" — LLM проверит что триггер и действие конкретны
5. Финальная формулировка: LLM выдаст чёткую цель с датами, числами и триггерами — спроси "можно доработать или это финал?"

Примеры

[ПЛОХО] : Помоги поставить цель: хочу запустить онлайн-курс по финансам в этом году, продавать через соцсети
[ХОРОШО] : Помоги поставить конкретную цель и план по SMART и if-then. Моя цель: запустить курс по финансам. Задавай вопросы по шагам. Проверяй каждый ответ и проси доработать если расплывчато: не принимай "весной" (нужна дата), "через соцсети" (какой канал), "когда будет время" (нужен день и час). Веди через: 1) уточнение (что именно, для кого, к какой дате), 2) тип цели (обучение или результат), 3) if-then план (если [триггер], то [действие]). Не переходи к следующему шагу пока текущий не complete.
Источник: Supporting Effective Goal Setting with LLM-Based Chatbots
ArXiv ID: 2602.08636 | Сгенерировано: 2026-02-10 08:33

Концепты не выделены.

📖 Простыми словами

Supporting Effective Goal Setting withLLM-Based Chatbots

arXiv: 2602.08636

AI-ассистенты в базе своей — жуткие подпевалы. Если ты придешь к ChatGPT с размытой целью типа «хочу выучить Python», он просто скажет «окей, круто» и накидает банальностей. Проблема в том, что LLM не умеет докапываться до сути сама по себе: она принимает твой запрос как истину и не пытается вытащить из тебя детали, которые реально важны для успеха. В итоге на выходе получается бесполезная жвачка, которая никак не помогает сдвинуться с места.

Это как прийти к ленивому фитнес-тренеру и сказать: «Хочу похудеть». Он просто кивнет и покажет на беговую дорожку, вместо того чтобы спросить про твой рацион, травмы и сколько раз в неделю ты готов потеть. Формально он помог, но по факту ты просто потратил время, потому что без жесткой структуры и уточняющих вопросов никакой план не сработает. Исследование доказало: чтобы бот реально приносил пользу, он должен перестать быть просто «зеркалом» и превратиться в активного интервьюера.

Авторы выделили три конкретных рычага, которые превращают чат в инструмент. Первый — guidance, когда бот ведет тебя за руку по шагам, не давая перескочить к финалу. Второй — suggestions, то есть готовые примеры, чтобы у тебя не было ступора перед пустым экраном. И третий, самый важный — feedback, когда нейронка не просто кивает, а критикует твою формулировку и просит доработать детали. Эти методы заставляют человека включать мозг, а не просто ждать, что магия AI сделает всё за него.

Хотя в эксперименте люди ставили личные цели вроде марафона или повышения, этот принцип универсален. Он работает везде: от написания кода до маркетинговых стратегий. Если ты строишь систему на базе AI, нельзя давать пользователю просто «пустое окно» — нужно вшивать в промпты механику обратной связи. Без этого любая генерация идей превращается в имитацию бурной деятельности, где бот и человек просто обмениваются вежливой, но бесполезной фигней.

Короче, хватит ждать от AI телепатии — он слишком вежлив, чтобы указывать на твои ошибки. Чтобы получить вменяемый результат, нужно использовать структурированный диалог и принудительную критику. Если бот не задает тебе пять уточняющих вопросов и не бракует твой первый черновик, значит, вы оба просто теряете время. Результат дает только итерация, а не первая попавшаяся выдача.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с