TL;DR
Clarify-Paraphrase-Solve — трёхшаговый подход, который превращает размытый запрос в чёткий через уточняющие вопросы и переформулировку. Исследователи изучили как пожилые люди (60+) формулируют технические проблемы и обнаружили четыре паттерна, которые мешают получить помощь: многословность (детали скрывают суть), неполнота (пропущен критический контекст), избыточная детализация (несущественные подробности отвлекают) и недостаточная детализация (нет ключевой информации о девайсе, приложении или действиях).
Проблема не только в возрасте — в отсутствии технической терминологии и сложности построить ментальную модель того, как работает система. Человек описывает симптом ("телефон раздулся огромным"), но не может назвать функцию ("увеличение масштаба экрана"). Или перегружает запрос историей ("мой сын в командировке, ему нужна справка для компании"), вместо того чтобы сказать "не могу скачать PDF из приложения". Помощнику — человеку или AI — трудно понять что именно сломалось.
Метод работает в три шага: модель анализирует исходный запрос, задаёт 2-3 уточняющих вопроса (какое устройство? какое приложение? что именно произошло?), получает ответы и генерирует переформулированный запрос — короткий, конкретный, с нужным контекстом. Этот запрос можно вбить в Google или отдать AI для генерации решения. Точность решений выросла с 46% до 69%, результаты поиска — с 35% до 69%.
Схема метода
Все три шага выполняются через последовательные промпты (prompt chaining):
ШАГ 1: Анализ запроса
Модель читает исходный запрос → выявляет пробелы в контексте
ШАГ 2: Уточнение
Модель генерирует 2-3 вопроса → пользователь отвечает
ШАГ 3: Переформулировка + Решение
Модель создаёт чёткий переформулированный запрос →
генерирует пошаговое решение (если уверенность ≥90%)
Пример применения
Задача: Ты консультант по продуктам. Клиент прислал запрос в мессенджер: "Слушай, у меня вопрос про вашу штуку. Я её взял недавно, вроде всё норм было, потом начались какие-то глюки. То работает, то нет. Знакомый говорил что у него такое же было, но он как-то сам разобрался. Можете помочь?"
Промпт:
Проанализируй этот запрос клиента и найди пробелы в контексте:
"{запрос клиента}"
Задай 2-3 уточняющих вопроса, чтобы понять:
- О каком конкретно продукте речь?
- Что именно не работает? (функция, экран, подключение?)
- Когда началось? После чего?
Затем переформулируй запрос в один чёткий вопрос,
который можно использовать для поиска решения.
Формат ответа:
1. Уточняющие вопросы: [вопросы]
2. Переформулированный запрос: [запрос]
Результат:
Модель задаст вопросы ("Какой продукт?", "Что именно глючит?", "Что вы делали перед этим?"). После ответов выдаст переформулировку типа: "Не работает синхронизация в приложении [название] на Android после обновления версии 2.5". С таким запросом легко найти решение в базе знаний или погуглить.
Почему это работает
LLM плохо работает с неопределённостью в запросе. Когда контекста мало, модель либо галлюцинирует детали, либо даёт общий ответ в стиле "проверьте настройки". Размытый запрос = размытый ответ.
Но LLM отлично структурирует информацию и задаёт логичные вопросы. Модель видит пробелы ("не указано устройство") и знает какие детали критичны для решения проблемы. Prompt chaining использует эту силу: сначала модель диагностирует что неясно, потом собирает недостающее, потом синтезирует чёткий запрос.
Уточняющие вопросы снимают когнитивную нагрузку с человека. Вместо того чтобы самому вспомнить все технические детали, человек просто отвечает на конкретные вопросы. Это проще — узнавание легче, чем вспоминание.
Рычаги управления:
- Число уточняющих вопросов (2-3 в оригинале) → уменьши до 1-2 для простых запросов, экономия времени
- Порог уверенности (90% для GPT-4o) → снизь до 70-80%, если нужен ответ даже при неполной информации
- Инструкция для переформулировки ("подходит для Google-поиска") → замени на "подходит для внутренней базы знаний" или "для технической поддержки"
- Формат финального решения (пошаговый) → попроси короткий чек-лист или диагностическую схему
Шаблон промпта
Проанализируй этот запрос и определи какой контекст отсутствует:
"{исходный_запрос}"
Задай 2-3 уточняющих вопроса, чтобы собрать недостающую информацию.
Фокусируйся на:
- Конкретика (что именно? где именно?)
- Контекст использования (когда? после чего?)
- Технические детали (устройство/приложение/версия)
После получения ответов, переформулируй запрос в 1-2 чётких предложения,
которые содержат всю ключевую информацию для решения проблемы.
Формат:
1. Уточняющие вопросы: [2-3 вопроса]
2. Переформулированный запрос: [чёткая формулировка]
3. Решение: [пошаговая инструкция, только если уверенность ≥90%]
Как подставлять:
- {исходный_запрос} — вопрос клиента / коллеги / пользователя как есть, без правки
Пример уточняющих вопросов для разных контекстов: - Техподдержка: какое устройство? какая версия приложения? что произошло перед проблемой? - Консалтинг: какая отрасль? какой масштаб бизнеса? какие уже пробовали подходы? - Образование: какой уровень студента? какая конкретная тема? где застряли?
Ограничения
⚠️ Требует диалога: Метод работает только если есть возможность задать уточняющие вопросы. Для односторонних каналов (форма обратной связи без ответа) не подходит.
⚠️ Зависит от качества ответов: Если человек не может ответить на уточняющие вопросы (не помнит детали, не знает терминов), переформулировка останется неточной.
⚠️ Барьер для простых вопросов: Добавление промежуточного шага замедляет процесс. Для очевидных запросов ("как сбросить пароль") лишний overhead.
Как исследовали
Команда провела дневниковое исследование с 27 пожилыми людьми (медианный возраст 66 лет), которые в течение восьми недель присылали технические вопросы через мессенджеры, email или WhatsApp. Собрали 57 уникальных запросов про 34 разных мобильных приложения. Длина запросов варьировалась от 5 до 223 слов (медиана 65).
Анализ показал четыре паттерна проблемной коммуникации: многословность (9 случаев), избыточная детализация (12), недостаточная детализация (13) и неполнота контекста (24). Интересно: только 15.8% запросов включали скриншоты — большинство описывали проблему текстом, часто используя метафорический язык ("телефон заблокировался" = "power going off", "тёмный режим" = "экран потемнел").
Затем разработали prompt chaining workflow с GPT-4o и OS-ATLAS. GPT-4o показал 68.8% точных переформулировок против 12.6% у OS-ATLAS. В эксперименте с поиском: AI-переформулированные запросы давали правильное решение в топ-5 результатов Google в 69% случаев против 35% для оригинальных запросов.
Проверили на 48 молодых взрослых (медианный возраст 28) — помощниках пожилых людей. Они оценивали пары запросов: оригинал и AI-переформулировка. Результат: 93.7% понимания для AI-версий против 65.8% для оригиналов. Уверенность в понимании и лёгкость восприятия тоже значительно выросли (p < .001).
Финальная проверка с 30 пожилыми участниками: 89.8% сообщили, что могут ответить на уточняющие вопросы модели, и 94.7% — что могут следовать сгенерированным решениям. Высокая уверенность и лёгкость использования подтвердили практическую применимость метода.
Главный инсайт: Пожилые люди не хуже понимают технологии — они хуже формулируют запросы из-за отсутствия технической лексики и когнитивной нагрузки. Но когда AI снимает эту нагрузку через структурированные вопросы, эффективность коммуникации резко растёт.
Ресурсы
Empowering Older Adults in Digital Technology Use with Foundation Models
Синтетический датасет OATS (Older Adults' Tech Support): https://github.com/hhshomee/OATS
Hasti Sharifi, Homaira Huda Shomee, Sourav Medya, Debaleena Chattopadhyay
Department of Computer Science, University of Illinois Chicago
