3,583 papers
arXiv:2601.10018 76 15 янв. 2026 г. FREE

Clarify-Paraphrase-Solve: переформулировка нечётких запросов через уточняющие вопросы

КЛЮЧЕВАЯ СУТЬ
Клиент пишет 'у меня глюки с вашей штукой' — и ты не знаешь что делать. Техподдержка тратит 10 сообщений чтобы выяснить что сломалось. Метод Clarify-Paraphrase-Solve позволяет превращать размытый запрос в конкретный через 2-3 уточняющих вопроса. LLM сама задаёт структурированные вопросы (какое устройство? что произошло? когда началось?), собирает ответы и выдаёт переформулированный запрос — точность решений подскочила с 46% до 69%.
Адаптировать под запрос

TL;DR

Clarify-Paraphrase-Solve — трёхшаговый подход, который превращает размытый запрос в чёткий через уточняющие вопросы и переформулировку. Исследователи изучили как пожилые люди (60+) формулируют технические проблемы и обнаружили четыре паттерна, которые мешают получить помощь: многословность (детали скрывают суть), неполнота (пропущен критический контекст), избыточная детализация (несущественные подробности отвлекают) и недостаточная детализация (нет ключевой информации о девайсе, приложении или действиях).

Проблема не только в возрасте — в отсутствии технической терминологии и сложности построить ментальную модель того, как работает система. Человек описывает симптом ("телефон раздулся огромным"), но не может назвать функцию ("увеличение масштаба экрана"). Или перегружает запрос историей ("мой сын в командировке, ему нужна справка для компании"), вместо того чтобы сказать "не могу скачать PDF из приложения". Помощнику — человеку или AI — трудно понять что именно сломалось.

Метод работает в три шага: модель анализирует исходный запрос, задаёт 2-3 уточняющих вопроса (какое устройство? какое приложение? что именно произошло?), получает ответы и генерирует переформулированный запрос — короткий, конкретный, с нужным контекстом. Этот запрос можно вбить в Google или отдать AI для генерации решения. Точность решений выросла с 46% до 69%, результаты поиска — с 35% до 69%.


🔬

Схема метода

Все три шага выполняются через последовательные промпты (prompt chaining):

ШАГ 1: Анализ запроса
Модель читает исходный запрос → выявляет пробелы в контексте

ШАГ 2: Уточнение
Модель генерирует 2-3 вопроса → пользователь отвечает

ШАГ 3: Переформулировка + Решение
Модель создаёт чёткий переформулированный запрос → 
генерирует пошаговое решение (если уверенность ≥90%)

🚀

Пример применения

Задача: Ты консультант по продуктам. Клиент прислал запрос в мессенджер: "Слушай, у меня вопрос про вашу штуку. Я её взял недавно, вроде всё норм было, потом начались какие-то глюки. То работает, то нет. Знакомый говорил что у него такое же было, но он как-то сам разобрался. Можете помочь?"

Промпт:

Проанализируй этот запрос клиента и найди пробелы в контексте:

"{запрос клиента}"

Задай 2-3 уточняющих вопроса, чтобы понять:
- О каком конкретно продукте речь?
- Что именно не работает? (функция, экран, подключение?)
- Когда началось? После чего?

Затем переформулируй запрос в один чёткий вопрос, 
который можно использовать для поиска решения.

Формат ответа:
1. Уточняющие вопросы: [вопросы]
2. Переформулированный запрос: [запрос]

Результат:

Модель задаст вопросы ("Какой продукт?", "Что именно глючит?", "Что вы делали перед этим?"). После ответов выдаст переформулировку типа: "Не работает синхронизация в приложении [название] на Android после обновления версии 2.5". С таким запросом легко найти решение в базе знаний или погуглить.


🧠

Почему это работает

LLM плохо работает с неопределённостью в запросе. Когда контекста мало, модель либо галлюцинирует детали, либо даёт общий ответ в стиле "проверьте настройки". Размытый запрос = размытый ответ.

Но LLM отлично структурирует информацию и задаёт логичные вопросы. Модель видит пробелы ("не указано устройство") и знает какие детали критичны для решения проблемы. Prompt chaining использует эту силу: сначала модель диагностирует что неясно, потом собирает недостающее, потом синтезирует чёткий запрос.

Уточняющие вопросы снимают когнитивную нагрузку с человека. Вместо того чтобы самому вспомнить все технические детали, человек просто отвечает на конкретные вопросы. Это проще — узнавание легче, чем вспоминание.

Рычаги управления:

  • Число уточняющих вопросов (2-3 в оригинале) → уменьши до 1-2 для простых запросов, экономия времени
  • Порог уверенности (90% для GPT-4o) → снизь до 70-80%, если нужен ответ даже при неполной информации
  • Инструкция для переформулировки ("подходит для Google-поиска") → замени на "подходит для внутренней базы знаний" или "для технической поддержки"
  • Формат финального решения (пошаговый) → попроси короткий чек-лист или диагностическую схему

📋

Шаблон промпта

Проанализируй этот запрос и определи какой контекст отсутствует:

"{исходный_запрос}"

Задай 2-3 уточняющих вопроса, чтобы собрать недостающую информацию.
Фокусируйся на:
- Конкретика (что именно? где именно?)
- Контекст использования (когда? после чего?)
- Технические детали (устройство/приложение/версия)

После получения ответов, переформулируй запрос в 1-2 чётких предложения,
которые содержат всю ключевую информацию для решения проблемы.

Формат:
1. Уточняющие вопросы: [2-3 вопроса]
2. Переформулированный запрос: [чёткая формулировка]
3. Решение: [пошаговая инструкция, только если уверенность ≥90%]

Как подставлять: - {исходный_запрос} — вопрос клиента / коллеги / пользователя как есть, без правки

Пример уточняющих вопросов для разных контекстов: - Техподдержка: какое устройство? какая версия приложения? что произошло перед проблемой? - Консалтинг: какая отрасль? какой масштаб бизнеса? какие уже пробовали подходы? - Образование: какой уровень студента? какая конкретная тема? где застряли?


⚠️

Ограничения

⚠️ Требует диалога: Метод работает только если есть возможность задать уточняющие вопросы. Для односторонних каналов (форма обратной связи без ответа) не подходит.

⚠️ Зависит от качества ответов: Если человек не может ответить на уточняющие вопросы (не помнит детали, не знает терминов), переформулировка останется неточной.

⚠️ Барьер для простых вопросов: Добавление промежуточного шага замедляет процесс. Для очевидных запросов ("как сбросить пароль") лишний overhead.


🔍

Как исследовали

Команда провела дневниковое исследование с 27 пожилыми людьми (медианный возраст 66 лет), которые в течение восьми недель присылали технические вопросы через мессенджеры, email или WhatsApp. Собрали 57 уникальных запросов про 34 разных мобильных приложения. Длина запросов варьировалась от 5 до 223 слов (медиана 65).

Анализ показал четыре паттерна проблемной коммуникации: многословность (9 случаев), избыточная детализация (12), недостаточная детализация (13) и неполнота контекста (24). Интересно: только 15.8% запросов включали скриншоты — большинство описывали проблему текстом, часто используя метафорический язык ("телефон заблокировался" = "power going off", "тёмный режим" = "экран потемнел").

Затем разработали prompt chaining workflow с GPT-4o и OS-ATLAS. GPT-4o показал 68.8% точных переформулировок против 12.6% у OS-ATLAS. В эксперименте с поиском: AI-переформулированные запросы давали правильное решение в топ-5 результатов Google в 69% случаев против 35% для оригинальных запросов.

Проверили на 48 молодых взрослых (медианный возраст 28) — помощниках пожилых людей. Они оценивали пары запросов: оригинал и AI-переформулировка. Результат: 93.7% понимания для AI-версий против 65.8% для оригиналов. Уверенность в понимании и лёгкость восприятия тоже значительно выросли (p < .001).

Финальная проверка с 30 пожилыми участниками: 89.8% сообщили, что могут ответить на уточняющие вопросы модели, и 94.7% — что могут следовать сгенерированным решениям. Высокая уверенность и лёгкость использования подтвердили практическую применимость метода.

Главный инсайт: Пожилые люди не хуже понимают технологии — они хуже формулируют запросы из-за отсутствия технической лексики и когнитивной нагрузки. Но когда AI снимает эту нагрузку через структурированные вопросы, эффективность коммуникации резко растёт.


🔗

Ресурсы

Empowering Older Adults in Digital Technology Use with Foundation Models

Синтетический датасет OATS (Older Adults' Tech Support): https://github.com/hhshomee/OATS

Hasti Sharifi, Homaira Huda Shomee, Sourav Medya, Debaleena Chattopadhyay

Department of Computer Science, University of Illinois Chicago


📋 Дайджест исследования

Ключевая суть

Клиент пишет 'у меня глюки с вашей штукой' — и ты не знаешь что делать. Техподдержка тратит 10 сообщений чтобы выяснить что сломалось. Метод Clarify-Paraphrase-Solve позволяет превращать размытый запрос в конкретный через 2-3 уточняющих вопроса. LLM сама задаёт структурированные вопросы (какое устройство? что произошло? когда началось?), собирает ответы и выдаёт переформулированный запрос — точность решений подскочила с 46% до 69%.

Принцип работы

Модель работает через prompt chaining: анализирует исходный запрос → выявляет пробелы в контексте → задаёт 2-3 вопроса → получает ответы → генерирует чистую формулировку. Узнавание легче вспоминания — человек не напрягается вспомнить все технические детали, просто отвечает на конкретные вопросы (какое устройство? какая версия? что делал перед этим?).

Почему работает

LLM плохо работает с размытыми запросами — либо галлюцинирует детали, либо даёт общий ответ 'проверьте настройки'. Но модель отлично видит пробелы ('не указано устройство') и знает какие детали критичны для решения проблемы. Prompt chaining использует эту силу: сначала диагностика, потом сбор недостающего, потом синтез чёткого запроса. Точность решений выросла с 46% до 69%, результаты поиска — с 35% до 69%. Уточняющие вопросы снимают когнитивную нагрузку — вместо того чтобы самому вспомнить все детали, человек просто отвечает.

Когда применять

Техподдержка → когда клиенты пишут 'что-то сломалось' без деталей, особенно для сложных продуктов (софт, электроника, SaaS). Консультинг → для уточнения размытого запроса клиента ('хотим улучшить бизнес'). Образование → когда студент не может чётко сформулировать где застрял. НЕ подходит для односторонних каналов (форма обратной связи без возможности диалога) и для очевидных вопросов ('как сбросить пароль') — добавление промежуточного шага замедляет процесс.

Мини-рецепт

1. Анализ запроса: Модель читает исходный запрос, выявляет что неясно (нет устройства? нет контекста? нет описания проблемы?)
2. Задай 2-3 уточняющих вопроса: Конкретика (что именно?), контекст (когда? после чего?), технические детали (устройство/версия/приложение?)
3. Переформулировка: Модель создаёт чёткий запрос из исходного + ответов — 1-2 предложения со всеми ключевыми деталями. Используй для поиска решения или генерации пошаговой инструкции

Примеры

[ПЛОХО] : Просто спрашиваешь LLM Помоги клиенту: 'У меня не работает ваше приложение, что делать?' — модель даст общий ответ про перезагрузку и проверку настроек.
[ХОРОШО] : Проанализируй запрос клиента: 'У меня не работает ваше приложение'. Задай 2-3 уточняющих вопроса: какое приложение? на каком устройстве? что именно не работает — не открывается/не синхронизируется/не сохраняет данные? После получения ответов переформулируй в один чёткий запрос для поиска решения в базе знаний.
Источник: Empowering Older Adults in Digital Technology Use with Foundation Models
ArXiv ID: 2601.10018 | Сгенерировано: 2026-01-16 05:30

Концепты не выделены.

📖 Простыми словами

Empowering Older Adults in Digital Technology Use with FoundationModels

arXiv: 2601.10018

Проблема в том, что нейросети — это не телепаты, а логические машины, которые дико лажают, когда сталкиваются с человеческим хаосом. Пожилые люди часто объясняют поломку гаджета как историю из жизни: там куча лишних деталей, эмоций и при этом ноль конкретики про модель телефона или версию софта. Для LLM такой запрос — это информационный шум, в котором она тонет, начиная выдавать бесполезные советы в духе «попробуйте выключить и включить».

Это как если бы ты пришел к врачу и вместо «болит колено после бега» начал рассказывать, какая была погода в день покупки кроссовок и что об этом думает сосед. Врач вежливо кивает, но диагноз поставить не может, потому что критический контекст погребен под слоем словесного мусора. В итоге вы оба тратите время, а колено продолжает болеть — это классический пример того, как избыточная детализация убивает смысл.

Чтобы починить это недопонимание, придумали метод Clarify-Paraphrase-Solve. Сначала нейросеть не пытается решить проблему, а работает как дотошный следователь: задает уточняющие вопросы, чтобы вытащить из тебя модель девайса или конкретную ошибку. Затем она переформулирует твой поток сознания в четкое ТЗ и только после этого приступает к решению. Этот трехшаговый фильтр превращает размытый запрос в сухую инструкцию, понятную даже тупому железу.

Хотя метод обкатывали на пенсионерах, принцип универсален для любого бизнеса и поддержки. Если клиент пишет в чат: "Ваша штука глючит, помогите", — обычный бот выдаст стандартную отписку. Система на базе prompt chaining (цепочки промптов) сначала выжмет из клиента факты, отсечет нытье и только потом даст ответ, который реально сработает. Это переход от тупого автоответчика к умному ассистенту, который умеет фильтровать базар.

Главный вывод: не жди, что нейросеть сама догадается, что ты имел в виду. Если на входе мусор, на выходе будет галлюцинация или бесполезная фигня. Используй схему «уточни — перефразируй — реши», чтобы превратить любого косноязычного пользователя в идеального постановщика задач. Либо ты учишь AI задавать правильные вопросы, либо продолжаешь получать ответы, которые формально верны, но бесполезны по сути.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с