3,583 papers
arXiv:2507.13555 95 17 июля 2025 г. FREE

Плохой ответ от LLM — это почти всегда плохой вопрос.

КЛЮЧЕВАЯ СУТЬ
Плохой ответ от LLM — это почти всегда плохой вопрос. Не ленивый алгоритм, не слабая модель — дырявый промпт с размытыми фразами и пропущенными деталями. Метод 'Анализатора промптов' позволяет найти эти дыры до того, как вы отправите запрос на исполнение. Фишка: переключи LLM из роли исполнителя в роль редактора — попроси найти в своём черновике двусмысленность ('сделай качественно' — что значит 'качественно'?) и неполноту (нет бюджета, нет аудитории, нет дедлайна), а на выходе получить не готовый ответ, а список уточняющих вопросов. Исследование показало: несколько примеров 'дефектов' в промпте заметно улучшают точность анализа.
Адаптировать под запрос

Исследование предлагает использовать LLM в качестве инструмента для анализа и улучшения текстовых запросов, написанных человеком. Вместо того чтобы сразу выполнять задачу, LLM сначала находит в запросе "дефекты" — двусмысленные фразы и недостающую информацию, а затем генерирует уточняющие вопросы, чтобы помочь автору сделать свой запрос более четким и полным.

Ключевой результат: LLM можно научить эффективно находить слабые места в ваших собственных промптах, что позволяет значительно повысить их качество еще до отправки на финальное исполнение.

Суть метода заключается в том, чтобы использовать LLM не как исполнителя, а как критика или редактора вашего собственного промпта. Вместо того чтобы сразу просить модель, например, "Напиши маркетинговую стратегию", вы сначала просите ее проанализировать ваш черновик этой задачи.

Методика для пользователя выглядит так:

  1. Напишите черновик вашего основного промпта. Например: "Подготовь контент-план для соцсетей кофейни".
  2. Создайте второй, "анализирующий" промпт. В этом промпте вы даете LLM роль эксперта-аналитика и просите его проверить ваш черновик на наличие слабых мест.
  3. Сформулируйте задачу для анализатора. Вы прямо указываете, что искать:
    • Двусмысленность: "Найди слова или фразы, которые можно понять по-разному (например, 'продвигать активно' — что значит 'активно'?)"
    • Неполнота: "Укажи, какой важной информации не хватает для выполнения задачи (например, целевая аудитория, бюджет, уникальные особенности кофейни)".
  4. Запросите результат в виде уточняющих вопросов. Вместо того чтобы модель сама додумывала недостающие детали, вы просите ее задать вам вопросы. Это заставляет вас, как автора промпта, задуматься и предоставить более точные инструкции.

Исследование показывает, что предоставление LLM нескольких примеров (few-shot) того, как находить такие дефекты, значительно улучшает качество анализа. По сути, вы обучаете модель быть вашим личным ассистентом по улучшению промптов.

  • Прямая применимость: Пользователь может немедленно применить этот метод, создав специальный чат или используя кастомную инструкцию (Custom Instructions) в ChatGPT для "Анализатора Промптов". Перед выполнением важной задачи пользователь сначала "прогоняет" свой промпт через этот анализатор, получает список слабых мест и уточняющих вопросов, улучшает свой первоначальный промпт и только потом использует его для получения финального результата.

  • Концептуальная ценность: Главный инсайт — качество ответа LLM напрямую зависит от качества промпта, и LLM сама может помочь улучшить это качество. Это меняет подход от "метода проб и ошибок" к системному улучшению запросов. Пользователь начинает понимать, что такие понятия, как "неполнота" (отсутствие бюджета, ЦА) и "двусмысленность" (субъективные термины вроде "хороший", "быстрый"), являются главными врагами хорошего результата, и учится их выявлять.

  • Потенциал для адаптации: Метод универсален и легко адаптируется для любой сферы. Вместо "feature request" можно анализировать:

    • Маркетинговую задачу: "Проанализируй этот бриф на создание рекламной кампании".
    • Учебное задание: "Проверь эту тему для эссе на предмет неясностей и недостатка ограничений".
    • Юридический запрос: "Какие двусмысленности есть в этом пункте договора?". Механизм адаптации прост: нужно лишь поменять в "анализирующем" промпте роль эксперта (с "разработчика" на "маркетолога", "преподавателя" или "юриста") и контекст задачи.

Представим, что пользователь хочет получить от LLM идеи для организации дня рождения ребенка.

Шаг 1: Черновик промпта (неидеальный) Придумай идеи для дня рождения моего ребенка.

Шаг 2: Использование "Анализатора Промптов" на основе исследования

Ты — опытный организатор детских праздников и эксперт по анализу запросов клиентов. Твоя задача — не выполнять запрос, а проанализировать его на предмет двусмысленности и неполноты.

Прочти запрос клиента, который я предоставлю ниже, и выполни следующие действия:

1.  **Найди двусмысленные или слишком общие фразы.** Это слова, которые можно трактовать по-разному.
2.  **Определи, какой критически важной информации не хватает** для того, чтобы ты мог предложить действительно хорошие и подходящие идеи.
3.  **Сгенерируй список четких уточняющих вопросов**, которые помогут клиенту предоставить все необходимые детали.

Твой ответ должен быть структурирован.

---
**ЗАПРОС КЛИЕНТА ДЛЯ АНАЛИЗА:**
"Придумай идеи для дня рождения моего ребенка."
---

Этот промпт работает за счет нескольких механик, описанных в исследовании:

  • Смена роли и задачи: Вместо того чтобы быть "генератором идей", LLM получает роль "аналитика". Это полностью меняет ее фокус с генерации ответа на критику запроса.
  • Четкое определение "дефектов": Промпт прямо указывает, что искать — "двусмысленность" и "неполноту". Это дает модели конкретные критерии для анализа, а не абстрактную просьбу "улучшить промпт".
  • Запрос на уточняющие вопросы (CQs): Просьба сгенерировать именно вопросы, а не додумывать информацию, является ключевой. Это вовлекает пользователя в процесс улучшения промпта и заставляет его предоставить недостающие данные, что гарантирует более релевантный результат на следующем шаге. Этот подход напрямую отражает основную идею исследования по генерации Clarification Questions (CQs).

Представим, что пользователь хочет составить план путешествия.

Шаг 1: Черновик промпта (неидеальный) Составь мне план поездки в Европу.

Шаг 2: Использование "Анализатора Промптов"

Ты — первоклассный турагент, который помогает клиентам спланировать идеальное путешествие. Твоя задача сейчас — не составить план, а проанализировать запрос клиента на предмет нехватки деталей и неясностей, которые мешают создать хороший маршрут.

Проанализируй запрос, который я привел ниже.

**Твои задачи:**
1.  **Выявить неполноту:** Укажи, какие ключевые данные о поездке отсутствуют (бюджет, сроки, интересы и т.д.).
2.  **Найти общие фразы:** Отметь слова, которые не несут конкретики (например, "Европа" — это слишком общее понятие).
3.  **Сформулировать список вопросов:** Задай клиенту вопросы, ответы на которые позволят тебе составить идеальный персонализированный план.

Ответ представь в виде списка вопросов к клиенту.

---
**ЗАПРОС КЛИЕНТА ДЛЯ АНАЛИЗА:**
"Составь мне план поездки в Европу."
---

Этот пример работает, потому что он, как и предыдущий, задействует основной принцип исследования — превращение неявных требований в явные через диалог.

  • Выявление неполноты (Incompleteness): Запрос "план поездки в Европу" критически неполон. LLM, получив роль турагента, сразу понимает, что для выполнения задачи не хватает десятка параметров: страны, города, длительность, бюджет, состав путешественников, их интересы (музеи, пляжи, гастрономия), темп поездки и т.д. Промпт-анализатор заставляет модель перечислить все эти пробелы в виде вопросов.
  • Устранение двусмысленности (Ambiguity): Слово "Европа" является прагматически двусмысленным в данном контексте, так как оно не указывает на конкретный регион. Анализирующий промпт заставляет LLM обратить на это внимание и попросить конкретизации.
  • Активное вовлечение пользователя: Вместо того чтобы выдать случайный маршрут "Париж-Рим-Барселона", модель возвращает пользователю "домашнее задание" — ответить на вопросы. Это гарантирует, что следующий, уже улучшенный промпт будет содержать всю необходимую информацию, и финальный результат будет максимально соответствовать ожиданиям пользователя.
📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да, исследование напрямую посвящено анализу и улучшению текстовых запросов (feature requests) с помощью промптов для LLM. Оно детально описывает zero-shot и few-shot подходы, включая предоставление примеров и рассуждений (reasoning).
  • B. Улучшение качества диалоговых ответов: Да, основная цель — генерация уточняющих вопросов (Clarification Questions), что является формой улучшения диалога. Это помогает получить более точный и релевантный конечный результат.
  • C. Прямая практическая применимость: Да, метод можно применить без кода. Пользователь может создать "промпт-анализатор" для проверки своих же собственных промптов на предмет двусмысленности и неполноты перед их финальным использованием.
  • D. Концептуальная ценность: Очень высокая. Исследование дает пользователю мощную ментальную модель: "LLM можно использовать не только для ответа на вопрос, но и для критики самого вопроса". Оно наглядно показывает, какие типы неясностей (лексические, прагматические, неполнота) существуют и как LLM может помочь их выявить.
  • E. Новая полезная практика (кластеризация): Работа попадает сразу в несколько ключевых кластеров:
    • Кластер 1 (Техники формулирования): Демонстрирует эффективность few-shot learning.
    • Кластер 2 (Поведенческие закономерности): Показывает, что LLM по-разному справляется с разными типами двусмысленности и может выявлять неполноту, которую упускает человек (например, нефункциональные требования).
    • Кластер 7 (Надежность и стабильность): Весь метод направлен на снижение неопределенности и повышение шансов на получение точного и релевантного ответа.
  • Чек-лист практичности (+15 баллов): Да, исследование дает готовые конструкции для промптов, показывает, как структурировать сложные запросы (анализ другого текста), раскрывает неочевидные особенности поведения LLM и предлагает способ улучшить точность ответов. Бонус в 15 баллов применен.
📌

Цифровая оценка полезности

Аргументы за высокую оценку (95/100): Исследование предлагает не просто отдельный трюк, а целую парадигму взаимодействия с LLM: использование модели в качестве "спарринг-партнера" для улучшения качества собственных запросов. Это фундаментально полезный навык для любого пользователя. Практическая ценность огромна, так как метод учит пользователя выявлять и устранять слабые места в своих промптах до того, как они приведут к некачественным ответам. Выводы о том, что LLM может находить упущенные человеком детали (например, вопросы безопасности или приватности), напрямую повышают качество решаемых задач.

Контраргументы (почему не 100/100): * Требуется адаптация: Исследование сфокусировано на узкой области (запросы на разработку ПО на GitHub). Обычному пользователю нужно самостоятельно адаптировать этот подход для своих задач (написание маркетинговых текстов, составление планов, юридические вопросы и т.д.). Работа не дает готовых примеров для широкой аудитории. * Двухэтапный процесс: Метод предполагает двухэтапную работу: сначала анализ и улучшение промпта, а затем его использование. Это требует от пользователя дополнительных усилий и может показаться сложным для новичков, которые привыкли к модели "задал вопрос — получил ответ".


📋 Дайджест исследования

Ключевая суть

Плохой ответ от LLM — это почти всегда плохой вопрос. Не ленивый алгоритм, не слабая модель — дырявый промпт с размытыми фразами и пропущенными деталями. Метод 'Анализатора промптов' позволяет найти эти дыры до того, как вы отправите запрос на исполнение. Фишка: переключи LLM из роли исполнителя в роль редактора — попроси найти в своём черновике двусмысленность ('сделай качественно' — что значит 'качественно'?) и неполноту (нет бюджета, нет аудитории, нет дедлайна), а на выходе получить не готовый ответ, а список уточняющих вопросов. Исследование показало: несколько примеров 'дефектов' в промпте заметно улучшают точность анализа.

Принцип работы

Стандартный цикл выглядит так: написал — отправил — получил что попало — переписал — снова не то. Метод разрывает эту петлю. Сначала промпт проходит критику, и только потом — исполнение. LLM получает не задачу 'придумай', а задачу 'найди что не так'. Ключевой ход — просить именно уточняющие вопросы, а не правки. Модель не додумывает детали за тебя — она заставляет тебя самого их сформулировать. Это как дать рукопись редактору перед публикацией: он не пишет вместо тебя, он указывает где провалы.

Почему работает

LLM при генерации сама сталкивается с двусмысленностью и неполнотой — просто молча заполняет пробелы своими предположениями. Когда её переключают на режим критики, она использует тот же языковой анализ в обратном направлении: не 'что сказать', а 'чего не хватает для ответа'. Модель перестаёт фантазировать про твои нужды и начинает их выявлять — это принципиально другой разговор. Плюс смена роли ('ты маркетолог-аналитик, а не копирайтер') сужает фокус: модель судит запрос через конкретную экспертизу, а не абстрактно.

Когда применять

Маркетинговые брифы, технические задания, учебные темы, юридические формулировки, планы проектов — везде, где ответ LLM оказывается 'мимо'. Особенно полезно перед задачами с высокой ценой ошибки: важный документ, договор, стратегия. НЕ нужно для простых однозначных запросов ('переведи слово', 'посчитай сумму') — там нечего анализировать и нет смысла тратить шаг.

Мини-рецепт

1. Напиши черновик своего основного запроса как обычно — без усилий, просто мысль вслух.
2. Создай 'анализирующий' промпт: дай LLM роль эксперта в нужной области (маркетолог, юрист, педагог) и скажи прямо: 'Не выполняй задачу. Найди двусмысленные фразы и критически недостающие данные в этом запросе'.
3. Добавь 1–2 примера 'дефектов': покажи что считается проблемой — например, 'продвигать активно' (что значит активно?) или отсутствие целевой аудитории. Это резко улучшает точность анализа.
4. Попроси вопросы, не правки: модель задаёт вопросы — ты отвечаешь, дополняешь черновик недостающими деталями.
5. Отправь улучшенный промпт на финальное исполнение.

Примеры

[ПЛОХО] : Придумай контент-план для нашей кофейни
[ХОРОШО] : Ты — маркетинговый аналитик, который помогает клиентам точно формулировать задачи. Не выполняй запрос, а проанализируй его: «Придумай контент-план для нашей кофейни». Найди (1) двусмысленные или слишком общие фразы — например, если встречается слово «интересный» или «активный», укажи что оно не конкретное; (2) критически недостающие данные — без которых план будет угадыванием. Оформи результат как список уточняющих вопросов к автору. Не придумывай ответы сам.
Источник: Demystifying Feature Requests: Leveraging LLMs to Refine Feature Requests in Open-Source Software
ArXiv ID: 2507.13555 | Сгенерировано: 2026-03-02 18:06

Проблемы LLM

ПроблемаСутьКак обойти
Модель додумывает недостающее вместо того чтобы спроситьПишешь неполный или размытый запрос. Модель не говорит "мне не хватает данных". Она тихо заполняет пробелы сама. Получаешь ответ — но он строится на её допущениях, а не на твоих реальных требованиях. Обнаруживаешь это только когда результат не подходитПеред финальным запросом попроси модель сыграть роль критика. Задача критика: найти двусмысленные фразы и недостающие данные, затем задать тебе уточняющие вопросы. Ты отвечаешь — и только потом отправляешь улучшенный запрос на исполнение

Методы

МетодСуть
Двухшаговый запрос: критик исполнительШаг 1 — анализ. Дай модели роль эксперта в нужной области. Попроси проверить твой черновик по двум критериям: двусмысленность (фразы которые можно понять по-разному: "хороший", "быстрый", "активно") и неполнота (что критически нужно знать, но не указано: бюджет, аудитория, сроки). Попроси вернуть результат в виде вопросов — не правок. Шаг 2 — исполнение. Ответь на вопросы. Добавь ответы в черновик. Отправь улучшенный запрос. Почему работает: Роль критика переключает модель с генерации ответа на поиск пробелов. Запрос вопросов (а не правок) возвращает тебе контроль: ты сам решаешь что добавить. Когда применять: задачи где результат зависит от деталей — план, стратегия, анализ, структурированный документ. Когда не нужен: простые фактические вопросы с однозначным ответом
📖 Простыми словами

Разгадка запросов на новые функции: использование LLM для уточнения запросов на новые функции в программном обеспечении с открытым исходным кодом

arXiv: 2507.13555

Суть проблемы в том, что большинство запросов на новые фичи в опенсорс-проектах — это неструктурированный хаос. Пользователь пишет «хочу, чтобы работало быстрее» или «сделайте красиво», а разработчик сидит и гадает, что именно пошло не так. Исследование показывает, что LLM могут превращать этот поток сознания в четкие спецификации, вытаскивая из текста скрытые намерения и контекст. Модель работает не просто как корректор, а как аналитик-переводчик, который достраивает недостающие звенья в логике пользователя, чтобы превратить хотелку в задачу.

Это как если бы ты пришел к архитектору и сказал: «Хочу уютный дом». Архитектор может построить что угодно, и тебе, скорее всего, не понравится. Но если рядом стоит толковый посредник, который уточняет: «Ага, уют для него — это камин, панорамные окна и отсутствие соседей в радиусе километра», то шанс на успех резко растет. В данном случае LLM — это тот самый посредник, который переводит твое абстрактное «хочу праздник» в конкретный список покупок и план действий, отсекая лишнюю шелуху.

В примере с детским днем рождения магия происходит за счет извлечения сущностей и логического дополнения. Если ты просто попросишь идеи, нейронка выдаст банальщину. Но правильный метод заставляет модель прогнать запрос через фильтры: возраст гостей, бюджет, тематика и ограничения по локации. Исследователи доказали, что структурирование через LLM повышает качество итоговой фичи, потому что модель автоматически заполняет пробелы, о которых человек даже не подумал, вроде безопасности площадки или аллергии на торт.

Хотя исследование проводили на суровом софте и баг-трекерах, принцип универсален. Эта механика работает везде, где есть разрыв между «я так чувствую» и «надо сделать». Будь то ТЗ для дизайнера, план тренировок или сценарий для YouTube — если прогнать первичный запрос через LLM-фильтр уточнения, на выходе получится не мусор, а рабочий прототип. Мы переходим от эпохи «угадай, что я имел в виду» к эпохе автоматического уточнения смыслов, где нейронка берет на себя всю душную работу по детализации.

Главный вывод: не пытайся сразу получить идеальный результат от одного кривого запроса. Используй модель как инструмент рафинирования своих идей — пусть она сначала превратит твой черновик в структурированный запрос, и только потом выдает решение. 15% прироста точности в разработке софта подтверждают, что этот метод экономит недели правок и тонны нервов. Либо ты учишься четко формулировать через посредника, либо продолжаешь получать фигню на выходе.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с