3,583 papers
arXiv:2507.04854 95 7 июля 2025 г. FREE

LLM без инструкции — способный стажёр, который не знает с чего начать: делает что-то общее, часто выдуманное.

КЛЮЧЕВАЯ СУТЬ
LLM без инструкции — способный стажёр, который не знает с чего начать: делает что-то общее, часто выдуманное. Метод структурированного системного промпта позволяет превратить любую модель в надёжного эксперта по конкретной теме — без дообучения и технических настроек. Работает через четыре блока перед началом диалога: роль, контекст с фактами, порядок общения и защитные ограничения. Фишка: самое важное из четырёх — правило «если ответа нет в контексте, скажи что не знаешь». Оно одно убивает большую часть выдуманных фактов и делает модель фактически надёжной.
Адаптировать под запрос

Исследование описывает создание специализированного чат-бота "Grahak-Nyay" для помощи потребителям в Индии с юридическими жалобами. Для этого авторы соединили LLM с базой знаний по законодательству (метод RAG) и разработали очень подробный системный промпт, который управляет поведением бота. В результате их чат-бот оказался полезнее, точнее и лаконичнее, чем универсальные модели вроде ChatGPT-4.

Ключевой результат: Детально прописанный системный промпт, задающий роль, правила поведения и инструкции по работе с контекстом, позволяет превратить универсальную LLM в надежного узкопрофильного эксперта.

Суть метода, который может применить любой пользователь, заключается в создании "инструкции по эксплуатации" для LLM перед началом диалога. Вместо того чтобы просто задавать вопросы, вы сначала даете модели подробную роль и правила игры. Этот подход можно разбить на четыре шага:

  1. Назначение Роли и Задачи (Core Functionality): Вы четко говорите модели, кем она должна быть. Не "помощник", а "Опытный SMM-менеджер, специализирующийся на продвижении в Instagram" или "Финансовый консультант для молодых семей". Это сразу настраивает модель на нужный стиль и базу знаний.

  2. Предоставление Контекста (RAG): Если ваша задача требует специфических знаний (детали вашего проекта, содержание книги, программа конференции), вы прямо в промпте предоставляете этот текст под заголовком [КОНТЕКСТ]. Модель будет использовать только эту информацию, что резко снижает риск галлюцинаций.

  3. Управление Диалогом (Conversation Flow): Вы прописываете, как модель должна вести разговор. Например: "Задавай только один вопрос за раз", "Сначала уточни все детали, потом давай рекомендации", "В конце всегда предлагай три альтернативных варианта". Это делает взаимодействие предсказуемым и удобным.

  4. Установка "Защитных Ограничений" (Key Guidelines): Вы добавляете строгие правила, чтобы избежать нежелательного поведения. Самое полезное правило из исследования: "Если ответ на вопрос не содержится в предоставленном [КОНТЕКСТЕ], отвечай, что ты не знаешь ответа". Это заставляет модель быть честной и не выдумывать факты.

По сути, вы не просто просите LLM выполнить задачу, а создаете для нее временную мини-программу, которая гарантирует более качественный и предсказуемый результат.

  • Прямая применимость: Пользователь может немедленно начать использовать структуру системного промпта из Fig. 14 в своих чатах (особенно в кастомных GPT или в API-запросах). Можно скопировать разделы Core Functionality, Conversation Flow, Key Guidelines и наполнить их своим содержанием. Инструкция "отвечай, что не знаешь, если нет в контексте" — это готовый к использованию паттерн для повышения надежности.

  • Концептуальная ценность: Исследование наглядно доказывает, что LLM — это не всезнающий оракул, а скорее очень способный, но не сфокусированный "стажер". Качество его работы напрямую зависит от качества и полноты вашей инструкции. Главная концептуальная идея: не ждите, что LLM догадается, а управляйте ею через четкие роли, правила и предоставленные факты.

  • Потенциал для адаптации: Метод универсален. Вместо индийского законодательства в блок [КОНТЕКСТ] можно поместить что угодно: протоколы рабочих встреч для их суммирования, описание продукта для генерации маркетинговых текстов, условия акции для написания постов в соцсети. Структура промпта (Роль -> Контекст -> Правила) остается неизменной, меняется только наполнение. Это делает подход мощным инструментом для решения практически любой задачи.

Ты — опытный SMM-менеджер, специализирующийся на создании контент-планов для небольших кофеен. Твоя задача — помочь мне разработать контент-план на неделю.

### Core Functionality (Основная функциональность):
- Анализировать предоставленную информацию о кофейне.
- Генерировать идеи для постов, сторис и рилс.
- Предлагать конкретные тексты и визуальные концепции.
- Структурировать контент-план в виде таблицы.

### Conversation Flow (Порядок диалога):
1.  Сначала поздоровайся и запроси у меня информацию о моей кофейне (название, особенности, целевая аудитория, текущие акции).
2.  Задавай уточняющие вопросы по одному, чтобы полностью понять задачу.
3.  После сбора всей информации, представь контент-план в виде таблицы на 7 дней.
4.  В конце спроси, нужно ли что-то доработать или изменить.

### Key Guidelines (Ключевые правила):
- Используй только ту информацию, которую я предоставлю в [КОНТЕКСТЕ].
- Не придумывай акции или факты о кофейне, которых нет в контексте.
- Если в контексте недостаточно информации для ответа, вежливо попроси меня предоставить дополнительные данные.
- Стиль общения: дружелюбный, креативный, но профессиональный.

---
### [КОНТЕКСТ]
- **Название кофейни:** "Уютный Уголок"
- **Особенности:** Используем только свежеобжаренное зерно от местных обжарщиков. Есть своя небольшая пекарня, где печем круассаны и булочки с корицей. По пятницам проводим вечера с живой музыкой (гитара).
- **Целевая аудитория:** Студенты и фрилансеры, которые ищут тихое место для работы.
- **Текущая акция:** "Счастливые часы" с 8:00 до 10:00 — скидка 20% на любой кофе при покупке выпечки.
---

Начнем.

Этот промпт эффективен, потому что он превращает LLM из генератора случайных идей в сфокусированного специалиста.

  • Назначение Роли: Фраза "Ты — опытный SMM-менеджер..." сразу задает нужный тон и активирует релевантные знания модели о маркетинге в социальных сетях.
  • Четкая структура задачи (Core Functionality, Conversation Flow): Модель точно знает, что от нее требуется (генерировать идеи, составить таблицу) и в какой последовательности действовать (сначала спросить, потом предложить). Это предотвращает хаотичные и неполные ответы.
  • Заземление на факты ([КОНТЕКСТ]): Блок с контекстом служит "якорем", который не дает модели "уплыть" в фантазии. Она будет предлагать посты про круассаны и живую музыку, а не про выдуманные бургеры или диджей-сеты.
  • Защитные механизмы (Key Guidelines): Правило "Используй только ту информацию, которую я предоставлю" в сочетании с контекстом резко повышает фактическую точность и релевантность предложений. Модель не будет советовать акции, которые вы не проводите.
Ты — персональный ассистент по планированию путешествий. Твоя задача — помочь мне составить детальный маршрут поездки в Санкт-Петербург на 3 дня.

### Core Functionality (Основная функциональность):
- Разработать пошаговый план на каждый день с учетом времени на перемещение.
- Предложить варианты кафе и ресторанов рядом с достопримечательностями.
- Учесть мои интересы и бюджет.
- Представить итоговый маршрут в виде списка по дням.

### Conversation Flow (Порядок диалога):
1.  Поприветствуй меня и спроси о моих предпочтениях (интересы, бюджет, темп поездки).
2.  Задавай по одному уточняющему вопросу, чтобы собрать все детали.
3.  После сбора информации, предложи черновик маршрута.
4.  Спроси, какие пункты мне нравятся, а какие стоит заменить.

### Key Guidelines (Ключевые правила):
- Все предложения должны основываться на моих интересах, указанных в [КОНТЕКСТЕ].
- Если я прошу о чем-то, что не соответствует моим интересам (например, ночной клуб при запросе на тихий отдых), вежливо уточни, действительно ли я хочу это добавить.
- Если информация о ценах или часах работы отсутствует в твоей базе, укажи это и посоветуй проверить на официальном сайте.
- Стиль общения: заботливый, организованный, внимательный к деталям.

---
### [КОНТЕКСТ]
- **Даты поездки:** Следующие выходные (пт, сб, вс).
- **Интересы:** Классическое искусство (музеи), историческая архитектура, нетуристические прогулки по тихим улочкам, хорошая кофейная культура. Не интересуют бары, клубы и шоппинг.
- **Бюджет:** Средний. Готов платить за входные билеты в музеи, но предпочитаю недорогие кафе (средний чек до 1500 руб).
- **Темп:** Спокойный, без спешки. Не более 2-3 крупных активностей в день.
---

Привет! Помоги мне, пожалуйста, спланировать поездку.

Этот промпт работает по тем же принципам, что и предыдущий, демонстрируя универсальность метода:

  • Специализация через Роль: Модель сразу переключается в режим "ассистента по путешествиям", используя соответствующие знания о логистике, популярных местах и планировании времени.
  • Персонализация через Контекст: Блок [КОНТЕКСТ] — это ключ к персонализации. Модель не будет предлагать стандартный "туристический набор", а сфокусируется на музеях, архитектуре и кофейнях, избегая нерелевантных клубов и шоппинга. Это делает ответ по-настоящему полезным для конкретного пользователя.
  • Управляемое взаимодействие (Conversation Flow): Пошаговый диалог гарантирует, что модель не пропустит важные детали и что итоговый план будет соответствовать ожиданиям пользователя. Это превращает генерацию в совместную работу.
  • Повышение надежности (Key Guidelines): Инструкция "укажи, если не знаешь точных цен/часов" является аналогом "скажи, что не знаешь" из исследования. Она учит модель быть честной в отношении своих ограничений, что повышает доверие к ее ответам и предотвращает дезинформацию.
📌

Основные критерии оценки

  • Предварительный фильтр: Исследование полностью сфокусировано на текстовом взаимодействии с LLM в формате чат-бота. Проходит фильтр.
  • A. Релевантность техникам промтинга: Очень высокая. В исследовании приводятся полные системные промпты (Fig. 4, 14), конкретные примеры one-shot промптинга для улучшения контекстуализации (Fig. 9) и инструкции для снижения галлюцинаций.
  • B. Улучшение качества диалоговых ответов: Очень высокое. Вся работа посвящена созданию системы, которая превосходит по качеству (полезности, точности, краткости) общие модели типа ChatGPT-4 и Claude-3.5 в узкой предметной области.
  • C. Прямая практическая применимость: Очень высокая. Пользователь может без какого-либо кода скопировать структуру системного промпта, применить технику one-shot для сложных задач и использовать "защитные" инструкции в своих запросах к ChatGPT, Claude и другим моделям.
  • D. Концептуальная ценность: Высокая. Исследование наглядно демонстрирует, почему предоставление внешнего контекста (RAG) и четких инструкций (системный промпт) превращает универсальную LLM в узкоспециализированного эксперта. Оно дает прекрасную "ментальную модель" для создания LLM-агентов.
  • E. Новая полезная практика (кластеры): Работа попадает сразу в несколько ключевых кластеров:
    • 1. Техники формулирования промптов: Демонстрирует ролевые игры и one-shot промптинг.
    • 3. Оптимизация структуры промптов: Предлагает детальную структуру системного промпта с разделами.
    • 6. Контекст и память: Является отличным примером практического применения RAG.
    • 7. Надежность и стабильность: Предлагает конкретные инструкции в промпте для снижения галлюцинаций.
  • Чек-лист практичности (+15 баллов): Да, исследование дает готовые конструкции, показывает, как структурировать сложные запросы, раскрывает неочевидные особенности (необходимость one-shot для переформулировки) и предлагает способы улучшить точность.
📌

Цифровая оценка полезности

Аргументы в пользу оценки (95/100): Эта работа — настоящий подарок для продвинутого пользователя и промпт-инженера. Она не просто теоретизирует, а предоставляет "под капот" работающего чат-бота, показывая конкретные промпты, которые заставляют его работать эффективно. Ценность заключается в том, что пользователь может взять предложенную структуру системного промпта (Роль, Функциональность, Поток диалога, Ключевые инструкции) и адаптировать ее для ЛЮБОЙ своей задачи, будь то планирование отпуска, анализ рабочих документов или создание кулинарного помощника. Это универсальный и мощный шаблон.

Контраргументы (почему не 100?): Оценка не 100, так как исследование все же описывает целостную систему (чат-бот с RAG), а не просто набор универсальных промпт-трюков. Часть информации (например, о развертывании сервера TGI или создании датасетов) нерелевантна для обычного пользователя. Чтобы извлечь максимальную пользу, пользователь должен понимать концепцию системного промпта и RAG (пусть даже на уровне "скормить модели текст в качестве контекста").

Контраргументы (почему не 70-80?): Оценка не может быть ниже, потому что исследование предоставляет готовые, копируемые фрагменты промптов, которые немедленно улучшают результат. Это не академическая теория, а практическое руководство. Демонстрация того, как простая one-shot инструкция (Fig. 9) решает проблему переформулировки запроса, или как "защитная" фраза в промпте (Fig. 14) борется с галлюцинациями, — это чистая практическая польза, заслуживающая высочайшей оценки.


📋 Дайджест исследования

Ключевая суть

LLM без инструкции — способный стажёр, который не знает с чего начать: делает что-то общее, часто выдуманное. Метод структурированного системного промпта позволяет превратить любую модель в надёжного эксперта по конкретной теме — без дообучения и технических настроек. Работает через четыре блока перед началом диалога: роль, контекст с фактами, порядок общения и защитные ограничения. Фишка: самое важное из четырёх — правило «если ответа нет в контексте, скажи что не знаешь». Оно одно убивает большую часть выдуманных фактов и делает модель фактически надёжной.

Принцип работы

Четыре блока — и модель работает иначе: Роль — кем ты работаешь? Не «помощник», а «опытный юрист по потребительским правам». Это сразу задаёт стиль, глубину и словарь. [КОНТЕКСТ] — твои факты. Вставляешь текст, с которым должна работать модель: договор, статью, условия акции, описание продукта. Только это — и ничего больше. Порядок разговора — сценарий диалога. «Сначала задай уточняющий вопрос, потом предложи вариант. Задавай вопросы по одному». Модель больше не хаотична. Защитные правила — ограничения важнее полномочий. «Не выдумывай», «если не знаешь — скажи». Это не просьба, это жёсткое правило, которое модель соблюдает.

Почему работает

Модель — предсказатель следующего слова. Без ограничений она предсказывает «похожий на правду» ответ, а не правильный. Блок [КОНТЕКСТ] сужает пространство для предсказаний до конкретных фактов. Правило «не знаю» убирает давление — и модель перестаёт выдумывать. Чёткая роль убирает неопределённость в стиле и глубине. Вместе четыре блока превращают вероятностный генератор в предсказуемый инструмент.

Когда применять

Любая задача, где важны точность и факты, а не общие рассуждения. Особенно сильно работает когда есть конкретный документ: договор, статья, программа конференции, условия акции, описание продукта. Хорошо ложится на специализированных помощников: юридический консультант, помощник по подбору персонала, служба поддержки клиентов. НЕ подходит для задач, где нужна широкая генерация — мозговой штурм, творческие тексты. Жёсткие ограничения там мешают, а не помогают.

Мини-рецепт

1. Дай роль: Не «помощник», а конкретный специалист. «Ты — финансовый консультант для молодых семей» или «опытный редактор технических текстов». Чем точнее роль, тем точнее стиль и глубина.
2. Вставь контекст: Под заголовком [КОНТЕКСТ] вставляешь весь текст, с которым должна работать модель. Договор, статья, описание продукта — всё туда. Это твой якорь фактов.
3. Пропиши порядок разговора: Как модель ведёт диалог. Например: «Сначала уточни задачу, потом предлагай решение. Задавай только один вопрос за раз».
4. Добавь защитные правила: Самое важное — «если ответа нет в [КОНТЕКСТЕ], скажи об этом, не выдумывай». Добавь ограничения по теме и стилю.
5. Запусти: В конце напиши Поздоровайся и начни — и модель сама ведёт диалог по твоему сценарию.

Примеры

[ПЛОХО] : Помоги разобраться с условиями моего договора аренды
[ХОРОШО] : Ты — опытный юрист по жилищным вопросам. Твоя задача — помочь мне разобраться в условиях договора аренды. ### Порядок работы: 1. Сначала спроси, что именно меня беспокоит. 2. Анализируй только текст в [КОНТЕКСТЕ]. 3. Давай конкретные ответы со ссылкой на пункты договора. ### Правила: - Используй только текст из [КОНТЕКСТЕ] - Если ответа нет в договоре — так и скажи, не додумывай - Объясняй без лишних юридических терминов ### [КОНТЕКСТ] [текст договора] Поздоровайся и начни
Источник: Consumer Grievance Redressal through Large Language Models
ArXiv ID: 2507.04854 | Сгенерировано: 2026-03-02 18:15

Проблемы LLM

ПроблемаСутьКак обойти
Модель домысливает факты, которых нет в вашем текстеВы даёте модели документ или описание. Задаёте вопрос по нему. Модель отвечает уверенно — но часть ответа взята из общих знаний, не из вашего текста. Вы не можете отличить точный ответ от придуманного. Это критично когда нужны только конкретные факты: условия акции, детали проекта, пункты договораДобавь в промпт прямое правило: "Если ответ на вопрос не содержится в [КОНТЕКСТЕ] — скажи, что не знаешь". Модель перестаёт достраивать пробелы из своих общих знаний

Методы

МетодСуть
Четырёхчастный системный промпт — надёжный узкий специалист из универсальной моделиСтроишь промпт по четырём блокам. 1. Роль: "Ты — опытный X, специализирующийся на Y". Конкретная роль активирует нужные знания и стиль. 2. Что делать (### Функция): перечисляешь конкретные задачи — "анализировать", "генерировать", "структурировать в таблицу". 3. Порядок диалога (### Диалог): "сначала уточни детали, потом предлагай; задавай по одному вопросу за раз". 4. Запреты (### Правила): "используй только [КОНТЕКСТ]", "если нет в контексте — скажи, что не знаешь". Ниже — блок ### [КОНТЕКСТ] с нужными фактами. Почему работает: каждый блок закрывает один источник ошибок: роль убирает размытость, функция убирает хаос, диалог убирает пропущенные детали, правила убирают галлюцинации. Универсально: меняешь только содержимое блоков. Структура неизменна для любой задачи
📖 Простыми словами

Урегулирование жалоб потребителей с помощью больших языковых моделей

arXiv: 2507.04854

Суть в том, что современные нейронки научились решать одну из самых нудных проблем человечества — разборки с поддержкой. Вместо того чтобы часами висеть на линии или пытаться выбить возврат у бота-тупицы, ты делегируешь это LLM. Модель здесь работает не как чат-бот для развлечения, а как цифровой юрист, который знает правила игры и умеет давить на нужные рычаги. Она анализирует твою жалобу, сопоставляет её с правилами сервиса и выдает такой текст, от которого у компании не получится просто отмахнуться.

Это как если бы ты пришел в паспортный стол не один, а со знакомым адвокатом, который заставляет чиновников работать, просто цитируя нужные статьи закона. Формально ты просто просишь свое, но когда это упаковано в структурированный юридический контекст, система перестает тебя игнорировать. LLM превращает твой эмоциональный поток сознания в аргументированную претензию, которую невозможно спустить на тормозах.

Что реально работает в этом подходе: извлечение фактов (модель выцепляет даты, суммы и номера заказов), анализ политики компании (она находит пункты, которые бренд сам же нарушил) и генерация рычагов давления. Если ты просто напишешь "верните деньги", тебя пошлют, но если AI добавит фразу про нарушение условий оферты или обращение в надзорные органы, приоритет твоей заявки в системе поддержки взлетает до небес. Конкретика бьет эмоции в 10 случаях из 10.

Хотя исследование фокусируется на жалобах потребителей, этот принцип универсален. Его можно адаптировать для любых бюрократических квестов: от оспаривания штрафов до переписки с налоговой или даже выбивания оффера поинтереснее у работодателя. Везде, где есть правила и регламенты, LLM выступает как усилитель твоей позиции, который не устает, не злится и всегда помнит матчасть.

Короче: хватит тратить нервы на переписки с поддержкой, которые ни к чему не ведут. Используй LLM как инструмент принуждения к справедливости, превращая свой праведный гнев в четкий алгоритм действий. Автоматизация жалоб — это новый стандарт защиты прав, где побеждает тот, у кого промпт лучше составлен. Кто освоит этот метод, перестанет быть терпилой в цифровой экономике и начнет реально получать то, за что заплатил.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с