3,583 papers
arXiv:2511.19940 72 25 нояб. 2025 г. FREE

Instruction-Based Editing: как редактировать ответы LLM через команды вместо правки текста

КЛЮЧЕВАЯ СУТЬ
LLM выдаёт правильные ответы, но всегда одна беда: простыня на 8 абзацев вместо 2 коротких, общие советы вместо конкретики под твою ситуацию. Врачи в исследовании отвечали на вопросы пациентов через LLM — и постоянно делали две вещи: резали текст в 4 раза и меняли «доллар» на «рубль», технический термин на понятный, общий совет на локальный для региона. Instruction-Based Editing позволяет редактировать без правки текста символ за символом — даёшь модели короткие команды что исправить («убери первый абзац», «замени срок с 1 недели на 2», «добавь совет про пыль»), она сама переписывает и показывает что изменилось. В среднем 2-3 итерации — и из универсальной простыни получается конкретный ответ под контекст.
Адаптировать под запрос

TL;DR

Instruction-Based Editing — метод редактирования ответов LLM, когда вместо правки текста вручную вы даёте модели короткие команды что исправить. Исследование сравнило три подхода: писать с нуля, править текст напрямую и давать инструкции для правки. Врачи отвечали на 144 вопроса пациентов про операцию катаракты.

Главная находка: LLM генерирует правильные, но слишком длинные и слишком общие ответы. Врачи постоянно делали две вещи: сокращали (вместо 8 предложений оставляли 2) и контекстуализировали — адаптировали под локальные практики. Например, меняли "доллар" на "рубль", технический термин на понятный пациенту, общий совет на конкретный для климата региона. Ещё проблема — automation bias: если ответ "не совсем неправильный", врачи пропускали мелкие ошибки вместо исправления.

Суть метода: Вместо редактирования текста вручную даёшь LLM короткие инструкции: "убери первое предложение", "добавь совет избегать пыли", "замени срок с 1 недели на 2". Модель сама переписывает текст с учётом команд, показывает что изменилось (зелёным — добавлено, красным — удалено). Можно давать по одной инструкции или несколько сразу. Если не понравилось — даёшь следующую команду. В среднем врачи делали 2-3 итерации на ответ.


🔬

Схема метода

Цикл итеративного редактирования:

ШАГ 1: LLM генерирует первый вариант ответа
ШАГ 2: Читаешь → даёшь инструкцию что исправить
ШАГ 3: LLM показывает изменения (diff с подсветкой)
ШАГ 4: Если не устраивает → возвращаешься к шагу 2
ВЫХОД: Когда ответ устраивает

Всё происходит в одном чате, инструкции накапливаются.


🚀

Пример применения

Задача: Ты консультант, помогаешь клиенту выбрать CRM для малого бизнеса. Попросил ChatGPT написать ответ — получил простыню на экран. Нужно сократить и адаптировать под российский рынок.

Промпт (первая итерация):

Какую CRM выбрать для небольшого агентства недвижимости в Москве, 5 человек в команде?

Результат: LLM выдаст развёрнутый ответ с перечислением популярных зарубежных CRM (Salesforce, HubSpot), универсальными критериями выбора, несколькими абзацами про интеграции и масштабирование.

Промпт (инструкция для правки):

Сократи до 3 коротких абзацев. Убери упоминание Salesforce и HubSpot — дорого для малого бизнеса. 
Добавь российские решения: Битрикс24, amoCRM. Укажи цены в рублях, не в долларах.
Убери абзац про масштабирование — клиенту пока не нужно.

Результат: Модель покажет изменённый вариант с подсветкой: удалённые куски текста зачёркнуты красным, новые вставки зелёным. Вместо 8 абзацев получишь 3 конкретных с российскими сервисами и ценами в рублях.

Промпт (ещё одна итерация, если нужно):

Первый абзац слишком формальный. Перепиши проще, как будто объясняешь другу.

Результат: Модель перефразирует начало в более разговорном тоне, сохранив структуру остального текста.


🧠

Почему это работает

Слабость LLM: Модель не знает твой контекст — локальные практики, ценовой диапазон клиента, насколько развёрнутый ответ нужен. Генерирует универсальный ответ: длинный, с международными примерами, максимально полный. Если править текст вручную — приходится удалять куски, переписывать, вставлять новое так чтобы стиль совпадал. Трудоёмко.

Сильная сторона LLM: Модель отлично трансформирует текст по инструкциям — может укоротить, добавить детали, поменять термины, перефразировать. И делает это с сохранением грамматики и стиля. Ты не редактируешь текст символ за символом — объясняешь что нужно изменить.

Как метод использует это: Instruction-based editing переводит редактирование в режим диалога с моделью. Вместо правки текста вручную (найти место → удалить → вставить новое → поправить грамматику) ты делегируешь технические действия модели, контролируя только смысл правок. Модель сама подберёт слова, встроит изменения в контекст, сохранит связность.

Рычаги управления:

  • Детализация инструкций: Можно дать одну команду ("сократи в 2 раза") или несколько точечных ("убери строку 1, замени в строке 3 'доллар' на 'рубль', добавь в конце совет про Битрикс24"). Точечные правки дают больше контроля, но требуют больше итераций.

  • Формат подсветки изменений: Если не нужно видеть diff — можешь попросить сразу финальный вариант без выделений. Экономит время на визуальный скан.

  • Порядок правок: Можно сначала исправить фактуру (замены терминов, цифры), потом работать со стилем (сократить, упростить). Или наоборот — сначала структура, потом детали.


📋

Шаблон промпта

Шаг 1 — Генерация базового ответа:

{твой исходный запрос или вопрос}

Шаг 2 — Инструкции для правки:

Внеси правки в ответ выше:

1. Сократи до {число} абзацев / {число} предложений
2. Убери: {что удалить — конкретные фразы, блоки, повторы}
3. Добавь: {что добавить — детали, примеры, контекст}
4. Замени: {старое} на {новое} — термины, цифры, названия
5. Перефразируй {часть текста} в стиле {как нужно — проще/формальнее/короче}

Покажи изменения с выделением.

Шаг 3 (опционально) — Следующая итерация:

{новая инструкция для дополнительных правок}

Что подставлять: - {число} — желаемый объём (3 абзаца, 5 предложений, 100 слов) - {что удалить} — конкретно: "первое предложение", "упоминание Salesforce", "абзац про масштабирование" - {что добавить} — недостающий контекст: "российские аналоги", "цены в рублях", "пример для Москвы" - {старое} на {новое} — замены: "доллар → рубль", "ECCE → SICS", "HubSpot → amoCRM" - {стиль} — как звучать: "как объяснение другу", "коротко и по делу", "официально для отчёта"


🚀 Быстрый старт — вставь в чат:

Вот метод Instruction-Based Editing для редактирования длинных/общих ответов LLM. 
Адаптируй под мою задачу: [опиши что нужно — отредактировать какой текст, для кого, какие проблемы в текущем варианте]. 
Задавай вопросы, чтобы сформулировать инструкции.

[вставить шаблон выше]

LLM спросит: какой текст редактируешь, что в нём не устраивает (длина, тон, контекст), кто аудитория — потому что инструкции зависят от целевых изменений. Модель возьмёт паттерн из шаблона и предложит конкретные команды для твоей задачи.


⚠️

Ограничения

⚠️ Automation bias: Если ответ LLM кажется "почти правильным", легко пропустить мелкие ошибки. Врачи не исправляли неточности типа "1 неделя вместо 2" если ответ не казался "совсем неправильным". Рискуешь со временем начать следовать дефолтам модели вместо своих стандартов.

⚠️ Трудно с крупными переделками: Если текст не подходит совсем — проще написать с нуля. Instruction-based editing работает когда база правильная, но нужны точечные правки. Если нужна другая структура, логика — переписывай полностью.

⚠️ Больше итераций = больше времени: В исследовании instruction-based editing был медленнее прямого редактирования текста (85 секунд vs 50) когда правок много. Приходится давать инструкцию → смотреть результат → давать новую. Для простых правок (убрать одно слово) быстрее исправить вручную.

⚠️ Стохастичность: Одна и та же инструкция может интерпретироваться по-разному. "Сократи" может дать разные варианты. Нужна итерация чтобы получить нужное.

⚠️ Контекстуализация остаётся ручной: LLM не знает твои локальные практики, местные термины, цены в твоём регионе. Всё это нужно явно указывать в инструкциях. Модель не догадается сама.


🔗

Ресурсы

Editing with AI: How Doctors Refine LLM-Generated Answers to Patient Queries Авторы: Rahul Sharma, Pragnya Ramjee (Stanford University), Kaushik Murali (Sankara Eye Hospital, Bangalore), Mohit Jain (Microsoft Research, Bangalore) NeurIPS 2025 Workshop: GenAI for Health


📋 Дайджест исследования

Ключевая суть

LLM выдаёт правильные ответы, но всегда одна беда: простыня на 8 абзацев вместо 2 коротких, общие советы вместо конкретики под твою ситуацию. Врачи в исследовании отвечали на вопросы пациентов через LLM — и постоянно делали две вещи: резали текст в 4 раза и меняли «доллар» на «рубль», технический термин на понятный, общий совет на локальный для региона. Instruction-Based Editing позволяет редактировать без правки текста символ за символом — даёшь модели короткие команды что исправить («убери первый абзац», «замени срок с 1 недели на 2», «добавь совет про пыль»), она сама переписывает и показывает что изменилось. В среднем 2-3 итерации — и из универсальной простыни получается конкретный ответ под контекст.

Принцип работы

Редактирование превращается в диалог с моделью через цикл: LLM генерирует текст → ты читаешь и даёшь инструкцию что не так → модель показывает изменения с подсветкой (зелёным добавлено, красным удалено) → если не устроило, даёшь следующую команду. Инструкции накапливаются в одном чате. Вместо редактирования текста вручную (найти место → удалить → вставить → поправить грамматику) ты управляешь правками через команды, а модель сама подбирает слова и встраивает изменения. Можешь дать одну команду («сократи в 2 раза») или несколько точечных («убери строку 1, замени в строке 3 термин X на Y, добавь в конце пример»). Точечные дают больше контроля, но требуют больше итераций.

Почему работает

LLM не знает твой контекст — локальные практики, ценовой диапазон клиента, насколько развёрнутый ответ нужен. Поэтому генерирует универсальный ответ: длинный, с международными примерами, максимально полный. Если править текст вручную — трудоёмко удалять куски, переписывать, вставлять новое так чтобы стиль совпадал. Но модель отлично трансформирует текст по инструкциям — может укоротить, добавить детали, поменять термины, перефразировать, и делает это с сохранением грамматики. Ты делегируешь технические действия модели, контролируя только смысл правок. Но есть подвох: контекстуализация под локальные практики — модель не догадается сама. Нужно явно указывать «замени доллар на рубль», «добавь российские аналоги», «укажи срок для нашего климата». В исследовании врачи постоянно адаптировали общие советы под местные реалии — это ручная работа, автоматом не происходит.

Когда применять

Редактирование длинных текстов от LLM → конкретно когда нужно сократить простыню и адаптировать под локальный контекст (твою аудиторию, регион, специфику задачи), особенно на мобильных устройствах где править текст вручную неудобно. Работает для статей, ответов клиентам, адаптации контента под разные аудитории, локализации материалов. НЕ подходит для крупных переделок — если текст не подходит совсем (другая структура, логика), проще написать с нуля. Метод работает когда база правильная, но нужны точечные правки.

Мини-рецепт

1. Генерируешь базовый ответ: Задаёшь исходный запрос LLM, получаешь первый вариант
2. Даёшь инструкции для правки: Формулируешь список команд — что сократить (до N абзацев/предложений), что убрать (конкретные фразы, блоки), что добавить (детали, примеры, контекст), что заменить (термины, цифры, названия — старое на новое), что перефразировать (в каком стиле). Просишь показать изменения с выделением
3. Смотришь результат: Модель показывает изменённый текст с подсветкой — красным удалённое, зелёным добавленное
4. Итерируешь при необходимости: Если не устраивает — даёшь следующую команду с уточнениями. Обычно 2-3 итерации достаточно
5. Контекстуализируешь явно: Не жди что модель сама догадается про локальные практики — указывай явно: российские аналоги вместо зарубежных, цены в рублях, термины понятные твоей аудитории, специфику региона/климата/рынка

Примеры

[ПЛОХО] : Какую CRM выбрать для небольшого агентства недвижимости, 5 человек в команде? — получишь простыню с Salesforce и HubSpot, универсальными критериями, абзацами про масштабирование. Править вручную долго.
[ХОРОШО] : Сначала генерируешь базовый ответ тем же запросом, потом даёшь инструкции: Сократи до 3 коротких абзацев. Убери упоминание Salesforce и HubSpot — дорого для малого бизнеса. Добавь российские решения: Битрикс24, amoCRM. Укажи цены в рублях, не в долларах. Убери абзац про масштабирование — клиенту пока не нужно. Покажи изменения с выделением. Модель покажет изменённый вариант: удалённые куски зачёркнуты красным, новые вставки зелёным. Вместо 8 абзацев получишь 3 конкретных с российскими сервисами и ценами в рублях. Если первый абзац слишком формальный — следующая итерация: Первый абзац перепиши проще, как будто объясняешь другу.
Источник: Editing with AI: How Doctors Refine LLM-Generated Answers to Patient Queries
ArXiv ID: 2511.19940 | Сгенерировано: 2026-01-12 19:09

Концепты не выделены.

📖 Простыми словами

Врачи тонут в сообщениях от пациентов, и GPT-4o реально может вытащить их из этого болота. Суть в том, что нейронка генерирует черновики ответов в разы быстрее человека, но она — типичный «отличник-теоретик». Она выдает правильные, но стерильные и избыточные простыни текста. Исследование показало: чтобы AI не налажал, врач должен работать как фильтр и локализатор. Нейронка берет на себя скелет ответа, а эксперт натягивает на него мясо: убирает воду, исправляет фактические косяки и адаптирует советы под конкретные реалии клиники.

Это как если бы ты попросил городского хипстера объяснить деревенскому деду, как починить трактор. Хипстер выдаст лекцию об устройстве двигателя внутреннего сгорания на пять страниц, а деду нужно просто знать, какую гайку крутить. Врачи в исследовании занимались именно этим: превращали академический булшит AI в понятные инструкции. Редактирование черновика в 2 раза быстрее, чем писанина с нуля (28 секунд против 52), а результат получается точнее и безопаснее, потому что врач не забывает важные детали, которые вылетают из головы при запаре.

Что конкретно делать? Работают три метода. Первый — прямое редактирование (Edit): просто правишь текст руками, это быстрее всего для мелких правок. Второй — инструкции (Instruct): говоришь нейронке "сделай короче и убери термины", и она сама пересобирает стиль. Третий — контекстуализация: это когда ты меняешь западные стандарты на свои. Если AI советует не плавать в бассейне, а твой пациент живет в деревне, ты пишешь "не лезь в колодец". Главное — сокращение многословности: врачи безжалостно резали ответы AI, делая их в 4 раза короче. Пациенту нужно "да/нет", а не лекция.

Тестировали это на офтальмологах и операциях по катаракте, но принцип универсален. Это сработает в любой поддержке, юриспруденции или консалтинге. Везде, где есть типовые вопросы и высокие риски ошибки. Главный вывод исследования: SEO для людей больше не катит, нужно GEO для AI. Ты готовишь базу знаний, нейронка лепит черновик, а эксперт шлифует его под реальную жизнь. Это экономит кучу времени, но требует контроля, чтобы не наступило автоматизационное смещение — когда врач расслабляется и начинает пропускать мелкую херню в ответах.

Короче: не пытайся заставить AI отвечать пациентам напрямую — это риск и куча воды. Используй модель как генератор черновиков, но внедри интерфейс, где врач может быстро поправить текст или дать команду на переделку. 65 баллов из 100 — это крепкий результат, но барьер входа высокий: придется пилить свой софт и настраивать API. Зато те, кто это внедрит, перестанут тратить часы на переписку и не потеряют в качестве. Остальные продолжат писать сообщения вручную, пока не выгорят окончательно.

Сгенерировано: 21.12.2025 16:57 | ArXiv Data Collector

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с