TL;DR
Instruction-Based Editing — метод редактирования ответов LLM, когда вместо правки текста вручную вы даёте модели короткие команды что исправить. Исследование сравнило три подхода: писать с нуля, править текст напрямую и давать инструкции для правки. Врачи отвечали на 144 вопроса пациентов про операцию катаракты.
Главная находка: LLM генерирует правильные, но слишком длинные и слишком общие ответы. Врачи постоянно делали две вещи: сокращали (вместо 8 предложений оставляли 2) и контекстуализировали — адаптировали под локальные практики. Например, меняли "доллар" на "рубль", технический термин на понятный пациенту, общий совет на конкретный для климата региона. Ещё проблема — automation bias: если ответ "не совсем неправильный", врачи пропускали мелкие ошибки вместо исправления.
Суть метода: Вместо редактирования текста вручную даёшь LLM короткие инструкции: "убери первое предложение", "добавь совет избегать пыли", "замени срок с 1 недели на 2". Модель сама переписывает текст с учётом команд, показывает что изменилось (зелёным — добавлено, красным — удалено). Можно давать по одной инструкции или несколько сразу. Если не понравилось — даёшь следующую команду. В среднем врачи делали 2-3 итерации на ответ.
Схема метода
Цикл итеративного редактирования:
ШАГ 1: LLM генерирует первый вариант ответа
ШАГ 2: Читаешь → даёшь инструкцию что исправить
ШАГ 3: LLM показывает изменения (diff с подсветкой)
ШАГ 4: Если не устраивает → возвращаешься к шагу 2
ВЫХОД: Когда ответ устраивает
Всё происходит в одном чате, инструкции накапливаются.
Пример применения
Задача: Ты консультант, помогаешь клиенту выбрать CRM для малого бизнеса. Попросил ChatGPT написать ответ — получил простыню на экран. Нужно сократить и адаптировать под российский рынок.
Промпт (первая итерация):
Какую CRM выбрать для небольшого агентства недвижимости в Москве, 5 человек в команде?
Результат: LLM выдаст развёрнутый ответ с перечислением популярных зарубежных CRM (Salesforce, HubSpot), универсальными критериями выбора, несколькими абзацами про интеграции и масштабирование.
Промпт (инструкция для правки):
Сократи до 3 коротких абзацев. Убери упоминание Salesforce и HubSpot — дорого для малого бизнеса.
Добавь российские решения: Битрикс24, amoCRM. Укажи цены в рублях, не в долларах.
Убери абзац про масштабирование — клиенту пока не нужно.
Результат: Модель покажет изменённый вариант с подсветкой: удалённые куски текста зачёркнуты красным, новые вставки зелёным. Вместо 8 абзацев получишь 3 конкретных с российскими сервисами и ценами в рублях.
Промпт (ещё одна итерация, если нужно):
Первый абзац слишком формальный. Перепиши проще, как будто объясняешь другу.
Результат: Модель перефразирует начало в более разговорном тоне, сохранив структуру остального текста.
Почему это работает
Слабость LLM: Модель не знает твой контекст — локальные практики, ценовой диапазон клиента, насколько развёрнутый ответ нужен. Генерирует универсальный ответ: длинный, с международными примерами, максимально полный. Если править текст вручную — приходится удалять куски, переписывать, вставлять новое так чтобы стиль совпадал. Трудоёмко.
Сильная сторона LLM: Модель отлично трансформирует текст по инструкциям — может укоротить, добавить детали, поменять термины, перефразировать. И делает это с сохранением грамматики и стиля. Ты не редактируешь текст символ за символом — объясняешь что нужно изменить.
Как метод использует это: Instruction-based editing переводит редактирование в режим диалога с моделью. Вместо правки текста вручную (найти место → удалить → вставить новое → поправить грамматику) ты делегируешь технические действия модели, контролируя только смысл правок. Модель сама подберёт слова, встроит изменения в контекст, сохранит связность.
Рычаги управления:
Детализация инструкций: Можно дать одну команду ("сократи в 2 раза") или несколько точечных ("убери строку 1, замени в строке 3 'доллар' на 'рубль', добавь в конце совет про Битрикс24"). Точечные правки дают больше контроля, но требуют больше итераций.
Формат подсветки изменений: Если не нужно видеть diff — можешь попросить сразу финальный вариант без выделений. Экономит время на визуальный скан.
Порядок правок: Можно сначала исправить фактуру (замены терминов, цифры), потом работать со стилем (сократить, упростить). Или наоборот — сначала структура, потом детали.
Шаблон промпта
Шаг 1 — Генерация базового ответа:
{твой исходный запрос или вопрос}
Шаг 2 — Инструкции для правки:
Внеси правки в ответ выше:
1. Сократи до {число} абзацев / {число} предложений
2. Убери: {что удалить — конкретные фразы, блоки, повторы}
3. Добавь: {что добавить — детали, примеры, контекст}
4. Замени: {старое} на {новое} — термины, цифры, названия
5. Перефразируй {часть текста} в стиле {как нужно — проще/формальнее/короче}
Покажи изменения с выделением.
Шаг 3 (опционально) — Следующая итерация:
{новая инструкция для дополнительных правок}
Что подставлять:
- {число} — желаемый объём (3 абзаца, 5 предложений, 100 слов)
- {что удалить} — конкретно: "первое предложение", "упоминание Salesforce", "абзац про масштабирование"
- {что добавить} — недостающий контекст: "российские аналоги", "цены в рублях", "пример для Москвы"
- {старое} на {новое} — замены: "доллар → рубль", "ECCE → SICS", "HubSpot → amoCRM"
- {стиль} — как звучать: "как объяснение другу", "коротко и по делу", "официально для отчёта"
🚀 Быстрый старт — вставь в чат:
Вот метод Instruction-Based Editing для редактирования длинных/общих ответов LLM.
Адаптируй под мою задачу: [опиши что нужно — отредактировать какой текст, для кого, какие проблемы в текущем варианте].
Задавай вопросы, чтобы сформулировать инструкции.
[вставить шаблон выше]
LLM спросит: какой текст редактируешь, что в нём не устраивает (длина, тон, контекст), кто аудитория — потому что инструкции зависят от целевых изменений. Модель возьмёт паттерн из шаблона и предложит конкретные команды для твоей задачи.
Ограничения
⚠️ Automation bias: Если ответ LLM кажется "почти правильным", легко пропустить мелкие ошибки. Врачи не исправляли неточности типа "1 неделя вместо 2" если ответ не казался "совсем неправильным". Рискуешь со временем начать следовать дефолтам модели вместо своих стандартов.
⚠️ Трудно с крупными переделками: Если текст не подходит совсем — проще написать с нуля. Instruction-based editing работает когда база правильная, но нужны точечные правки. Если нужна другая структура, логика — переписывай полностью.
⚠️ Больше итераций = больше времени: В исследовании instruction-based editing был медленнее прямого редактирования текста (85 секунд vs 50) когда правок много. Приходится давать инструкцию → смотреть результат → давать новую. Для простых правок (убрать одно слово) быстрее исправить вручную.
⚠️ Стохастичность: Одна и та же инструкция может интерпретироваться по-разному. "Сократи" может дать разные варианты. Нужна итерация чтобы получить нужное.
⚠️ Контекстуализация остаётся ручной: LLM не знает твои локальные практики, местные термины, цены в твоём регионе. Всё это нужно явно указывать в инструкциях. Модель не догадается сама.
Ресурсы
Editing with AI: How Doctors Refine LLM-Generated Answers to Patient Queries Авторы: Rahul Sharma, Pragnya Ramjee (Stanford University), Kaushik Murali (Sankara Eye Hospital, Bangalore), Mohit Jain (Microsoft Research, Bangalore) NeurIPS 2025 Workshop: GenAI for Health
