TL;DR
LLM-редактирование вместо генерации с нуля — техника, где модель улучшает уже написанный текст, добавляя эмпатию, но не меняя суть. Вместо "напиши ответ пациенту" — "отредактируй мой ответ, сделай его теплее". Вместо "создай письмо клиенту" — "улучши тон моего черновика".
Генерация с нуля даёт эмпатичный текст, но добавляет галлюцинации — выдуманные детали, непрошеные советы, спекулятивные утверждения. В медицине это опасно: AI может посоветовать лишнюю консультацию или исказить рекомендацию врача. В деловой переписке — пообещать то, чего ты не планировал. В любой точной коммуникации (юридической, технической, клиентской) генерация рискует подменить факты на правдоподобную выдумку.
Метод использует твой черновик как якорь фактов. Модель видит исходный текст и инструкцию: усиль эмпатию, сохрани все факты, не добавляй новое. Refined-версия промпта добавляет явные запреты: не спекулируй, не додумывай, не давай непрошеных советов. Исследование показало: отредактированные тексты на 55-67% эмпатичнее оригиналов, при этом сохраняют 85-95% фактов. Генерация с нуля — ещё эмпатичнее, но точность падает: модель додумывает 19% непрошеных рекомендаций.
Схема метода
ШАГ 1: Пишешь черновик → точный, но сухой текст
ШАГ 2: Даёшь модели черновик + инструкцию редактирования → "добавь эмпатии, сохрани факты"
ШАГ 3: Получаешь отредактированный текст → теплее по тону, те же факты
Всё в одном промпте, один запрос.
Пример применения
⚠️ Зона применения: Коммуникация, где критична точность фактов + нужен тёплый тон. НЕ для креатива или общих текстов.
Задача: Ты основатель, получил от инвестора отказ с просьбой вернуться через полгода. Хочешь ответить, сохранив отношения, но твой черновик звучит формально и сухо.
Твой черновик: "Понял. Через полгода вернусь с обновлёнными метриками."
Промпт:
Отредактируй мой ответ инвестору. Добавь тепла и благодарности, сохраняя суть.
Не добавляй обещаний, которых я не давал. Не меняй таймлайн.
Исходный текст:
"Понял. Через полгода вернусь с обновлёнными метриками."
Результат: Модель выдаст текст с благодарностью за время и обратную связь, подтверждением тайминга (полгода), фокусом на метриках. Тон станет теплее и профессиональнее, но обязательства останутся теми же — никаких додуманных обещаний вроде "удвоим выручку" или "закроем раунд до этого".
Почему это работает
LLM плохо контролирует генерацию с нуля — модель стремится быть полезной и дописывает "логичные" детали. В медицине это "вам стоит записаться на дополнительную консультацию", в бизнесе — "мы учтём ваши замечания и внесём изменения" (которые ты не планировал). Модель обучена на паттернах "хорошего ответа" и додумывает то, что кажется уместным по статистике текстов.
LLM отлично работает с редактурой — у неё есть образец стиля, чёткая задача, якорь фактов. Модель видит границы: вот что ЕСТЬ (исходный текст), вот что НУЖНО (улучшить тон), вот что НЕЛЬЗЯ (менять суть). Исходный текст задаёт рельсы — модель движется по ним, а не летит в свободном полёте.
Явные запреты в промпте работают как предохранители. Без них модель в 19% случаев добавляла непрошеные советы даже при инструкции "редактируй". С запретами ("не добавляй фактов", "не спекулируй") риск падает. Это эксплуатация того, как LLM следуют инструкциям — чем конкретнее границы, тем точнее выполнение.
Рычаги управления
- Уровень редактуры: "минимальные правки" vs "переформулируй полностью" — контролируешь глубину изменений
- Явные запреты: добавь в промпт что конкретно нельзя менять (числа, обязательства, таймлайны, обещания) — под свою задачу
- Тип изменений: "добавь эмпатии" / "сделай формальнее" / "убери агрессию" / "усиль уверенность" — задаёшь вектор редактуры
- Контекст: дай модели контекст отношений ("давний клиент", "первый контакт", "напряжённая ситуация") — точнее подберёт тон
Шаблон промпта
Базовый (Simple Editing)
Отредактируй мой текст: {задача_редактирования}.
Сохрани все факты, числа, обязательства из оригинала. Не добавляй новую информацию.
Исходный текст:
{твой_черновик}
Продвинутый (Refined Editing)
Отредактируй мой текст: {задача_редактирования}.
Правила редактуры:
1. Сохрани ВСЕ факты, числа, даты, обязательства из оригинала
2. НЕ добавляй новые факты, советы, рекомендации
3. НЕ делай предположений или спекуляций
4. НЕ меняй смысл — только тон и формулировки
5. Если в оригинале нет обещания — не добавляй его
Исходный текст:
{твой_черновик}
Контекст (опционально): {контекст}
Плейсхолдеры:
- {задача_редактирования} — что хочешь изменить: "добавь тепла", "убери агрессию", "сделай официальнее", "усиль благодарность"
- {твой_черновик} — исходный текст целиком
- {контекст} — кому пишешь, зачем, какие отношения, что критично не испортить
🚀 Быстрый старт — вставь в чат:
Вот шаблон редактирования для баланса точности и тона. Адаптируй под мою задачу:
[опиши ситуацию — кому пишешь, что хочешь изменить в тоне, что критично сохранить].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про тип коммуникации, отношения с адресатом, критичные элементы текста — чтобы точно настроить баланс между сохранением фактов и улучшением тона.
Ограничения
⚠️ Короткие тексты: На очень кратких текстах (1-2 предложения) модель может переписать всё, а не отредактировать. Риск больших изменений возрастает — мало материала для работы.
⚠️ Креатив и маркетинг: Для творческих текстов, где точность не критична (посты в соцсетях, истории, рекламные слоганы), генерация с нуля часто эффективнее — там додумывание полезно, а не вредно.
⚠️ Технические детали: Если текст переполнен специфичными терминами, числами или формулами, модель может случайно изменить критичную деталь при переформулировке. Проверяй финальный вывод вручную.
⚠️ Косвенные изменения смысла: Refined-промпт снижает, но не исключает риск. Модель может изменить акцент или подтекст, формально сохранив факты. Критичные тексты (юридические, медицинские, договоры) — всегда вычитывай результат.
Как исследовали
Исследователи из Mayo Clinic и Abridge собрали 163 переписки врач-пациент с портала клиники — пациенты с раком простаты после операции. Ответы врачей короткие: в среднем 66 слов, 5 предложений. Это типичная асинхронная коммуникация под давлением времени — врачи отвечают между приёмами, писать некогда. 91% вопросов требовали доступа к медкарте пациента (результаты анализов, история лечения), не просто общих медзнаний.
Команда протестировала две стратегии: генерация ответа с нуля vs редактирование ответа врача. Для оценки эмпатии создали 3EM-Rank — LLM-судью, который сравнивает два ответа и выбирает более эмпатичный (или признаёт равенство). Это улучшение оригинального EM-Rank: добавили третий вариант "оба одинаковы", что повысило согласие с людьми с 0.23 до 0.55-0.57 — существенный скачок.
Для оценки точности фактов разработали MedFactChecking Score — двунаправленную проверку. Fact-Recall: сколько фактов из оригинала сохранилось после редактуры (измеряет потери информации). Fact-Precision: сколько фактов в отредактированной версии основаны на оригинале (измеряет галлюцинации). Модель извлекает факты из обоих текстов, проверяет entailment в обе стороны — это показывает что пропало и что добавилось.
Ключевая находка: Отредактированные ответы получили выше оценки по эмпатии (55-67% случаев) чем оригиналы врачей, при этом сохранив 85-95% фактов (Fact-Recall) и добавив только 10-25% непроверенных утверждений (Fact-Precision). Генерация с нуля давала ещё более эмпатичные ответы, но точность резко падала — AI додумывал рекомендации, которых врач не давал.
Что удивило: Даже с базовым промптом модели добавляли непрошеные советы в 19% случаев — "запишитесь на консультацию", "попробуйте подушку помягче", "следите за симптомами". Это паттерн "услужливости" LLM: модель старается быть полезнее, чем её просили. Она видела в обучающих данных, что хорошие ответы содержат дополнительные советы — и додумывает их. Refined-промпт с явными запретами ("не давай рекомендаций", "не спекулируй") снизил эти риски.
Два уролога вручную проверили отредактированные ответы и выявили 6 типов ошибок: непрошеные советы по наблюдению (13 случаев), клинические предположения (11), ложные заверения (4), лишние рекомендации (4), избыточная детализация (2), манипуляции страхом (2). ML-исследователи сверили автоматические флаги с экспертными — совпадение 72-84%. Консервативность алгоритма (он иногда флагит семантически идентичные переформулировки как "изменения") не помешала ловить клинически значимые ошибки.
Инсайт для практики: Редактирование — это не просто "безопаснее генерации". Это принципиально другая парадигма. Ты даёшь модели рельсы (исходный текст), и она движется по ним. Генерация — это свободный полёт, где модель полагается на паттерны обучения и "здравый смысл", который может не совпадать с твоими намерениями. Когда факты критичны — дай модели основу, не заставляй выдумывать с нуля.
Ресурсы
From Generation to Collaboration: Using LLMs to Edit for Empathy in Healthcare — Man Luo, Bahareh Harandizadeh, Amara Tariq, Halim Abbas, Umar Ghaffar, Christopher J Warren, Segun O. Kolade, Haidar M. Abdul-Muhsin (Abridge, Mayo Clinic)
