3,583 papers
arXiv:2601.15558 88 22 янв. 2026 г. FREE

LLM как редактор эмпатии: добавь тепла без искажения фактов

КЛЮЧЕВАЯ СУТЬ
LLM отличный редактор, но посредственный автор с чистого листа. Генерация с нуля даёт эмпатичный текст, но додумывает факты — в 19% случаев появляются непрошеные советы, выдуманные рекомендации, спекулятивные обещания. В медицине это опасно, в деловой переписке — рискованно, в любой точной коммуникации — неприемлемо. Метод позволяет улучшить тон текста (добавить тепла, усилить эмпатию, убрать сухость), при этом сохраняя все факты, числа и обязательства из оригинала. Твой черновик работает как якорь — модель видит границы: что есть (исходный текст), что нужно (изменить тон), что нельзя (трогать факты). Результат: текст на 55-67% эмпатичнее оригинала, при этом сохраняет 85-95% фактической точности.
Адаптировать под запрос

TL;DR

LLM-редактирование вместо генерации с нуля — техника, где модель улучшает уже написанный текст, добавляя эмпатию, но не меняя суть. Вместо "напиши ответ пациенту" — "отредактируй мой ответ, сделай его теплее". Вместо "создай письмо клиенту" — "улучши тон моего черновика".

Генерация с нуля даёт эмпатичный текст, но добавляет галлюцинации — выдуманные детали, непрошеные советы, спекулятивные утверждения. В медицине это опасно: AI может посоветовать лишнюю консультацию или исказить рекомендацию врача. В деловой переписке — пообещать то, чего ты не планировал. В любой точной коммуникации (юридической, технической, клиентской) генерация рискует подменить факты на правдоподобную выдумку.

Метод использует твой черновик как якорь фактов. Модель видит исходный текст и инструкцию: усиль эмпатию, сохрани все факты, не добавляй новое. Refined-версия промпта добавляет явные запреты: не спекулируй, не додумывай, не давай непрошеных советов. Исследование показало: отредактированные тексты на 55-67% эмпатичнее оригиналов, при этом сохраняют 85-95% фактов. Генерация с нуля — ещё эмпатичнее, но точность падает: модель додумывает 19% непрошеных рекомендаций.


🔬

Схема метода

ШАГ 1: Пишешь черновик → точный, но сухой текст
ШАГ 2: Даёшь модели черновик + инструкцию редактирования → "добавь эмпатии, сохрани факты"
ШАГ 3: Получаешь отредактированный текст → теплее по тону, те же факты

Всё в одном промпте, один запрос.


🚀

Пример применения

⚠️ Зона применения: Коммуникация, где критична точность фактов + нужен тёплый тон. НЕ для креатива или общих текстов.

Задача: Ты основатель, получил от инвестора отказ с просьбой вернуться через полгода. Хочешь ответить, сохранив отношения, но твой черновик звучит формально и сухо.

Твой черновик: "Понял. Через полгода вернусь с обновлёнными метриками."

Промпт:

Отредактируй мой ответ инвестору. Добавь тепла и благодарности, сохраняя суть. 
Не добавляй обещаний, которых я не давал. Не меняй таймлайн.

Исходный текст:
"Понял. Через полгода вернусь с обновлёнными метриками."

Результат: Модель выдаст текст с благодарностью за время и обратную связь, подтверждением тайминга (полгода), фокусом на метриках. Тон станет теплее и профессиональнее, но обязательства останутся теми же — никаких додуманных обещаний вроде "удвоим выручку" или "закроем раунд до этого".


🧠

Почему это работает

LLM плохо контролирует генерацию с нуля — модель стремится быть полезной и дописывает "логичные" детали. В медицине это "вам стоит записаться на дополнительную консультацию", в бизнесе — "мы учтём ваши замечания и внесём изменения" (которые ты не планировал). Модель обучена на паттернах "хорошего ответа" и додумывает то, что кажется уместным по статистике текстов.

LLM отлично работает с редактурой — у неё есть образец стиля, чёткая задача, якорь фактов. Модель видит границы: вот что ЕСТЬ (исходный текст), вот что НУЖНО (улучшить тон), вот что НЕЛЬЗЯ (менять суть). Исходный текст задаёт рельсы — модель движется по ним, а не летит в свободном полёте.

Явные запреты в промпте работают как предохранители. Без них модель в 19% случаев добавляла непрошеные советы даже при инструкции "редактируй". С запретами ("не добавляй фактов", "не спекулируй") риск падает. Это эксплуатация того, как LLM следуют инструкциям — чем конкретнее границы, тем точнее выполнение.

📌

Рычаги управления

  • Уровень редактуры: "минимальные правки" vs "переформулируй полностью" — контролируешь глубину изменений
  • Явные запреты: добавь в промпт что конкретно нельзя менять (числа, обязательства, таймлайны, обещания) — под свою задачу
  • Тип изменений: "добавь эмпатии" / "сделай формальнее" / "убери агрессию" / "усиль уверенность" — задаёшь вектор редактуры
  • Контекст: дай модели контекст отношений ("давний клиент", "первый контакт", "напряжённая ситуация") — точнее подберёт тон

📋

Шаблон промпта

📌

Базовый (Simple Editing)

Отредактируй мой текст: {задача_редактирования}.

Сохрани все факты, числа, обязательства из оригинала. Не добавляй новую информацию.

Исходный текст:
{твой_черновик}
📌

Продвинутый (Refined Editing)

Отредактируй мой текст: {задача_редактирования}.

Правила редактуры:
1. Сохрани ВСЕ факты, числа, даты, обязательства из оригинала
2. НЕ добавляй новые факты, советы, рекомендации
3. НЕ делай предположений или спекуляций
4. НЕ меняй смысл — только тон и формулировки
5. Если в оригинале нет обещания — не добавляй его

Исходный текст:
{твой_черновик}

Контекст (опционально): {контекст}

Плейсхолдеры: - {задача_редактирования} — что хочешь изменить: "добавь тепла", "убери агрессию", "сделай официальнее", "усиль благодарность" - {твой_черновик} — исходный текст целиком - {контекст} — кому пишешь, зачем, какие отношения, что критично не испортить


🚀 Быстрый старт — вставь в чат:

Вот шаблон редактирования для баланса точности и тона. Адаптируй под мою задачу: 
[опиши ситуацию — кому пишешь, что хочешь изменить в тоне, что критично сохранить]. 

Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про тип коммуникации, отношения с адресатом, критичные элементы текста — чтобы точно настроить баланс между сохранением фактов и улучшением тона.


⚠️

Ограничения

⚠️ Короткие тексты: На очень кратких текстах (1-2 предложения) модель может переписать всё, а не отредактировать. Риск больших изменений возрастает — мало материала для работы.

⚠️ Креатив и маркетинг: Для творческих текстов, где точность не критична (посты в соцсетях, истории, рекламные слоганы), генерация с нуля часто эффективнее — там додумывание полезно, а не вредно.

⚠️ Технические детали: Если текст переполнен специфичными терминами, числами или формулами, модель может случайно изменить критичную деталь при переформулировке. Проверяй финальный вывод вручную.

⚠️ Косвенные изменения смысла: Refined-промпт снижает, но не исключает риск. Модель может изменить акцент или подтекст, формально сохранив факты. Критичные тексты (юридические, медицинские, договоры) — всегда вычитывай результат.


🔍

Как исследовали

Исследователи из Mayo Clinic и Abridge собрали 163 переписки врач-пациент с портала клиники — пациенты с раком простаты после операции. Ответы врачей короткие: в среднем 66 слов, 5 предложений. Это типичная асинхронная коммуникация под давлением времени — врачи отвечают между приёмами, писать некогда. 91% вопросов требовали доступа к медкарте пациента (результаты анализов, история лечения), не просто общих медзнаний.

Команда протестировала две стратегии: генерация ответа с нуля vs редактирование ответа врача. Для оценки эмпатии создали 3EM-Rank — LLM-судью, который сравнивает два ответа и выбирает более эмпатичный (или признаёт равенство). Это улучшение оригинального EM-Rank: добавили третий вариант "оба одинаковы", что повысило согласие с людьми с 0.23 до 0.55-0.57 — существенный скачок.

Для оценки точности фактов разработали MedFactChecking Score — двунаправленную проверку. Fact-Recall: сколько фактов из оригинала сохранилось после редактуры (измеряет потери информации). Fact-Precision: сколько фактов в отредактированной версии основаны на оригинале (измеряет галлюцинации). Модель извлекает факты из обоих текстов, проверяет entailment в обе стороны — это показывает что пропало и что добавилось.

Ключевая находка: Отредактированные ответы получили выше оценки по эмпатии (55-67% случаев) чем оригиналы врачей, при этом сохранив 85-95% фактов (Fact-Recall) и добавив только 10-25% непроверенных утверждений (Fact-Precision). Генерация с нуля давала ещё более эмпатичные ответы, но точность резко падала — AI додумывал рекомендации, которых врач не давал.

Что удивило: Даже с базовым промптом модели добавляли непрошеные советы в 19% случаев — "запишитесь на консультацию", "попробуйте подушку помягче", "следите за симптомами". Это паттерн "услужливости" LLM: модель старается быть полезнее, чем её просили. Она видела в обучающих данных, что хорошие ответы содержат дополнительные советы — и додумывает их. Refined-промпт с явными запретами ("не давай рекомендаций", "не спекулируй") снизил эти риски.

Два уролога вручную проверили отредактированные ответы и выявили 6 типов ошибок: непрошеные советы по наблюдению (13 случаев), клинические предположения (11), ложные заверения (4), лишние рекомендации (4), избыточная детализация (2), манипуляции страхом (2). ML-исследователи сверили автоматические флаги с экспертными — совпадение 72-84%. Консервативность алгоритма (он иногда флагит семантически идентичные переформулировки как "изменения") не помешала ловить клинически значимые ошибки.

Инсайт для практики: Редактирование — это не просто "безопаснее генерации". Это принципиально другая парадигма. Ты даёшь модели рельсы (исходный текст), и она движется по ним. Генерация — это свободный полёт, где модель полагается на паттерны обучения и "здравый смысл", который может не совпадать с твоими намерениями. Когда факты критичны — дай модели основу, не заставляй выдумывать с нуля.


🔗

Ресурсы

From Generation to Collaboration: Using LLMs to Edit for Empathy in Healthcare — Man Luo, Bahareh Harandizadeh, Amara Tariq, Halim Abbas, Umar Ghaffar, Christopher J Warren, Segun O. Kolade, Haidar M. Abdul-Muhsin (Abridge, Mayo Clinic)


📋 Дайджест исследования

Ключевая суть

LLM отличный редактор, но посредственный автор с чистого листа. Генерация с нуля даёт эмпатичный текст, но додумывает факты — в 19% случаев появляются непрошеные советы, выдуманные рекомендации, спекулятивные обещания. В медицине это опасно, в деловой переписке — рискованно, в любой точной коммуникации — неприемлемо. Метод позволяет улучшить тон текста (добавить тепла, усилить эмпатию, убрать сухость), при этом сохраняя все факты, числа и обязательства из оригинала. Твой черновик работает как якорь — модель видит границы: что есть (исходный текст), что нужно (изменить тон), что нельзя (трогать факты). Результат: текст на 55-67% эмпатичнее оригинала, при этом сохраняет 85-95% фактической точности.

Принцип работы

Не напиши ответ клиенту — а отредактируй мой черновик, добавь тепла. Разница критична. Генерация даёт модели чистый лист. Она стремится быть полезной и додумывает "логичные" детали по статистике обучающих текстов. Результат — правдоподобная выдумка: "стоит записаться на консультацию", "мы учтём замечания" (которые ты не планировал). Редактирование даёт рельсы — твой текст задаёт границы изменений. Модель работает с образцом: вот стиль, вот факты, вот рамки. Она движется по колее, а не летит в свободном полёте.

Почему работает

LLM обучена на паттернах "хорошего ответа". В свободной генерации она тянет статистику — дописывает то, что "обычно уместно" в таких текстах. Отсюда галлюцинации: модель не врёт специально, она выдаёт правдоподобное продолжение. При редактировании модель видит конкретный образец — что УЖЕ написано. Исходный текст работает как якорь фактов и ограничитель фантазии. Модель понимает: это не генерация нового, это улучшение существующего. Задача чётче, границы яснее, свободы меньше — точность выше. Цифры из исследования: отредактированные тексты на 55-67% эмпатичнее оригиналов, при этом сохраняют 85-95% фактов. Генерация с нуля ещё эмпатичнее, но точность проседает — 19% текстов содержат додуманные рекомендации или непрошеные советы.

Когда применять

Коммуникация где критична точность фактов + нужен правильный тон → ответы клиентам на сложные вопросы, медицинская переписка, деловые письма с обязательствами, обратная связь команде или партнёрам. Особенно когда есть черновик (точный, но сухой) и нужно добавить тепла без риска исказить суть. НЕ подходит для креатива и маркетинга — там додумывание полезно, точность не критична. Для постов в соцсетях, рекламных слоганов, историй генерация с нуля часто эффективнее.

Мини-рецепт

1. Напиши черновик: Включи все факты, числа, обязательства. Пусть будет сухим — это нормально, потом улучшишь тон

2. Дай модели задачу редактирования: Отредактируй мой текст: [что изменить в тоне]. Сохрани все факты, числа, обязательства. Не добавляй новую информацию. + вставь черновик

3. Добавь явные запреты (refined-версия): Перечисли что конкретно нельзя менять — числа, даты, таймлайны, обещания. Добавь: "НЕ делай предположений, НЕ давай непрошеных советов"

4. Вычитай результат: Проверь что все факты из черновика на месте. Убедись что модель не добавила новых обещаний или рекомендаций

Примеры

[ПЛОХО] : Отправляешь сухой черновик без редактуры: Понял. Через полгода вернусь с обновлёнными метриками — формально, холодно, упущен шанс сохранить отношения с инвестором
[ХОРОШО] : Отредактируй мой ответ инвестору. Добавь тепла и благодарности, сохраняя суть. Не добавляй обещаний, которых я не давал. Не меняй таймлайн. Исходный текст: "Понял. Через полгода вернусь с обновлёнными метриками." — модель добавит благодарность за время и обратную связь, подтвердит полгода, но не пообещает лишнего вроде "удвоим выручку" или "закроем раунд досрочно"
Источник: From Generation to Collaboration: Using LLMs to Edit for Empathy in Healthcare
ArXiv ID: 2601.15558 | Сгенерировано: 2026-01-23 05:29

Проблемы LLM

ПроблемаСутьКак обойти
Генерация с нуля добавляет непрошеные деталиПросишь модель написать ответ клиенту или пациенту. Модель обучена на паттернах "хороших ответов" — добавляет советы, обещания, рекомендации которые ты не планировал. В медицине: "запишитесь на консультацию" (врач этого не говорил). В деловой переписке: "мы учтём замечания" (ты этого не обещал). Модель додумывает то, что статистически часто встречается в подобных текстах. Это галлюцинация в контексте точностиНе проси модель писать с нуля. Напиши короткий черновик сам — точный, но сухой. Дай модель задачу: "отредактируй мой текст, измени тон, НЕ добавляй новых фактов". Твой черновик станет якорем — модель улучшит формулировки, но не придумает лишнего

Методы

МетодСуть
Редактирование черновика вместо генерацииНапиши черновик сам. Дай модели задачу редактуры: "улучши тон", "добавь тепла", "сделай формальнее". Добавь явные запреты: "НЕ меняй факты, числа, обязательства", "НЕ добавляй новые советы". Синтаксис: Отредактируй мой текст: [задача]. Сохрани все факты из оригинала. Не добавляй новую информацию. Исходный текст: [черновик]. Почему работает: Твой черновик задаёт границы. Модель видит что ЕСТЬ (твой текст), что НУЖНО (изменить тон), что НЕЛЬЗЯ (менять смысл). Без исходного текста модель летит в свободном полёте — додумывает детали по статистике обучающих данных. С черновиком движется по рельсам. Когда применять: Коммуникация где критична точность фактов + нужен правильный тон. Переписка с клиентами, пациентами, партнёрами, инвесторами. Любая ситуация где ошибка дорого стоит. Когда не работает: Креатив и маркетинг где додумывание полезно (посты в соцсетях, реклама). Очень короткие тексты (1-2 предложения) — модель может переписать всё целиком

Тезисы

ТезисКомментарий
Исходный текст в промпте работает как якорь против галлюцинацийКогда модель редактирует готовый текст, у неё есть образец — что именно ты хотел сказать. Она улучшает формулировки, но не придумывает новые факты. При генерации с нуля модель стремится "помочь" — добавляет детали которые кажутся уместными по статистике текстов. Это не злой умысел, а особенность обучения: модель видела много "полных" ответов и тянется к этому паттерну. Механика: Исходный текст задаёт границы допустимого. Модель знает ЧТО ты уже сказал — остаётся только изменить КАК это звучит. Применяй: Для точной коммуникации (деловая, медицинская, юридическая, клиентская) пиши черновик сам. Даже сухой, даже корявый. Модель улучшит. Но не давай ей писать с нуля — риск додумывания слишком высок
📖 Простыми словами

From Generation to Collaboration: UsingLLMsto Edit for Empathy in Healthcare

arXiv: 2601.15558

Суть в том, что когда ты просишь нейронку написать текст с нуля, она ведет себя как галлюцинирующий сказочник. Модель обучена выдавать «идеально вежливый ответ», поэтому она на автомате дописывает обещания, которые ты не давал, и советы, которые могут быть опасны. В медицине это вообще катастрофа: врач просто хотел посочувствовать, а AI от его имени назначил лишнее обследование или пообещал выздоровление за неделю. Генерация с нуля — это потеря контроля над фактами ради красивой обертки.

Это как если бы ты попросил гиперактивного стажера передать коллеге записку, а он по дороге переписал её, добавив отсебятины, чтобы казаться полезным. Вроде вежливо, но суть искажена до неузнаваемости. Вместо того чтобы просто передать «завтра совещание», он пишет «мы завтра всё решим и выпишем всем премии». В итоге ты выглядишь либо лжецом, либо идиотом, потому что статистическая вероятность того или иного слова для модели важнее, чем твои реальные намерения.

Решение — LLM-редактирование, где ты даешь модели жесткий каркас и запрещаешь шаг влево. Ты скармливаешь ей свой сухой, корявый, но правдивый черновик и просишь только «подкрутить ручку эмпатии». Модель работает как умный фильтр: она не придумывает новые сущности, а просто переупаковывает твои смыслы в человеческую форму. Метод Edit for Empathy оставляет факты нетронутыми, но убирает тон робота-социопата, превращая «у вас рак» в нечто, что человек способен услышать и не сломаться.

Этот подход — спасение для любой сферы, где цена ошибки в словах запредельно высока. Тестировали на врачах, но принцип универсален: юристы, поддержка в финтехе, менеджеры при увольнении сотрудников — везде, где нужно быть человеком, но нельзя врать. Точность фактов плюс теплота — это единственный способ использовать AI в серьезных делах, не превращая коммуникацию в цифровой мусор. Мы переходим от эпохи «напиши за меня» к эпохе «исправь меня, но не ври».

Короче, хватит доверять нейронке чистый лист, если на кону стоит репутация или чье-то здоровье. Используй модель как стилистического корректора, а не как автора, иначе она «нагаллюцинирует» тебе проблем на ровном месте. Редактирование вместо генерации — это единственный способ сохранить контроль и не звучать при этом как бездушная железка. Кто поймет эту разницу, тот сможет внедрить AI там, где остальные побоятся из-за рисков.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с