TL;DR
Исследователи из University of Maribor тестировали модели GPT-4.1, GPT-4.1-mini и GPT-4.1-nano для упрощения биомедицинских текстов до уровня 8 класса (13-14 лет). Сравнивали два подхода: обычные промпты (no-context) и fine-tuning на специальных данных. Задача в двух вариантах: упрощение на уровне отдельных предложений (каждое предложение упрощается отдельно с сохранением их количества) и на уровне целого документа (свободное переписывание всего текста).
Главная находка: обычные промпты работают лучше fine-tuning. GPT-4.1-mini без fine-tuning показал лучшие результаты на обеих задачах — читаемость на уровне 7-8 класса, качество упрощения выше. Fine-tuned модели проваливаются на строгих правилах: gpt-4.1-nano-ft вообще не смог выдать результат на некоторых тестах, потому что не справился с требованием "выдать ровно N предложений". Мелкие модели плохо следуют сложным инструкциям даже после дообучения.
Ценность для пользователя — готовые промпты и детальные гайдлайны для упрощения сложных текстов. Метод: разбивай длинные предложения, заменяй жаргон простыми словами (или поясняй в скобках), удаляй статистику (p-value, доверительные интервалы), убирай детали методологии, используй активный залог. Работает в обычном чате без кода.
Схема метода
Для упрощения на уровне предложений (Task 1.1):
INPUT: ['Предложение 1', 'Предложение 2', ..., 'Предложение N']
ШАГ 1: Для каждого предложения решить:
- Уже простое? → оставить как есть
- Нерелевантное (детали метода)? → заменить на ''
- Сложное? → упростить (можно разбить на несколько внутри тех же кавычек)
ШАГ 2: Проверить связность всего списка
OUTPUT: ['Упрощение 1', 'Упрощение 2', ..., 'Упрощение N']
Количество элементов в выходе = количеству на входе (важно!)
Для упрощения на уровне документа (Task 1.2):
INPUT: Полный текст документа
ШАГ: Переписать весь текст по тем же правилам упрощения,
без строгого сохранения количества предложений
OUTPUT: Упрощённый текст
Пример применения
Задача: Упростить текст экспертной статьи про криптовалюты для читателей без технического бакграунда — например, для родителей подростков или преподавателей школ, которым нужно объяснить тему ученикам.
Промпт:
Упрости этот текст для читателя уровня 8 класса (13-14 лет). Следуй правилам:
- Разбивай длинные предложения на короткие
- Заменяй профессиональный жаргон простыми словами. Если замены нет — оставь термин и поясни в скобках
- Удаляй сложную статистику и технические детали, если они не нужны для понимания сути
- Используй активный залог ("биткоин работает" вместо "биткоином осуществляется")
- Убирай заголовки типа "Введение:", "Методология:" — либо удали, либо вплети в предложение
Вот текст:
[текст статьи про блокчейн и криптовалюты]
Результат: Модель выдаст переписанный текст: длинные предложения разобьёт на короткие, термины типа "децентрализованный реестр" заменит на "общая база данных без центра" или пояснит "блокчейн (цепочка связанных блоков данных)", уберёт упоминания протоколов консенсуса или объяснит суть простыми словами, удалит статистику вроде "с вероятностью p<0.001" или технические детали алгоритмов.
Почему это работает
Слабость LLM: Модели плохо следуют строгим численным ограничениям в сложных задачах. Когда промпт требует "выдай ровно N предложений" и одновременно "упрости каждое по 10 правилам" — модель может сбиться и выдать N-2 или N+3 предложения. Мелкие модели (nano) особенно проваливаются: в эксперименте gpt-4.1-nano-ft вообще не смог выдать корректный результат.
Сильная сторона LLM: Модели хорошо понимают концептуальные инструкции и адаптируют стиль текста по образцу. Если дать детальные гайдлайны ("замени жаргон", "разбей длинные предложения", "удали статистику") без жёстких численных рамок — модель справляется отлично.
Как метод использует это: Промпт содержит список концептуальных правил (гайдлайны), а не строгие численные ограничения. Для упрощения документа это работает идеально — модель видит общую цель и применяет все правила гибко. Для упрощения отдельных предложений есть риск — модель может нарушить правило "ровно N предложений", но авторы компенсируют это через повторные проверки в промпте: "Double-check that the output list contains N elements" и "If the number DO NOT match return to point 1 and re-do all the steps."
Рычаги управления промптом:
- Уровень аудитории (K8 = 8 класс) → подними до K12 (выпускники школы) или опусти до K6 (11-12 лет) в зависимости от читателей
- Список правил → убери правило про удаление статистики, если она важна для твоей задачи; добавь правило про сохранение примеров, если они нужны
- Примеры в промпте (Few-shot) → добавь свои примеры из твоей предметной области, чтобы модель лучше понимала контекст
- Строгость сохранения структуры → для документа можно дать полную свободу, для списка предложений — усилить проверку через "Check THREE times"
Инсайт про fine-tuning: Обычные промпты работают лучше дообученных моделей в этой задаче. Fine-tuning стоит дорого (24$ за одно обучение gpt-4.1-mini на этих данных) и даёт нестабильные результаты — особенно когда задача требует одновременно следовать многим правилам. Для пользователя это означает: не нужен доступ к API для fine-tuning, обычный ChatGPT/Claude с хорошим промптом справится.
Шаблон промпта
Для упрощения целого текста (универсальный вариант):
Ты SimpleText-GPT, эксперт по упрощению сложных текстов.
Твоя задача: переписать текст для читателей уровня {уровень_образования}.
ПРАВИЛА:
1. Разбивай длинные предложения на короткие. Одно предложение = одна мысль.
2. Заменяй профессиональный жаргон простыми словами. Если замены нет —
оставь термин и поясни в скобках при первом упоминании.
3. Удаляй сложную статистику (p-value, доверительные интервалы) и
технические детали методологии, если они не нужны для понимания сути.
4. Используй активный залог где возможно.
5. Убирай подзаголовки типа "Введение:", "Методология:", "Результаты:" —
либо удали, либо вплети в предложение.
6. Если предложение уже простое — оставь как есть.
7. Если предложение нерелевантно для читателя (например, детали
экспериментальной процедуры) — пропусти его.
8. Сохраняй все факты. Не добавляй ничего нового.
ТЕКСТ ДЛЯ УПРОЩЕНИЯ:
{текст}
Пояснение плейсхолдеров:
- {уровень_образования} — например: "8 класса (13-14 лет)" или "выпускников школы" или "людей без высшего образования"
- {текст} — твой исходный сложный текст
Для упрощения списка предложений (с сохранением количества):
Ты SimpleText-GPT, эксперт по упрощению сложных текстов.
Твоя задача: упростить каждое предложение из списка для читателей уровня {уровень_образования}.
ВАЖНО: Верни список с ТАКИМ ЖЕ количеством элементов. Проверь ТРИ раза.
ПРАВИЛА для каждого предложения:
1. Если уже простое → оставь как есть
2. Если нерелевантно (детали метода) → замени на ''
3. Если сложное → упрости:
- Разбей на несколько коротких (внутри тех же кавычек)
- Замени жаргон простыми словами (или поясни в скобках)
- Удали статистику (p-value, интервалы)
- Используй активный залог
СПИСОК ПРЕДЛОЖЕНИЙ:
{список_предложений}
ФОРМАТ ОТВЕТА: ['Упрощение 1', 'Упрощение 2', ..., 'Упрощение N']
Проверь: количество элементов на выходе = количеству на входе.
Пояснение:
- {список_предложений} — список в формате ['Предложение 1', 'Предложение 2', ...]
🚀 Быстрый старт — вставь в чат:
Вот шаблон для упрощения текстов. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про твою аудиторию (уровень образования, контекст), какой текст упрощать, нужно ли сохранять структуру или можно переписать свободно. Она возьмёт список правил из шаблона и адаптирует под твою предметную область — добавит специфичные примеры терминов, скорректирует что удалять и что оставлять.
Оригинал из исследования
System prompt (Task 1.2 — упрощение документа):
You are SimpleText-GPT, specialised in adapting biomedical sentences into plain
language for lay readers.
Follow the NIH guidelines for written health materials: split long sentences
if helpful; replace or briefly explain jargon; omit non-essential statistics;
allow '' when a sentence is irrelevant; carry over sentences that are already
plain; preserve every fact; add nothing new.
User prompt (Task 1.2):
TASK – Plain-language sentence adaptation (based on NIH guidelines for written
health materials)
ESSENTIAL RULES:
- Audience: Write for readers at about a US 8th-grade level (K8 or smart
13-14 year old student).
- Splitting: If a sentence contains more than one idea, split it into shorter
sentences inside the same pair of single quotes; never merge content from
different source items.
- Omission: If a sentence is irrelevant to lay readers (for example, detailed
measurement methods), output the empty string ''.
- Jargon: Replace professional terms with common words. If no plain synonym
exists, keep the term once and add a brief parenthetical gloss.
- Statistics: Remove p-values, confidence intervals, and similar numbers
unless they are essential for understanding.
- Voice: Use active voice when possible.
- Pronouns: Resolve ambiguous pronouns or other references.
- Subheadings: Remove IMRAD labels, such as 'Background:', 'Introduction:',
'METHODS:', 'Results:', 'Discussion:' or integrate them into a full sentence.
- Output: Return only the final simplified sentence as string.
QUICK EXAMPLES:
- Simplify 'Myocardial infarction is a leading cause of mortality worldwide.' →
'A heart attack is a major cause of death worldwide.'
- Carry over 'Metabolism is essential for life.' →
'Metabolism is essential for life.'
- Omit 'Blood pressure was measured with a sphygmomanometer.' → ''
- Split 'Cardiovascular disease is the leading cause of mortality, and it
is influenced by genetics as well as lifestyle.' →
'Heart disease is the leading cause of death. Genetics and lifestyle also influence it.'
Детальные гайдлайны (из Appendix G исследования)
Эти правила можно встроить в свой промпт или использовать как чек-лист при редактуре:
Приоритет правил (от высшего к низшему): - "Двойные кавычки" — всегда соблюдай - |Вертикальные палочки| — соблюдай, кроме случаев когда противоречит правилам в двойных кавычках - [Квадратные скобки] — соблюдай, если не противоречит предыдущим
Основные правила:
|Разбивка предложений|: Если предложение длинное и содержит две или более идеи — разбей на несколько простых. Каждое новое предложение помещай в те же кавычки через точку.
|Перенос без изменений|: Если предложение уже понятно обычному читателю — оставь как есть. Не перефразируй ради перефразирования.
|Игнорирование предложений|: Пропускай предложения, которые нерелевантны для понимания (детали экспериментов, процедур измерения). Пример удаляемого: "Blood pressure was measured in mmHg using a sphygmomanometer." НО не игнорируй предложения про "нужны будущие исследования" — их адаптируй.
|Разрешение местоимений|: Если местоимение (он, она, это) отсылает к чему-то из предыдущего предложения — замени на конкретное слово. Пример: "Сердечно-сосудистые заболевания — главная причина смерти. Они зависят от генетики и образа жизни." → "Сердечно-сосудистые заболевания — главная причина смерти. Болезни сердца зависят от наследственности и образа жизни."
[Активный залог]: Меняй пассив на актив где возможно. "A total of 24 papers were reviewed" → "We reviewed 24 papers".
[Подзаголовки]: Если в предложении есть подзаголовок (Background:, Results:, Methods:):
- После подзаголовка полное предложение? → удали подзаголовок
- После подзаголовка неполное предложение? → вплети подзаголовок в предложение на основе контекста
"Удаляй статистику": Доверительные интервалы, p-value, похожие метрики — убирай. Пример: "OR 1.83, 95% CI 1.37-2.44, P=.00004" → "Результаты показали преимущество цефалоспоринов над пенициллином."
[Частичное дублирование]: Если текущее предложение частично повторяет предыдущее — всё равно создай адаптацию, не пропускай. Если можно написать ТОЧНО как предыдущее — напиши "..." (без кавычек). Это редкий случай.
[Перенос понятных слов]: Слова, которые читатель и так знает или постоянно слышит (например, "метаболизм") — оставляй без замены.
[Короткие синонимы]: Длинные редкие слова меняй на короткие частые. "inhibits" → "blocks", "assessed" → "measured".
"Замена жаргона": Профессиональные термины меняй на обычные слова. "interphalangeal joint" → "finger knuckle". Если термин неоднозначен — используй контекст статьи или внешние источники. При замене проверь, что новое слово вписывается в предложение целиком — избегай избыточности, уточняй местоимения.
"Пояснение жаргона без синонимов": Если у термина нет простого синонима — оставь как есть при первом упоминании, но поясни в скобках или через уточняющую фразу. Последующие упоминания можно заменить на (1) местоимение или (2) более общий термин, или (3) повторить точное название. Пример: "Duloxetine is a combined serotonin/norepinephrine reuptake inhibitor..." → "Duloxetine (a common antidepressant) blocks removal of serotonin/norepinephrine (chemical messengers)..."
"Аббревиатуры": Работают как жаргон. При первом упоминании — поясни, при последующих — можно заменить на общий термин или повторить аббревиатуру.
Ограничения
⚠️ Строгие численные требования: Если промпт требует "ровно N предложений" и одновременно много правил упрощения — модель может сбиться и выдать N±2 предложения. Мелкие модели (gpt-4.1-nano) особенно ненадёжны: в эксперименте fine-tuned nano вообще не смог выдать корректный результат. Решение: повторные проверки в промпте ("Check THREE times") или отказ от жёстких ограничений (упрощай документ целиком, а не каждое предложение отдельно).
⚠️ Специфика биомедицины: Гайдлайны заточены под медицинские/научные тексты. Для других областей (юридические документы, технические инструкции) нужна адаптация правил — что считать "жаргоном", какую статистику удалять, какие детали оставлять.
⚠️ Fine-tuning не панацея: Дообучение модели на специальных данных НЕ гарантирует улучшение. В этом эксперименте обычные промпты работали лучше fine-tuned версий. Fine-tuning дорог (24$ за gpt-4.1-mini) и может ухудшить способность модели следовать сложным инструкциям.
⚠️ Потеря нюансов: При упрощении теряются детали, точные формулировки, научная строгость. Метод для популяризации, не для экспертной аудитории. Если читателю нужны точные данные — этот подход не подойдёт.
Ресурсы
UM_FHS at the CLEF 2025 SimpleText Track: Comparing No-Context and Fine-Tune Approaches for GPT-4.1 Models in Sentence and Document-Level Text Simplification — работа команды University of Maribor (Faculty of Health Science, Slovenia) и University of Edinburgh (UK) для соревнования CLEF 2025 SimpleText Track Task 1.
Авторы: Primož Kočbek, Gregor Štiglic
Основано на гайдлайнах NIH (National Institutes of Health) для медицинских материалов. Данные из Cochrane abstracts и их plain language summaries, обработанные через Cochrane-auto [Bakker & Kamps, 2024].
