3,583 papers
arXiv:2509.11206 88 14 сент. 2025 г. PRO

Evalet: оценка больших языковых моделей путем фрагментации выходных данных на функции

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически плохо объясняют, почему сгенерированный текст плох — дают общие оценки вместо конкретных указаний на проблемы. Evalet позволяет превратить любую мощную LLM в строгого редактора, который не просто ставит оценку вашему тексту, а разбирает его на «детали» и говорит: «Вот эта метафора работает отлично, а вот этот призыв к действию — провал». Метод заставляет модель анализировать не «что сказано», а «что сделано» — каждый фрагмент получает название своей риторической функции (например, «использование статистики без источника», «эмоциональный триггер»). Результат: выявление на 48% больше конкретных проблем по сравнению с обычной оценкой «текст хороший/плохой».
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с