3,583 papers
arXiv:2508.01159 95 1 авг. 2025 г. PRO

Задавая правильные вопросы: бенчмаркинг больших языковых моделей в разработке шаблонов клинических консультаций

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически плохи в самостоятельной приоритизации — они перечисляют ВСЁ, что знают по теме, вместо того чтобы выделить главное (полнота 95% vs точность отбора 40%). Forced Prioritization позволяет получать сфокусированные ответы вместо информационного потока — модель перестает быть энциклопедией и становится экспертом-редактором. Механика: встройте в промпт явные команды на ранжирование («топ-3 самых важных», «что даст 80% результата») + ограничения на объем — краткость ответа вырастает в 3-4 раза без потери сути.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с