3,583 papers
arXiv:2601.02224 77 5 янв. 2026 г. PRO

От технических чисел к историям: что влияет на качество объяснений от LLM

КЛЮЧЕВАЯ СУТЬ
Парадокс: Технические объяснения SHAP/LIME, chain-of-thought рассуждения и прозрачные статистические модели не улучшают качество объяснений от LLM — а иногда ухудшают. Факторный эксперимент (660 объяснений прогнозов энергопотребления через 3 LLM × 8 стратегий промптинга × 4 ML-модели) показывает иерархию влияния: выбор модели объясняет до 50% разницы в качестве, способ промптинга — 14%, наличие XAI-данных — всего 2%. Фишка: DeepSeek-R1 обогнал GPT-4o по трём из четырёх критериев, простой zero-shot почти догнал дорогую self-consistency (0.09 балла разницы при семикратной экономии токенов), а классическая SARIMAX с прозрачными коэффициентами дала худшие объяснения чем чёрные ящики XGBoost и Random Forest.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с