3,583 papers
arXiv:2601.01341 72 4 янв. 2026 г. PRO

Reasoning > Recall: почему общие модели лучше специализированных в RAG-системах

КЛЮЧЕВАЯ СУТЬ
Парадокс: Чем больше модель дообучена (fine-tuned) на узком домене, тем хуже она использует новую информацию. Эксперимент в RAG-системе (поиск по базе знаний + генерация ответа) показал: общая модель Qwen2.5 на 3 миллиарда параметров получила оценку эмпатии 3.72 из 5, специализированные психологические модели на 7 миллиардов – 3.26 и 3.24 (p < 0.001). Специализация убивает гибкость – модель игнорирует предоставленный контекст и выдаёт заученные шаблоны типа "попробуйте дыхательные упражнения", не связанные с ситуацией пользователя. В системах с доступом к информации важнее способность рассуждать над ней, чем заученная терминология.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с