3,583 papers
arXiv:2511.21689 74 26 нояб. 2025 г. PRO

ToolOrchestra: маленькая модель-дирижер управляет большими моделями

КЛЮЧЕВАЯ СУТЬ
Парадокс делегирования: GPT-5 в 73% случаев перекидывает задачи на GPT-5-mini — даже сложные. Qwen3-8B наоборот — в 66% случаев вызывает GPT-5, даже для простых задач. Обе стратегии провальные. Метод ToolOrchestra позволяет обучить маленькую модель (8B параметров) быть дирижером для больших моделей и инструментов — она решает какую модель вызвать для каждой подзадачи, минимизируя стоимость при сохранении качества. Маленькую модель обучают через reinforcement learning с наградами за правильность ответа, низкую стоимость и соблюдение предпочтений. Модель учится разбивать задачи и делегировать: простое — дешевым моделям, сложное — дорогим, специализированное — экспертным. Результат: превзошла GPT-5 (37.1% vs 35.1%) при стоимости в 2.5 раза ниже.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с