3,583 papers
arXiv:2508.14704 70 20 авг. 2025 г. PRO

MCP-Universe: бенчмарк для тестирования LLM на реальных инструментах через Model Context Protocol

КЛЮЧЕВАЯ СУТЬ
Парадокс: Подключи к LLM 94 инструмента вместо 20 релевантных — точность упадёт с 22% до 11%. Больше возможностей = хуже результаты. MCP-Universe — первый бенчмарк для тестирования LLM на реальных внешних инструментах (Google Maps, GitHub, финансовые API) через Model Context Protocol. Даже GPT-5 проваливает 56% задач, Claude-4.0 — 70%. Исследователи обнаружили три критические проблемы: long context (контекст раздувается до 60-80k токенов, модель теряет фокус), unknown tools (LLM не знают точных требований API), more tools = worse (шум от нерелевантных инструментов сильнее пользы от выбора).
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с