3,583 papers
arXiv:2512.05073 77 4 дек. 2025 г. PRO

Агентный фреймворк для SLM: как маленькие модели побеждают большие через декомпозицию задач

КЛЮЧЕВАЯ СУТЬ
Маленькие языковые модели (7B параметров) проигрывают большим не из-за недостатка способностей, а из-за отсутствия структуры. DeepSeek-7B в лоб даёт 35% успеха, GPT-4 — 58%. Но добавь scaffolding (пошаговую структуру с валидацией) — и та же маленькая модель выдаёт 48-51%, почти догоняя GPT-4. При этом жрёт 0.55 Вт против 7.24 Вт — в 13 раз экономичнее. Метод позволяет получать качество дорогих моделей через дешёвые, разбивая сложную задачу на цепочку простых шагов с проверками. Фишка: маленькие модели отлично справляются с конкретными инструкциями, но тонут в расплывчатых запросах. Дай им чёткий план, примеры, критерии проверки — и они работают как junior-разработчик под руководством сеньора. Без этого scaffolding тот же junior беспомощен.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с