3,583 papers
arXiv:2509.01267 87 1 сент. 2025 г. PRO

Итеративный Few-Shot: учим LLM на её ошибках

КЛЮЧЕВАЯ СУТЬ
LLM лучше учится на простых примерах и масштабирует знания на сложные задачи, чем если сразу давать примеры той же сложности. Звучит нелогично, но работает: Gemini 2.0 решает только 35% задач с перевёрнутым приоритетом операций (сложение важнее умножения), DeepSeek-Chat — 34%. Метод итеративного few-shot позволяет научить модель нестандартным правилам (формулы компании, специфическая логика расчётов), которые конфликтуют с базовыми знаниями. Фишка: собираешь примеры не случайно, а из задач где модель ошибается. Прогоняешь модель через обучающий набор, каждый провал → добавляешь в few-shot промпт. Так создаёшь промпт заточенный под слабые места конкретной модели.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с