3,583 papers
arXiv:2502.08550 96 12 фев. 2025 г. PRO

Implicit Learning from Mistakes – обучение LLM на контрасте без объяснений

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM при виде подробных объяснений ошибок в примерах склонна копировать стиль объяснения, а не извлекать суть логики — отсюда феномен «сверхограничения» (over-constraining). Метод позволяет научить модель избегать типичных ошибок без траты времени на формулировку объяснений — достаточно показать контраст. Вместо «Задача → Ошибка → Объяснение → Правильный ответ» используется «Задача → Ошибка → Правильный ответ» — модель сама анализирует разницу. Это заставляет её самостоятельно выявлять паттерны, а не поверхностно следовать стилю ваших комментариев — рост точности с 67% до 89% в логических задачах.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с