3,583 papers
arXiv:2511.03005 65 4 нояб. 2025 г. PRO

Целенаправленная коррекция ошибок в дистилляции знаний: малые языковые модели превосходят GPT

КЛЮЧЕВАЯ СУТЬ
Проблема: Попытка написать один «идеальный» промпт, который сразу даст безупречный результат, проваливается чаще, чем кажется — LLM систематически добавляет выдуманные факты, лишние эмоции и вежливую воду. Метод ARF позволяет получать стабильно качественные ответы через итеративную коррекцию: сначала генерация черновика, затем анализ типичных ошибок, потом целевое исправление вторым промптом. Вместо редактирования текста вручную вы «скармливаете» его обратно модели со специальным коротким промптом-фильтром типа «Удали все выдуманные эмоции» или «Убери упоминания несуществующих исследований». Исследование показало: маленькая модель, дообученная на данных с целевым исправлением ошибок, превосходит GPT-3.5 — это доказывает силу подхода.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с