3,583 papers
arXiv:2510.03528 88 3 окт. 2025 г. PRO

Noisy Fine-Tuning – дообучение на «кривых» инструкциях делает LLM устойчивее к ошибкам

КЛЮЧЕВАЯ СУТЬ
Модели, обученные на инструкциях с опечатками и перемешанными словами, работают лучше на реальных запросах пользователей, чем модели на «идеальных» данных. Метод позволяет не тратить время на вычитку каждой буквы в промпте — модель восстановит смысл из несовершенной формулировки. «Шум» в обучении заставляет LLM искать семантическое ядро задачи, а не цепляться за поверхностные признаки вроде порядка слов. Результат: модель понимает запрос даже с опечатками, но ломается при замене ключевых смысловых слов — именно они критичны, а не грамматика.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с