3,583 papers
arXiv:2601.00282 63 1 янв. 2026 г. PRO

Квантизация и самообъяснения: как облегчённые модели теряют надёжность в объяснениях

КЛЮЧЕВАЯ СУТЬ
Квантизация — техника сжатия LLM для быстрой работы (модель занимает меньше памяти, работает быстрее). Исследователи проверили, как это влияет на самообъяснения — когда модель объясняет, почему дала такой ответ. Тестировали два типа объяснений: текстовые пошаговые рассуждения и минимально изменённые примеры, которые меняют ответ модели.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с