3,583 papers
arXiv:2507.04404 85 6 июля 2025 г. PRO

LayerCake: токенно-ориентированное контрастивное декодирование в слоях больших языковых моделей

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM обрабатывает токены поэтапно — ранние слои фокусируются на структуре и пунктуации, средние слои концентрируются на ключевых понятиях и смысле. LayerCake позволяет выявлять и устранять фактические ошибки в реальном времени, используя это знание о внутренней механике модели. Метод сравнивает два пути генерации: нормальный и «саботированный» (где средние слои намеренно игнорируют ключевые концепты) — если слово имеет высокую вероятность в нормальном ответе и низкую в испорченном, оно фактологически верное. Точность фактов выросла на 15-20% без переобучения модели.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с