3,583 papers
arXiv:2508.18395 72 25 авг. 2025 г. PRO

LSC (Latent Self-Consistency): семантический консенсус через обучаемые токены

КЛЮЧЕВАЯ СУТЬ
LLM генерирует 10 ответов на один вопрос — получаешь 10 разных формулировок одной мысли. Простое совпадение строк (Self-Consistency) падает на длинных ответах: "Париж" совпадёт, а объяснение теоремы Пифагора в 200 слов — никогда, даже если смысл идентичен. LSC решает проблему выбора правильного ответа из множества семантически похожих, но текстуально разных вариантов. Метод обучает 6 специальных токенов (24 тысячи параметров из 8 миллиардов) создавать семантический отпечаток ответа. Модель сравнивает эти отпечатки через косинусное сходство и выбирает ответ-консенсус — тот, который максимально согласуется со всеми остальными по смыслу. Overhead: меньше 1% времени и ~0% памяти (конкуренты USC добавляют +10% времени и +15% памяти).
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с