3,583 papers
arXiv:2508.19089 78 26 авг. 2025 г. PRO

Language Alignment in ICL: как научить LLM понимать язык через параллельные примеры

КЛЮЧЕВАЯ СУТЬ
Парадокс: Дообучение на 700 примерах даёт оверфит и точность 30%, а 3 параллельных примера в промпте — 49%. Для языков которых почти нет в предобучении LLM (татарский, узбекский, языки меньшинств), file-tuning проваливается из-за побайтовой токенизации. Language Alignment решает проблему: добавь в промпт пары "текст на языке X + его английский перевод" БЕЗ меток задачи — модель начинает улавливать связи между языками и понимать незнакомую речь. Два варианта: sentence-level (параллельные предложения целиком) и word-level (словарь: слово→перевод).
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с