3,583 papers
arXiv:2510.22823 75 26 окт. 2025 г. PRO

Многоязычная стабильность моделей: как язык промпта влияет на результат

КЛЮЧЕВАЯ СУТЬ
Переводишь только инструкцию, текст оставляешь тот же — а open-weight модели меняют вывод в 30-40% случаев. Исследование показывает как выбрать стабильную модель для многоязычных задач (русский + английский + другие). Проверили 6 моделей (Claude, GPT, Gemini, DeepSeek, LLaMA, Mistral) на 7 языках в задаче детекции нарушений прав человека. Результат: коммерческие модели держат F1-score 0.75-0.80 на всех языках, open-weight скачут от 0.40 до 0.80. Причина: выравнивание (alignment), а не размер модели.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с