3,583 papers
arXiv:2510.18077 78 20 окт. 2025 г. PRO

Chain-of-Thought для контекстного перевода: когда пошаговое рассуждение работает (и когда нет)

КЛЮЧЕВАЯ СУТЬ
Парадокс: Подробные пошаговые инструкции улучшают работу сильных LLM на +5-6%, но ухудшают слабых на -2-4% — на одних и тех же задачах. Это эффект "wise get wiser": GPT-4 и Phi-4 умеют следовать сложным алгоритмам и выигрывают, LLaMA 3.1 8B и Mistral 7B запутываются и проигрывают. Метод Chain-of-Thought (CoT) позволяет отслеживать связи между элементами текста, разнесёнными по разным предложениям — местоимения, термины, логические цепочки. Вместо "переведи с учётом контекста" модель получает алгоритм: найти различие → определить причину → найти связанный элемент в предыдущем тексте → проверить характеристики → выбрать согласованный вариант. Для GPT-4/GPT-4o это +5-6% точности, для слабых моделей -2-4% провал.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с