3,583 papers
arXiv:2603.24124 74 25 мар. 2026 г. PRO

Alignment Tax: почему ChatGPT даёт одинаковые ответы и как это использовать

КЛЮЧЕВАЯ СУТЬ
Проверить ответ LLM повторным вопросом — одна из самых распространённых практик. Она не работает. Выровненные модели — ChatGPT, Claude, Gemini, всё что прошло обучение на предпочтениях (DPO) — в 40–79% случаев дают семантически одинаковый ответ при повторном запросе. Не потому что знают правду, а потому что выучили «правильную» позицию и держатся за неё. Метод Verbalized Sampling позволяет разбить эту эхо-камеру: явно попросить несколько противоречащих друг другу позиций и восстановить ~67% разнообразия невыровненной модели. Фишка: запрет на повторение аргументов между ответами — ключевой элемент. Без него модель схлопнется в семантически одинаковые версии одного ответа. С ним — три роли реально противоречат друг другу. Разнообразие не выключено — просто его нужно явно потребовать.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с