3,583 papers
arXiv:2507.20956 75 28 июля 2025 г. FREE

Парадокс: ChatGPT, Claude и прочие ассистенты выдают банальщину не потому что плохо обучены — а именно потому что хорошо обучены.

КЛЮЧЕВАЯ СУТЬ
Парадокс: ChatGPT, Claude и прочие ассистенты выдают банальщину не потому что плохо обучены — а именно потому что хорошо обучены. Дообучение на «следование инструкциям» статистически придавливает редкие, неожиданные токены и продвигает самые вероятные — то есть скучные. Это доказанный и измеримый эффект, особенно разрушительный в творческих задачах. Понимание этого механизма позволяет осознанно бороться с врождённым конформизмом модели: хотя само «конформативное декодирование» — это серверная магия недоступная пользователю — его принцип точно воспроизводится через промпт. Ключевой приём — явный запрет на клише плюс требование категорий разнообразия. Модель вынуждена лезть в менее «протоптанные» углы своих знаний и выдавать то, что в обычном режиме сама же и задавила бы.
Адаптировать под запрос

Исследование показывает, что процесс "дрессировки" языковых моделей, чтобы они лучше следовали инструкциям (instruction-tuning), делает их ответы менее разнообразными и более шаблонными. Этот эффект, названный "diversity gap" (разрыв в разнообразии), особенно заметен в творческих задачах. Авторы предлагают метод "конформативного декодирования", который во время генерации ответа "подмешивает" идеи от более "дикой" и креативной базовой модели к ответам послушной модели-ассистента.

Ключевой результат: Можно вернуть креативность и разнообразие в ответы модели-ассистента, если во время генерации сверяться с ее более творческой, но менее послушной "базовой" версией.

Представьте, что у вас есть два советника. Первый — это "Идеальный Ассистент": он вежлив, всегда следует инструкциям, но его идеи очень предсказуемы и скучны. Второй — это "Свободный Художник": он генерирует гениальные, дикие и оригинальные идеи, но часто игнорирует ваши просьбы и говорит невпопад.

Обычные чат-боты (ChatGPT, Claude) — это "Идеальные Ассистенты". Они стали такими после специального обучения, которое "убило" в них часть "Свободного Художника". Исследование доказывает этот факт и предлагает техническое решение: заставить "Идеального Ассистента" во время ответа прислушиваться к "шепоту" "Свободного Художника". Это позволяет получить ответ, который и следует инструкциям, и является оригинальным.

Для обычного пользователя, у которого нет доступа к "Свободному Художнику", практический вывод таков: вы должны в своем промпте заставить "Идеального Ассистента" играть роль "Свободного Художника". Вы должны осознанно бороться с его склонностью к безопасным и шаблонным ответам. Ваша задача — создать в промпте такие условия, которые будут поощрять новизну и наказывать за банальность.

  • Прямая применимость: Нулевая. Пользователь не может включить "конформативное декодирование" в настройках чат-бота. Этот метод требует запуска двух моделей и сложной логики на стороне сервера.

  • Концептуальная ценность: Очень высокая. Раскрываются ключевые идеи:

    • "Цена послушности": Понимание того, что за способность модели четко следовать инструкциям мы платим потерей ее креативности.
    • "Внутренний конформист": Модель по своей природе стремится к средним, безопасным, статистически вероятным ответам. Для получения чего-то выдающегося ее нужно из этого состояния выводить.
    • Две сущности модели: Помогает думать о модели не как о монолитном интеллекте, а как о сущности, в которой борются "послушный ученик" и "творческий хаос".
  • Потенциал для адаптации: Огромный. Хотя сам метод применить нельзя, можно адаптировать его принцип. Механизм адаптации — это промпт-инжиниринг, направленный на борьбу с конформизмом. Пользователь должен в своих запросах явно требовать разнообразия, запрещать клише и поощрять рискованные или необычные идеи. По сути, пользователь своим промптом имитирует "шепот" креативной базовой модели.

**Роль:** Ты — креативный директор рекламного агентства, известный своим бунтарским подходом и ненавистью к шаблонам. Твоя задача — придумать название для нового бренда органического шоколада.

**Контекст:** Бренд ориентирован на молодую аудиторию (20-30 лет), которая ценит экологичность, но устала от скучного "эко-стиля". Шоколад делается из редких какао-бобов из Перу, имеет необычные вкусы (например, с солью и перцем чили).

**Задача:** Сгенерируй 10 вариантов названия для бренда.

**Ключевые инструкции и ограничения (борьба с "diversity gap"):**

1.  **Избегай клише:** Категорически запрещено использовать слова "эко", "органик", "натуральный", "гармония", "природа", "добро" в названии.
2.  **Требование разнообразия:** Предложи названия из разных категорий:
    *   Несколько дерзких и провокационных.
    *   Несколько, отсылающих к мифологии или истории Перу.
    *   Несколько минималистичных и абстрактных.
    *   Одно совершенно странное, которое никто не ожидает.
3.  **Фокус на ощущениях:** Названия должны вызывать эмоции — удивление, любопытство, легкий шок, а не умиротворение.
4.  **Проверка на оригинальность:** Прежде чем дать ответ, мысленно проверь, не звучит ли это как название, которое уже могло бы существовать. Если да — отбрось его.

Этот промпт работает, потому что он напрямую атакует проблему "разрыва в разнообразии", выявленную в исследовании.

  • Инструкция "Избегай клише" — это прямой запрет на использование самых вероятных, "безопасных" токенов, к которым тяготеет дообученная модель. Мы искусственно сужаем ее шаблонное пространство ответов.
  • "Требование разнообразия" с четкой структурой (дерзкие, мифологические, странные) заставляет модель не просто выдать один хороший ответ, а исследовать разные, менее связанные друг с другом области своего "знания". Это имитирует запрос на широту охвата, которую дает базовая модель.
  • Роль "бунтарского креативного директора" помогает модели выйти из стандартной роли "полезного ассистента" и принять более рискованный стиль генерации.
  • "Проверка на оригинальность" — это промпт-версия самокритики, которая заставляет модель дополнительно отфильтровать наиболее очевидные варианты.
**Роль:** Ты — опытный путешественник и автор блога о "скрытых жемчужинах" городов. Ты презираешь стандартные туристические маршруты.

**Контекст:** Я еду в Рим на 4 дня. Я уже был(а) там раньше и видел(а) Колизей, Форум, Ватикан и фонтан Треви. Мне это больше не интересно.

**Задача:** Составь для меня план путешествия, который покажет мне "другой Рим".

**Ключевые инструкции и ограничения (борьба с "diversity gap"):**

1.  **Полное исключение "попсы":** В твоем плане не должно быть НИ ОДНОГО объекта из топ-20 достопримечательностей Рима по версии TripAdvisor. Сосредоточься на том, что знают только местные.
2.  **Требование разнообразного опыта:** План должен включать в себя:
    *   Посещение малоизвестного, но впечатляющего квартала (например, Quartiere Coppedè).
    *   Ужин в аутентичном ресторане, где нет меню на английском.
    *   Посещение странного музея или галереи современного искусства.
    *   Какое-то активное занятие (например, урок мозаики или кулинарный мастер-класс).
3.  **Конкретика вместо общих фраз:** Не пиши "погуляйте по району Трастевере". Напиши: "Найдите в Трастевере площадь Piazza di Santa Cecilia и послушайте уличных музыкантов, а затем зайдите в аптеку Santa Maria della Scala, которая работает с XVI века".
4.  **Избегай стандартных формулировок:** Не используй фразы вроде "насладитесь атмосферой", "погрузитесь в историю". Говори прямо и по делу, как будто даешь совет близкому другу.

Этот промпт эффективен, так как он использует принципы, вскрытые исследованием, для получения нетривиального результата в задаче планирования.

  • "Полное исключение 'попсы'" — это самый мощный инструмент в данном случае. Он блокирует для модели наиболее вероятные и заученные пути генерации ответа, заставляя ее искать информацию в менее "протоптанных" областях своей базы знаний.
  • "Требование разнообразного опыта" с конкретными категориями (квартал, ресторан, музей, активность) не дает модели свалиться в один тип рекомендаций (например, только музеи). Это заставляет ее комбинировать разные виды информации, что повышает разнообразие и полезность ответа.
  • Требование "Конкретики" борется с тенденцией дообученных моделей давать общие, безопасные и неконкретные советы. Это заставляет ее извлекать конкретные сущности (названия, адреса), что повышает качество и практичность ответа.
  • Роль "опытного путешественника" и тон "совета другу" помогают сместить фокус модели с формального ассистента на более персонализированного и знающего эксперта, что также способствует генерации менее шаблонных ответов.
📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Низкая. Исследование описывает метод декодирования (внутренний механизм модели), а не технику формулирования промпта.
  • B. Улучшение качества диалоговых ответов: Высокая. Напрямую решает проблему однообразия и предсказуемости ответов, особенно в творческих задачах, что является частой жалобой пользователей.
  • C. Прямая практическая применимость: Очень низкая. Пользователь не может применить "конформативное декодирование" в ChatGPT или Claude. Это требует доступа к базовой и дообученной модели одновременно и контроля над процессом генерации на уровне кода.
  • D. Концептуальная ценность: Очень высокая. Исследование блестяще объясняет, почему "полезные" и "послушные" модели (instruction-tuned) теряют в креативности и разнообразии. Оно дает пользователю ключевое понимание "проблемы разнообразия" (diversity gap) и объясняет фундаментальный компромисс между послушностью и оригинальностью.
  • E. Новая полезная практика (кластеризация):
    • Кластер 2 (Поведенческие закономерности LLM): Да. Четко выявляет закономерность: процесс дообучения на предпочтениях (DPO), делающий модель хорошим ассистентом, одновременно снижает разнообразие ее ответов.
    • Кластер 4 (Управление генерацией): Да. Хотя сам метод недоступен, он концептуально расширяет понимание того, как можно управлять генерацией (помимо temperature), смешивая "мнения" разных моделей.
  • Чек-лист практичности (+15 баллов):
    • Раскрывает неочевидные особенности поведения LLM? ДА. Объяснение "diversity gap" — это именно такая неочевидная, но критически важная особенность. Это дает +15 баллов к базовой оценке.
📌

Цифровая оценка полезности

Исследование получает 75 баллов. Базовая оценка находится в районе 60-65 баллов из-за почти нулевой прямой применимости основного метода. Однако его концептуальная ценность для понимания поведения LLM огромна. Добавление 15 баллов за раскрытие неочевидной, но важной поведенческой закономерности поднимает итоговую оценку до 75.

Аргументы за оценку: * Высокая концептуальная ценность: Работа дает пользователю "ментальную модель" для понимания, почему его запросы на креатив часто приводят к шаблонным ответам. Знание о "diversity gap" позволяет осознанно бороться с этим эффектом через промпт. * Объяснение компромисса: Пользователь начинает понимать, что послушность и креативность — это две разные цели, и для достижения второй нужно прилагать специальные усилия в промпте. * Практические выводы (косвенные): Поняв причину проблемы, пользователь может адаптировать свои промпты, чтобы искусственно "выталкивать" модель из зоны комфорта (например, требуя избегать клише, предлагать странные идеи и т.д.).

Контраргументы (почему оценка могла быть ниже): * Неприменимость метода: Основной предложенный метод ("conformative decoding") абсолютно недоступен обычному пользователю. Это чисто академическая/разработческая техника. * Фокус на метриках: Большая часть статьи посвящена метрикам оценки разнообразия (Vendi Score, MAUVE), что малополезно для пользователя, который пишет промпты.


📋 Дайджест исследования

Ключевая суть

Парадокс: ChatGPT, Claude и прочие ассистенты выдают банальщину не потому что плохо обучены — а именно потому что хорошо обучены. Дообучение на «следование инструкциям» статистически придавливает редкие, неожиданные токены и продвигает самые вероятные — то есть скучные. Это доказанный и измеримый эффект, особенно разрушительный в творческих задачах. Понимание этого механизма позволяет осознанно бороться с врождённым конформизмом модели: хотя само «конформативное декодирование» — это серверная магия недоступная пользователю — его принцип точно воспроизводится через промпт. Ключевой приём — явный запрет на клише плюс требование категорий разнообразия. Модель вынуждена лезть в менее «протоптанные» углы своих знаний и выдавать то, что в обычном режиме сама же и задавила бы.

Принцип работы

Думай о модели как о двух людях в одном теле. Первый — «Послушный ассистент»: вежливый, предсказуемый, всегда даёт безопасный ответ. Второй — «Свободный художник»: генерирует дикие и оригинальные идеи, но игнорирует инструкции. Дообучение сделало ассистента доминирующим — художника почти не слышно. Конформативное декодирование технически возвращает художнику голос, смешивая вероятности токенов обеих версий модели на каждом шаге генерации. Промпт-версия того же приёма: ты сам становишься «голосом художника» — явно запрещаешь безопасные варианты и требуешь исследовать разные, несвязанные области. Запрет клише сужает «протоптанную дорожку» и заставляет модель идти в лес. Требование категорий — дерзкое, мифологическое, странное — не даёт ей остановиться на первой же поляне.

Почему работает

Дообучение оптимизирует модель под «средний удовлетворительный ответ» — это значит, что токены с высокой статистической вероятностью получают преимущество при каждом шаге генерации. Результат: модель не просто «выбирает безопасное» — она буквально не видит другого пути, потому что вероятности нестандартных токенов подавлены. Когда промпт закрывает стандартные пути (запрет слов, запрет топ-20 мест, требование «совершенно странного варианта»), модель не может выбрать привычное — и начинает работать с менее частотными, а значит более оригинальными, ассоциациями. По сути, ты переписываешь условие задачи так, что банальный ответ становится неправильным ответом.

Когда применять

Творческие задачи с риском банальности: нейминг и брендинг — особенно когда рынок переполнен «экологичными гармониями»; мозговой штурм идей — когда нужны реально разные направления, а не вариации одной темы; нестандартные рекомендации — маршруты, подарки, сценарии — когда стандартный список убивает смысл задачи; написание текстов — когда важна голосовая уникальность, а не просто «хорошо написано». НЕ подходит для фактических запросов и аналитики: там конформизм модели — это точность, а не проблема. Если тебе нужна «правильная» структура отчёта — не воюй с ассистентом, он прав.

Мини-рецепт

1. Дай бунтарскую роль: не «помощник», а «креативный директор с ненавистью к шаблонам» или «путешественник, который презирает туристические маршруты». Роль смещает модель из режима вежливого ассистента.
2. Явно запрети очевидное: перечисли конкретные слова, места, форматы которые нельзя использовать. Не «избегай клише» (слишком абстрактно) — а «нельзя использовать слова: эко, органик, натуральный, гармония».
3. Потребуй категории разнообразия: укажи 3-4 разных типа ответов — дерзкое, мифологическое, абстрактное, странное. Это не даёт модели остановиться на одном направлении и заставляет исследовать несвязанные области.
4. Добавь самопроверку: попроси модель перед ответом проверить, не звучит ли вариант как уже существующий. Это дополнительный фильтр против самых очевидных решений.
5. Требуй конкретику: вместо «погуляйте по кварталу» — «найдите площадь X и зайдите в аптеку Y, которая работает с XVI века». Конкретика вытаскивает модель из режима общих советов.

Примеры

[ПЛОХО] : Придумай 10 названий для органического шоколадного бренда для молодёжи
[ХОРОШО] : Роль: ты — креативный директор, известный бунтарским подходом и ненавистью к предсказуемости. Задача: 10 названий для бренда шоколада из редких перуанских бобов с необычными вкусами (соль + чили). Аудитория: 20-30 лет, устали от скучного эко-стиля. Ограничения: категорически нельзя использовать слова «эко», «органик», «натуральный», «гармония», «природа». Требование разнообразия — предложи: несколько дерзких и провокационных, несколько отсылающих к мифологии Перу, несколько минималистичных, одно совершенно странное которого никто не ожидает. Самопроверка: перед ответом убедись, что ни одно название не звучит как уже существующий бренд — если да, отброси.
Источник: Mind the Gap: Conformative Decoding to Improve Output Diversity of Instruction-Tuned Large Language Models (2507.20956)
ArXiv ID: 2507.20956 | Сгенерировано: 2026-03-02 16:55

Проблемы LLM

ПроблемаСутьКак обойти
Дообученные модели тяготеют к среднемуМодели типа ChatGPT или Claude прошли специальное обучение: их учили быть полезными и безопасными. Побочный эффект — модель статистически подавляет редкие, нестандартные варианты ответа. Она выбирает то, что "обычно правильно". Для творческих задач это катастрофа: получаешь вежливый, структурированный, полностью предсказуемый ответЯвно заблокируй самые вероятные пути. Запрети конкретные слова и клише. Раздели запрос на категории с разными направлениями. Назначь роль, которая конфликтует со стандартным режимом "полезного ассистента"

Методы

МетодСуть
Анти-шаблонный запрос — разнообразие через запретыШаг 1 — Заблокируй очевидное. Прямо перечисли запрещённые слова, фразы, подходы. Например: "не используй слова 'гармония', 'природа', 'органик'". Это закрывает для модели самые вероятные пути. Шаг 2 — Требуй разные категории. Не "придумай 10 вариантов", а "придумай: 3 провокационных, 2 из мифологии, 1 абсурдный". Модель вынуждена искать в разных областях. Шаг 3 — Дай роль, которая враждебна шаблону. "Ты — бунтарь, который ненавидит стандарты" работает лучше чем "ты — эксперт". Шаг 4 — Попроси проверить себя. "Прежде чем ответить, проверь: мог ли этот вариант уже существовать? Если да — замени". Это встроенный фильтр очевидного. Почему работает: каждый запрет закрывает высоковероятный путь. Модель вынуждена идти туда, куда обычно не ходит — в менее "протоптанную" часть своих знаний. Работает для: нейминга, идей, сценариев, рекомендаций, планов. Не поможет: если нужен точный фактический ответ — разнообразие там не цель
📖 Простыми словами

Учитывайте разрыв: конформативное декодирование для улучшения разнообразия вывода больших языковых моделей с тонкой настройкой инструкций

arXiv: 2507.20956

Современные нейронки страдают от «кризиса однообразия»: после обучения на инструкциях они становятся предсказуемыми и скучными, как отличник на первой парте. Проблема в том, что модель всегда выбирает самый вероятный, «безопасный» вариант ответа, из-за чего разнообразие ответов падает на 20-30%. Исследователи называют это diversity gap — когда ИИ вроде бы умный, но выдает одни и те же шаблоны, убивая креатив на корню.

Это как если бы ты пришел в бар и попросил бармена сделать «что-нибудь эдакое», а он каждый раз наливал бы тебе обычный лагер, потому что это статистически самый популярный выбор. Формально он выполнил заказ, но по факту — обломал все ожидания. Чтобы заставить его реально смешать крутой коктейль, нужно не просто просить, а буквально бить по рукам каждый раз, когда он тянется к крану с пивом.

Чтобы вылечить эту тупость, используется метод Conformative Decoding — это когда мы заставляем модель смотреть не только на то, что она хочет сказать сейчас, но и на то, как она отвечала раньше. В промпте это решается через жесткие негативные ограничения и принудительное разделение на категории. Мы запрещаем слова-паразиты вроде «эко» или «натуральный» и заставляем модель прыгать между ролями: от перуанских мифов до полного абсурда. Это выбивает нейронку из колеи привычных вероятностей.

Принцип универсален: он работает не только для нейминга шоколада, но и для генерации кода, написания сценариев или разработки стратегий. Если не задать рамки оригинальности и не прописать «избегай клише», ты получишь среднюю температуру по больнице. Исследование доказывает, что без таких костылей LLM всегда будет скатываться в банальщину, потому что так она обучена — угождать большинству.

Короче: если хочешь от нейронки чего-то живого, перестань давать ей свободу — наоборот, зажми её в тиски специфичных требований. Нужно явно прописывать запреты на очевидные решения и требовать разные стили в одном ответе. Только так можно победить эффект предсказуемости и заставить алгоритм выдать что-то, что не выглядит как сгенерированный мусор. Кто не умеет ломать шаблоны в промпте, тот обречен получать «гармонию природы» до конца своих дней.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с