TL;DR
Когда просишь LLM выбрать лучшие посты, отзывы, статьи или комментарии из большого списка — модель не нейтральна. У неё есть скрытые предпочтения, встроенные при обучении. Ключевое открытие: одно слово-фрейм в промпте — "engaging", "informative", "popular" — меняет паттерн отбора радикально, в 4 раза сильнее, чем смена самой модели.
По умолчанию LLM предпочитает поляризующий, конфликтный контент. Даже нейтральный промпт («выбери лучшее») выводит наверх спорные, эмоционально заряженные материалы — потому что модели обучены на данных, где такой контент получал больше реакций. Написал «engaging» — токсичность в подборке резко растёт. Написал «popular» — политическая деформация почти исчезает. Написал «informative» — подборка становится чище и фактичнее.
Итог: при каждой просьбе «отбери лучшее» ты неявно выбираешь фрейм. Теперь это можно делать осознанно — зная, какое слово даёт какой эффект.
Схема метода
НЕ ТЕХНИКА, А КАРТА ПОВЕДЕНИЯ LLM ПРИ КУРИРОВАНИИ
ФРЕЙМ В ПРОМПТЕ → ЧТО ПОЛУЧИШЬ
─────────────────────────────────────────────────────
"informative" → ↓ токсичность, ↑ фактический тон
"popular" → ↓ политическая деформация, ↑ нейтральность
"engaging" → ↑ поляризация, ↑ негативный тон, ↑ токсичность (!)
"neutral" / "" → дефолт = сильная поляризующая предвзятость
"controversial" → максимальная поляризация + политическая однобокость
─────────────────────────────────────────────────────
ПРИМЕНЕНИЕ:
ШАГ 1: Выбери фрейм под задачу (см. карту выше)
ШАГ 2: Вставь его в промпт ("наиболее informative для...")
ШАГ 3: Передай список текстов/заголовков
ШАГ 4: Получи выборку — зная её вероятную предвзятость
Пример применения
Задача: У тебя Telegram-канал для сети кофеен «ВкусноТут» (15 городов). Каждую пятницу — дайджест: 5 материалов о кофейной культуре, бизнесе, гастро-трендах. Раньше просил ChatGPT «выбери лучшие» — подборка получалась тревожной и конфликтной, подписчики жаловались на тон.
Промпт:
Ты куратор контента для кофейного Telegram-канала с аудиторией
предпринимателей и любителей кофе.
Отбери 5 наиболее INFORMATIVE материалов из списка ниже —
тех, которые дадут подписчикам реальную пользу и новое знание.
Критерии:
— Приоритет: практическая ценность, факты, экспертиза
— Избегай: скандалы, конфликты, кликбейт
Список материалов:
1. [заголовок/первые 2 предложения материала]
2. ...
(до 30 штук)
Для каждого выбранного: номер + одна строка — почему он попал в топ.
Результат:
Модель выдаст 5 пронумерованных позиций с кратким обоснованием выбора каждой. Благодаря фрейму informative — подборка будет смещена в сторону фактических, образовательных материалов, а токсичный и конфликтный контент окажется внизу рейтинга. Это не гарантия идеального, но статистически значимо чище, чем при нейтральном или пустом фрейме.
Почему это работает
LLM нейтральной не бывает — у неё нет «объективного» критерия «лучшего». Есть паттерны из обучающих данных: контент с высокой вовлечённостью (споры, скандалы, негатив) встречался чаще и получал больше ссылок. Поэтому модель по умолчанию тянется к поляризующему — не злонамеренно, просто так устроены веса.
Слово-фрейм в промпте активирует другую группу паттернов. «Informative» → модель переключается на ассоциации с образовательными, энциклопедическими текстами, где токсичность низкая. «Engaging» → ассоциация с соцсетями, где высокая вовлечённость исторически означала эмоциональный, часто негативный контент. Ты не перепрограммируешь модель — ты выбираешь, какой её режим активировать.
При этом не все предвзятости поддаются управлению через промпт. Политическая предвзятость меняется в 4 раза меньше, чем, например, словарный тон — потому что она встроена глубже, через тысячи косвенных ассоциаций. Фрейм popular заметно её снижает, но не устраняет.
Рычаги управления:
| Что менять | Какой эффект |
|---|---|
Фрейм: informative вместо engaging |
Меньше токсичности, чище тон |
Фрейм: popular |
Меньше политической деформации |
| Добавить явный критерий «избегай скандалов» | Дополнительный фильтр поверх фрейма |
| Выбор модели | GPT-4o Mini — стабильнее; Claude/Gemini — сильнее реагируют на фрейм (и на токсичность) |
Шаблон промпта
Ты куратор контента для {описание канала/рассылки/проекта}.
Отбери {число} наиболее {фрейм} материалов из списка ниже
для {целевая аудитория}.
Критерии отбора:
— Приоритет: {что важно}
— Избегай: {что исключить}
Список материалов:
{материалы — заголовки, первые предложения или полные тексты}
Для каждого выбранного: номер + одна строка обоснования.
Что подставлять:
{фрейм}— ключевое слово по карте выше:informative,popular,informative and relevant,useful(близко к informative){описание канала}— тематика и тон площадки{целевая аудитория}— кто читает{что исключить}— явно напиши "скандалы", "кликбейт", "токсичные темы" — это работает как дополнительный слой поверх фрейма
🚀 Быстрый старт — вставь в чат:
Вот шаблон для курирования контента с контролем предвзятости LLM.
Адаптируй под мою задачу: {твоя задача — что отбираешь, для кого, в каком канале}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про тематику площадки, аудиторию и нужный фрейм — потому что без этого невозможно выбрать правильный ориентир для отбора. Она возьмёт паттерн из шаблона и подберёт формулировку под твою задачу.
Ограничения
⚠️ Поляризация не устраняется полностью: Все фреймы снижают её, но ни один не обнуляет. Это глубокая системная предвзятость всех текущих LLM — результат обучения на интернет-данных с высокой долей конфликтного контента.
⚠️ Политическая предвзятость устойчива к промптам: Фрейм
popularснижает её заметно,controversial— усиливает. Но полностью убрать нельзя — она проходит через косвенные ассоциации, а не прямые сигналы.
⚠️ Engaging — опасный фрейм: Если просишь выбрать «самое вовлекающее» — получишь повышенную токсичность и негативный тон. Claude и Gemini реагируют сильнее GPT-4o Mini.
⚠️ Результаты на социальных сетях: Исследование проводилось на постах Twitter/X, Bluesky, Reddit. На других типах контента (B2B-статьи, академические тексты) паттерны могут отличаться.
⚠️ Модели ведут себя по-разному: GPT-4o Mini — самый стабильный, меньше прыгает при смене фрейма. Claude и Gemini — более адаптивны, но и более непредсказуемы в токсичности.
Как исследовали
Исследователи из Цюриха, NYU, Duke и Амстердама поставили масштабный эксперимент: 540 000 симулированных отборов через три модели (GPT-4o Mini, Claude Sonnet 4.5, Gemini 2.0 Flash), три платформы (Twitter/X, Bluesky, Reddit) и шесть вариантов промпта. Каждый раз модель получала 100 случайных постов и выбирала топ-10 — без метаданных о лайках, репостах или авторах.
Дизайн был намеренно строгим: модели видели только текст постов, никаких подсказок о популярности или авторе. Это значит, что вся наблюдаемая предвзятость идёт из обучения, а не из явных сигналов. Для измерения использовали статистические метрики эффекта (Cohen's d, Cramér's V), а не субъективные оценки.
Самый неожиданный результат: нейтральный промпт дал вторую по силе поляризацию — сразу после controversial. Когда нет явных инструкций, модель выходит на «дефолт», который оказался сильно заряженным. Это противоречит интуиции: казалось бы, меньше указаний → меньше искажений. Всё наоборот.
Политическую предвзятость выявили только на Twitter/X — единственной платформе, где можно было извлечь демографические данные из биографий профилей. Авторы левых взглядов попадали в рекомендации систематически больше, несмотря на то что в пуле их было меньше. И это происходило у всех трёх моделей — что говорит об общем источнике, а не провайдер-специфической настройке.
Адаптации и экстраполяции
1. Использовать popular как базовый фрейм для контента, где важна политическая нейтральность
🔧 Техника: фрейм
popular→ минимальная политическая деформацияЕсли делаешь дайджест новостей для смешанной аудитории (корпоративная рассылка, общий канал) — фрейм
popularстатистически даёт наименьший политический перекос. Не потому что «популярное» нейтральнее, а потому что этот фрейм активирует другие ассоциации, менее связанные с политическими маркерами.
2. Двойная проверка: два фрейма на один список
Отправь одинаковый список с промптом informative, потом с engaging. Сравни пересечение — посты, которые попали в обе выборки, скорее всего, действительно сильные и не вытащены только за счёт скандальности или токсичности.
Промпт 1: «Отбери 10 наиболее informative постов из списка...»
Промпт 2: «Отбери 10 наиболее engaging постов из того же списка...»
→ Пересечение двух списков = надёжный топ
3. Явный счётчик баланса поверх фрейма
Если важна политическая нейтральность — добавь явное ограничение, не полагайся только на фрейм:
...Важно: в финальном списке должны быть представлены
разные точки зрения — не больше 2 материалов от авторов
с явной идеологической позицией...
Фрейм + явное ограничение работают лучше, чем каждый по отдельности.
Ресурсы
Название работы: Polarization by Default: Auditing Recommendation Bias in LLM-Based Content Curation
Авторы: Nicolò Pagan (Университет Цюриха), Christopher Barrie (NYU / Оксфорд), Chris A. Bail (Университет Дьюка), Petter Törnberg (Университет Амстердама)
Связанные инструменты, упомянутые в работе: BONSAI (Malki et al., 2025) — фреймворк для пользовательского LLM-курирования; Attie (Bluesky) — агентный построитель лент на Claude
