3,583 papers
arXiv:2601.01685 72 4 янв. 2026 г. PRO

Generative Montage: манипуляция через правдивые факты

КЛЮЧЕВАЯ СУТЬ
Парадокс: Модели с продвинутым логическим выводом (DeepSeek-R1, Qwen с CoT) попадаются на манипуляции на 3-5% чаще, чем базовые версии. Причина: они активно ищут нарративную связность и не могут удержаться от построения причинной цепочки из фрагментов. Это исследование атаки Generative Montage, где боты координированно постят правдивые факты в специальной последовательности. Жертва (LLM-аналитик) читает поток и сама строит ложный вывод. Фишка атаки: каждый фрагмент правдив и проверяем изолированно, ложь возникает только в голове жертвы при синтезе. Результат: 74.4% успешных атак на проприетарные модели, 60%+ ложных ратификаций даже при проверке несколькими аналитиками.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с