Доступные всем инструменты искусственного интеллекта многократно усилили пророссийскую дезинформацию — в сети массово появляются поддельные изображения, видео, QR-коды и сайты.
Пророссийская дезинформационная кампания активно использует потребительские инструменты искусственного интеллекта, создавая настоящий «взрыв контента». Его цель — обострить существующую напряженность вокруг выборов по всему миру, войны в Украине и миграции, а также других острых тем. Об этом говорится в новом исследовании, опубликованном на прошлой неделе.
Кампания известна под разными названиями: «Операция Перегрузка«, «Матрёшка» (некоторые исследователи также связывают её с кодовым названием Storm-1679). Она действует с 2023 года, и несколько организаций, включая Microsoft и Институт стратегического диалога, установили её связь с российским правительством. Участники кампании распространяют ложную информацию, маскируясь под СМИ, и явно стремятся посеять раздор в демократических странах. Хотя операция нацелена на аудиторию по всему миру, включая США, главной мишенью остается Украина. Сотни обработанных ИИ видеороликов пытаются продвигать пророссийские нарративы.
В отчете показано, как с сентября 2024 по май 2025 года объем контента, который производят организаторы кампании, резко вырос и теперь набирает миллионы просмотров по всему миру.
Исследователи выявили 230 уникальных материалов, которые продвигала кампания с июля 2023 по июнь 2024 года — изображения, видео, QR-коды и поддельные сайты. За последние восемь месяцев «Операция Перегрузка» выпустила уже 587 уникальных материалов, большинство из которых создано с помощью ИИ-инструментов.
По словам исследователей, такой всплеск стал возможен благодаря потребительским ИИ-инструментам, доступным бесплатно в интернете. Легкий доступ к ним позволил кампании применить тактику «амальгамации контента» — когда организаторы операции создают множество материалов, продвигающих одну и ту же историю.
«Это свидетельствует о переходе к более масштабным, многоязычным и все более изощренным пропагандистским методам», — пишут в отчете исследователи из Reset Tech (лондонская некоммерческая организация, отслеживающая дезинформационные кампании) и Check First (финская IT-компания). «За последние восемь месяцев кампания значительно нарастила производство нового контента, что говорит о переходе к более быстрым и масштабируемым методам создания материалов».
Исследователей поразило разнообразие инструментов и типов контента в этой кампании. «Больше всего меня удивило разнообразие контента и различные типы материалов, которые они стали использовать», — рассказывает WIRED Александра Атанасова, ведущий специалист по анализу открытых источников в Reset Tech. «Словно они расширили свою палитру, чтобы охватить как можно больше различных аспектов этих историй. Они накладывают друг на друга разные типы контента».
Атанасова добавила, что участники кампании, судя по всему, не используют специально созданные ИИ-инструменты, а полагаются на общедоступные генераторы голоса и изображений.
Хотя определить все инструменты, которыми пользуются организаторы кампании, было сложно, исследователям удалось выделить один конкретный: Flux AI.
Flux AI — это генератор изображений по текстовому описанию, разработанный немецкой компанией Black Forest Labs, основанной бывшими сотрудниками Stability AI. С помощью инструмента анализа изображений SightEngine исследователи установили с 99-процентной вероятностью, что ряд поддельных изображений от кампании «Перегрузка» были созданы именно в Flux AI. Некоторые из этих изображений якобы показывали мусульманских мигрантов, устраивающих беспорядки и поджоги в Берлине и Париже.
Исследователи смогли воспроизвести изображения, очень похожие по стилистике на опубликованные, используя запросы с дискриминационной лексикой — например, «злые мусульманские мужчины».
Это показывает, «как ИИ-модели для генерации изображений по тексту можно использовать для разжигания расизма и антимусульманских стереотипов», — отмечают исследователи. По их словам, это поднимает «этические вопросы о том, как работают текстовые запросы в различных ИИ-моделях».
«Мы внедряем множественные уровни защиты, чтобы предотвратить незаконное использование, включая метаданные происхождения, которые позволяют платформам определять ИИ-контент. Мы также поддерживаем партнеров во внедрении дополнительных инструментов модерации и отслеживания происхождения», — сообщил WIRED представитель Black Forest Labs. «Предотвращение злоупотреблений требует многоуровневых мер защиты и сотрудничества разработчиков, социальных платформ и властей. Мы по-прежнему привержены поддержке этих усилий».
Атанасова рассказала WIRED, что в изображениях, которые изучали она и её коллеги, метаданных не было.
«Операция Перегрузка» также применяет технологию клонирования голоса с помощью ИИ для обработки видео — создается впечатление, что известные люди говорят то, чего никогда не говорили. Количество видео, произведенных кампанией, выросло со 150 (с июня 2023 по июль 2024 года) до 367 (с сентября 2024 по май 2025 года). По словам исследователей, большинство видео за последние восемь месяцев использовали ИИ-технологии для обмана зрителей.
Например, в феврале кампания опубликовала в X видео с Изабель Бурдон, старшим преподавателем и исследователем французского университета Монпелье. В ролике она якобы призывает немецких граждан участвовать в массовых беспорядках и голосовать за крайне правую партию «Альтернатива для Германии» (AfD) на федеральных выборах. На самом деле это подделка: кадры взяты из видео на официальном YouTube-канале университета, где Бурдон рассказывает о недавно полученной премии в области социальных наук. Но в обработанном ролике технология клонирования голоса создает впечатление, что она обсуждает немецкие выборы.
ИИ-контент от «Операции Перегрузка» распространяется через более 600 Telegram-каналов, а также ботов в социальных сетях — X и Bluesky. В последние недели материалы впервые появились и в TikTok. Это заметили в мае: хотя аккаунтов было всего 13, опубликованные ими видео набрали 3 миллиона просмотров, прежде чем платформа понизила их в выдаче.
«Мы очень внимательно следим за теми, кто пытается манипулировать нашей платформой, и уже удалили аккаунты из этого отчета», — сообщила WIRED представитель TikTok Анна Сопел. «Мы постоянно выявляем и пресекаем скрытые операции влияния, опережая их, и прозрачно отчитываемся о нашем прогрессе каждый месяц».
Исследователи отметили, что Bluesky заблокировал 65% поддельных аккаунтов, а «X предпринял минимальные действия, несмотря на многочисленные сообщения об операции и растущие доказательства координации». X и Bluesky не ответили на запросы о комментариях.
После создания поддельного и ИИ-контента «Операция Перегрузка» делает нечто необычное: рассылает электронные письма сотням СМИ и фактчекинговых организаций по всему миру. В письмах — примеры их поддельного контента на различных платформах и просьбы к фактчекерам проверить, правда это или нет.
Хотя может показаться странным, что дезинформационная кампания сама уведомляет тех, кто борется с дезинформацией, для пророссийских операторов конечная цель — добиться размещения их контента в настоящих новостных изданиях, пусть даже с пометкой «ФЕЙК».
По данным исследователей, с сентября 2024 года было отправлено до 170 000 таких писем более чем 240 получателям. Сообщения обычно содержали множественные ссылки на ИИ-контент, но сам текст письма создавался без использования ИИ.
Пророссийские дезинформационные группы уже давно экспериментируют с ИИ-инструментами для наращивания своих возможностей. В прошлом году группа CopyCop, предположительно связанная с российским правительством, использовала большие языковые модели (LLM) для создания поддельных сайтов, имитирующих легитимные СМИ. Хотя такие ресурсы обычно не получают много трафика, сопутствующая реклама в социальных сетях может привлечь внимание, и иногда ложная информация попадает в топ результатов поиска Google.
Недавний отчет American Sunlight Project оценивает, что российские дезинформационные сети производят минимум 3 миллиона ИИ-статей в год, и этот контент отравляет результаты работы ИИ-чатботов вроде ChatGPT от OpenAI и Gemini от Google.
Исследователи неоднократно показывали, как организаторы дезинформации осваивают ИИ-инструменты. Поскольку людям становится все труднее отличить настоящий контент от созданного ИИ, эксперты прогнозируют продолжение роста ИИ-материалов в дезинформационных кампаниях.
«У них уже есть работающий рецепт», — говорит Атанасова. «Они знают, что делают».
Источник: WIRED