Site icon SOVA

«Революция в методах политического влияния». Как ИИ используется в российских кампаниях по дезинформации

russian 95.png 95 Новости BBC искусственный интеллект

Это перевод материала с сайта BBC News. С оригиналом на английском языке можно ознакомиться здесь.

Как и любой типичный пользователь соцсетей, профессор Королевского колледжа Лондона Алан Рид не придавал особого значения дипфейкам, которые время от времени появлялись в его лентах. Иногда он жаловался на них соцсетям, а иногда просто скроллил дальше. Пока однажды неизвестный аккаунт не отметил профессора на видео с его собственным лицом.

В этом видео сгенерированный голос, почти идентичный голосу Рида, разразился политической тирадой, направленной против президента Франции Эммануэля Макрона. Фейковый профессор говорил, что западные лидеры оказались «на борту „Титаника“ с надписью „Евросоюз“ на корпусе».

«Почти все в этом видео было вопиющим, и было ужасно слушать его, — сказал Би-би-си Алан Рид, профессор-театровед, никаким образом не связанный с политикой. — Это кажется мне… чем-то совершенно чужеродным».

Использование образа ничего не подозревающего профессора Рида — лишь один пример сгенерированных видео, связанных с Россией, которые заполнили соцсети в последние месяцы. Специалисты по безопасности предупреждают, что Западу надо готовиться к борьбе с влиянием Кремля в сфере искусственного интеллекта.

«Мы наблюдаем не просто резкий рост числа дипфейков, но и изменения в том, как создаются подобного рода материалы», — говорит Крис Кремидас-Кортни, аналитик по вопросам обороны и безопасности в Центре европейской политики.

«Перед нами системы, которые могут генерировать <…> убедительные материалы за копейки. С моей точки зрения, это революция в методах политического влияния, и ни одна из наших нынешних государственных систем не готова противостоять этому», — поясняет он.

В этих видео дискредитируются институты Евросоюза, а украинское правительство обвиняется в коррупции ровно в то время, когда Киев пытается получить финансирование от западных союзников для противостояния России на пятый год полномасштабной войны.

Некоторые такие видео набрали сотни тысяч просмотров.

Число дипфейков резко выросло через несколько месяцев после того, как компания OpenAI выпустила Sora2 — новейшую версию сервиса для генерации видео. По сравнению с прошлой версией, результат получается намного более реалистичным.

Многочисленные другие приложения пытаются отобрать у гиганта OpenAI долю рынка. Для этого они снижают цены или отказываются от мер предосторожности — например, от водяных знаков, которыми обозначены все видео Sora2, чтобы их можно было отличить от настоящих — не сгенерированных — видеозаписей.

«Им надо привлечь пользователей», — говорит российский эксперт по ИИ Арман Туганбаев. В то время как OpenAI старается предотвратить попытки генерировать видео с реальными людьми, «приложения второго сорта дают и такую опцию», добавляет он.

В OpenAI заявили Би-би-си, что компания принимает меры против аккаунтов, которые совершают обманные действия, направленные на причинение вреда, в том числе — тех, кто делает ложные утверждения о происхождении материала. отчете OpenAI о борьбе со злоупотреблениями за февраль 2026 года упоминается блокировка аккаунтов, связанных с телеграм-каналом «Рыбарь», который, в свою очередь, связан с российскими силовиками. — Русская служба Би-би-си).

Благодаря технической гонке кампании по иностранному влиянию постоянно становятся как более масштабными, так и более искусными, усиливая положение России в ее гибридном конфликте с Западом.

В декабре прошлого года множество видео, сгенерированных при помощи ИИ, стали вирусными в TikTok: на них молодые полячки якобы призывали к «Полкзиту», то есть выходу Польши из Евросоюза.

«Нет никаких сомнений в том, что это — российская дезинформация, — говорит пресс-секретарь правительства Польши Адам Шлапка. — Если присмотреться, то можно заметить, что в этих видео используется русский синтаксис».

Польша призвала Европейскую комиссию провести расследование в отношении TikTok в связи с инцидентом.

TikTok с тех пор удалил видео и аккаунты, опубликовавгие их. В компании заявили, что по всему миру за 2025 год TikTok остановил более 75 скрытых операций по оказанию влияния.

В Великобритании члены парламента опасаются, что связанные с Россией дипфейки могут повлиять на местные выборы в мае.

«Мы видели, как их используют в ходе выборов по всему миру, и нет повода предполагать, что Британия станет исключением», — сказал депутатам исполнительный директор Избирательной комиссии Соединенного Королевства Виджай Рангараджан.

Британский закон об онлайн-безопасности не говорит прямо о том, что дезинформация ведет к причинению вреда. Однако он обязывает платформы удалять материалы, про которые доказано, что они — часть кампании по иностранному влиянию. Но этот процесс занимает слишком много времени, тогда как видео могут стать вирусными за считанные часы.

Происхождение постов с дипфейками отследить нелегко, но западные исследователи говорят, что у них есть много общих характеристик (от стилистики до моделей их распространения). Это позволяет связать их с организованными группами, действующими в интересах Кремля.

Кампания под названием «Матрешка», или «Операция Перегрузка», судя по всему, заключалась в публикации сгенерированных видео, дискредитирующих президента Молдовы Майю Санду во время выборов 2025 года.

Общие характеристики позволяют предложить, что за «Матрешкой» и видео с профессором Ридом стоит одна и та же группировка, полагают в организации NewsGuard, которая следит за онлайн-дезинформацией.

Название кампании — «Матрешка» — отражает ее метод: изначальное ложное заявление как бы «заворачивается» в репосты от заброшенных или украденных аккаунтов в соцсетях.

В отличие от традиционных методов пропаганды (к примеру, RT и Sputnik, попавшие под санкции ЕС в самом начале полномасштабной войны в Украине), такие кампании «позволяют иметь уровень… правдоподобного отрицания, что усложняет усилия по противодействию», говорит Софи Уильямс-Даннинг из Королевского объединенного института оборонных исследований.

Исследователи из Клемсонского университета в Южной Каролине связали другую группу (Центр анализа угроз Microsoft называет ее «Шторм-1516») с выходцами из «фабрики троллей» Евгения Пригожина, погибшего в 2023 году.

Ученые поделились с Би-би-си примером из своего еще не опубликованного исследования, который показывает, с какой скоростью фейковые новости распространяются в соцсетях.

По их наблюдениям, ложный нарратив о Владимире Зеленском (к примеру, что он «коррумпирован»), «вброшенный» «Штормом-1516», за неделю охватывает около 7,5% всех дискуссий о президенте Украины в соцсети X.

«Любая маркетинговая компания гордилась бы таким результатом», — говорит один из авторов исследования Даррен Л. Линвилл.

Exit mobile version