После того, как Израиль на прошлой неделе начал воздушные удары по Ирану, резко возросло количество дезинформации в интернете. BBC Verify проверило множество постов и обнаружило целенаправленные попытки преувеличить последствия ответных действий Тегерана.
Анализ выявил множество сгенерированных ИИ видеороликов, демонстрирующих военные возможности Ирана, а также поддельные кадры, изображающие атакуемые израильские объекты. Три известных фейковых видеоролика собрали более 100 миллионов просмотров на различных платформах.
С другой стороны, произраильские аккаунты распространяли дезинформацию, перепостив устаревшие кадры иранских протестов, ложно изображая широкое антиправительственное настроение и поддержку кампании Израиля.
Первые израильские удары начались 13 июня, что спровоцировало серию иранских ракетных и беспилотных атак на Израиль.
Одна организация, занимающаяся анализом открытых источников информации, назвала объем дезинформации «поразительным», обвинив «фермеров вовлеченности» в использовании конфликта для привлечения внимания в интернете и получения прибыли.
Geoconfirmed, онлайн-группа по верификации, сообщила в X: «Мы видим все, от несвязанных кадров из Пакистана до повторно используемых видеороликов с ударов октября 2024 года — некоторые из них имеют более 20 миллионов просмотров — наряду с игровыми клипами и контентом, сгенерированным ИИ, представленным как подлинные события».
Некоторые аккаунты быстро распространяли эту дезинформацию, значительно увеличивая количество своих подписчиков. Один проиранский аккаунт, «Daily Iran Military», без видимых связей с властями Тегерана, за период с 13 по 19 июня увеличил количество подписчиков в X на 100%, с 700 000 до 1,4 миллиона.
Распространилось множество подобных аккаунтов, многие из которых имеют верифицированный статус, что вызывает опасения по поводу их подлинности и происхождения.
Эммануэль Салиба, главный следователь Get Real, в комментарии BBC Verify назвала это «первым случаем, когда мы видим использование генеративного ИИ в масштабах всего конфликта».
BBC Verify проверило аккаунты, часто делящиеся изображениями, сгенерированными ИИ, которые преувеличивают эффективность ответа Ирана. Одно изображение, просмотренное 27 миллионов раз, изображало множество ракет, поражающих Тель-Авив.
Другое видео якобы показывало ночной ракетный удар по израильскому зданию; г-жа Салиба отметила сложность проверки таких клипов.
Подделки, созданные ИИ, также были сосредоточены на заявлениях о уничтоженных израильских истребителях F-35. Если это правда, то количество якобы уничтоженных самолетов составит 15% от парка Израиля, по словам Лизы Каплан, генерального директора Alethea. Однако такие кадры не были проверены.
Один широко распространенный пост, утверждающий, что показывает сбитый F-35, демонстрировал явную манипуляцию ИИ: непропорциональные размеры объектов и отсутствие доказательств воздействия.
Видео TikTok (с 21,1 миллионами просмотров), утверждающее, что показывает сбитый F-35, было идентифицировано как кадры из симулятора полета и впоследствии удалено TikTok после вмешательства BBC Verify.
Г-жа Каплан связала некоторую дезинформацию о F-35 с сетями, ранее связанными с российскими операциями по влиянию, предполагая изменение фокуса с подрыва поддержки войны в Украине на дискредитацию западного вооружения.
«У России нет ответа на F-35. Так как она противодействует ему? Подрывая его поддержку в некоторых странах», — объяснила г-жа Каплан.
Устоявшиеся аккаунты с историей участия в конфликтах, включая израильско-газский конфликт, также распространяли дезинформацию, их мотивы различались, но часто были связаны с потенциальной монетизацией благодаря стимулам платформы.
Произраильские посты в основном были сосредоточены на предполагаемом росте недовольства в Иране.
Это включает в себя широко распространенное сгенерированное ИИ видео, ложно изображающее иранцев, скандирующих «мы любим Израиль» в Тегеране.
В последнее время, на фоне предположений о возможных ударах США по иранским ядерным объектам, появились сгенерированные ИИ изображения бомбардировщиков B-2 над Тегераном. Способность B-2 наносить удары по подземным ядерным объектам подпитывает этот нарратив.
Официальные источники как в Иране, так и в Израиле поделились некоторыми из этих поддельных изображений. Государственные СМИ Тегерана распространили поддельные кадры ударов и сгенерированное ИИ изображение сбитого F-35, а пост ЦАХАЛ был помечен в X за использование несвязанных старых кадров.
Большая часть дезинформации, проверенная BBC Verify, появилась в X, где пользователи часто использовали Grok, чат-бот ИИ X, для проверки. Однако Grok неверно подтвердил некоторые видеоролики ИИ как подлинные.
Один пример — видео с грузовиками, перевозящими ракеты, выезжающими из горного комплекса. Несмотря на очевидную манипуляцию ИИ (камни движутся независимо), Grok неоднократно подтверждал его подлинность, ссылаясь на отчеты Newsweek и Reuters.
X не ответил на запрос BBC Verify о комментариях по поводу поведения этого чат-бота.
Подобные видеоролики появились на TikTok и Instagram. TikTok заявил, что они активно применяют правила, запрещающие ложный контент, и сотрудничают с проверщиками фактов. Meta не ответила на запрос BBC Verify о комментариях.
Хотя мотивы различаются, большая часть дезинформации распространяется обычными пользователями социальных сетей. Мэтью Фаччиани из Университета Нотр-Дам предполагает, что бинарные выборы, представленные конфликтами, ускоряют распространение такого контента, движимого эмоциональными реакциями и соответствием политической идентичности.
Что вы хотите, чтобы BBC Verify расследовало?
Это произошло после того, как президент США Дональд Трамп заявил, что она «не права», утверждая, что Иран не создает ядерное оружие.
Израиль и Иран обмениваются новыми атаками через день после того, как Тегеран заявил, что не будет вести переговоры по своей ядерной программе.
Технологический магнат сказал, что его дети не получат доступ к своему наследству в течение 30 лет.
Он бьет рекорды онлайн-игр — в чем причина его растущей популярности?
Тейт, 36 лет, является младшим братом спорного инфлюенсера Эндрю Тейта.