الأحد. يونيو 22nd, 2025
معلومات مضللة مدفوعة بالذكاء الاصطناعي تتزايد وسط التوترات الإسرائيلية الإيرانية

“`html

منذ أن شنت إسرائيل غارات جوية على إيران الأسبوع الماضي، ظهرت موجة من المعلومات الخاطئة عبر الإنترنت. قام قسم BBC Verify بمراجعة العديد من المنشورات، وكشف عن جهد متضافر لـمبالغة في تأثير أعمال طهران الانتقامية.

كشف التحليل عن العديد من مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تعرض القدرات العسكرية لإيران، بالإضافة إلى لقطات مفبركة تصور أهدافًا إسرائيلية تحت الهجوم. جمعت ثلاثة مقاطع فيديو مزيفة بارزة أكثر من 100 مليون مشاهدة عبر منصات مختلفة.

على العكس من ذلك، قامت حسابات مؤيدة لإسرائيل بنشر معلومات خاطئة من خلال إعادة تداول لقطات قديمة من الاحتجاجات الإيرانية، مصورة بشكل خاطئ مشاعر معادية للحكومة ودعمًا لحملة إسرائيل.

بدأت الضربات الإسرائيلية الأولية في 13 يونيو، مما أثار سلسلة من الهجمات الصاروخية والطائرات بدون طيار الإيرانية على إسرائيل.

اعتبرت إحدى منظمات الاستخبارات مفتوحة المصدر حجم المعلومات الخاطئة “مذهلاً”، متهمة “مزارعي التفاعل” باستغلال الصراع من أجل جذب الانتباه عبر الإنترنت والربح.

أفادت Geoconfirmed، وهي مجموعة تحقق عبر الإنترنت، على X: “نرى كل شيء من لقطات غير ذات صلة من باكستان إلى مقاطع فيديو معاد تدويرها من ضربات أكتوبر 2024 – بعضها يحظى بأكثر من 20 مليون مشاهدة – بالإضافة إلى مقاطع ألعاب ومحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي يُقدم على أنه أحداث حقيقية”.

ضخمت بعض الحسابات هذه المعلومات الخاطئة بسرعة، مما زاد بشكل كبير من عدد متابعيها. شهد أحد الحسابات المؤيدة لإيران، “Daily Iran Military”، بدون أي صلات واضحة بسلطات طهران، نموًا بنسبة 100٪ في عدد المتابعين على X، حيث ارتفع من 700,000 إلى 1.4 مليون بين 13 و 19 يونيو.

انتشر العديد من الحسابات المماثلة، والكثير منها يحمل وضعًا تم التحقق منه، مما أثار مخاوف بشأن صحتها وأصولها.

وصفت إيمانويل ساليبا، كبير مسؤولي التحقيقات في Get Real، هذا بأنه “أول مرة نرى فيها استخدام الذكاء الاصطناعي التوليدي على نطاق واسع خلال صراع”، في تصريحات لـ BBC Verify.

راجع قسم BBC Verify الحسابات التي تشارك بشكل متكرر صورًا تم إنشاؤها بواسطة الذكاء الاصطناعي مبالغ في فعالية رد إيران. صورة واحدة، تم مشاهدتها 27 مليون مرة، تصور العديد من الصواريخ تضرب تل أبيب.

يزعم مقطع فيديو آخر أنه يُظهر ضربة صاروخية ليلية على مبنى إسرائيلي؛ أشارت السيدة ساليبا إلى صعوبة التحقق من هذه المقاطع.

ركزت عمليات التزييف التي تم إنشاؤها بواسطة الذكاء الاصطناعي أيضًا على ادعاءات بتدمير طائرات مقاتلة إسرائيلية من طراز F-35. إذا كانت هذه الادعاءات دقيقة، فإن حجم الطائرات التي يُزعم أنها دمرت سيمثل 15٪ من أسطول إسرائيل، وفقًا لليزا كابلان، الرئيس التنفيذي لشركة Alethea. ومع ذلك، لم يتم التحقق من أي من هذه اللقطات.

أظهرت منشور متداول على نطاق واسع، يدعي أنه يُظهر طائرة F-35 أسقطت، علامات واضحة على التلاعب بالذكاء الاصطناعي: أحجام أجسام غير متناسبة وعدم وجود دليل على التأثير.

تم تحديد مقطع فيديو على TikTok (مع 21.1 مليون مشاهدة) يدعي أنه يُظهر طائرة F-35 أسقطت على أنه لقطات من لعبة محاكاة طيران، وقد قام TikTok بإزالته لاحقًا بعد تدخل BBC Verify.

ربطت السيدة كابلان بعض معلومات F-35 الخاطئة بالشبكات المرتبطة سابقًا بعمليات التأثير الروسية، مما يشير إلى تحول في التركيز من تقويض الدعم للحرب في أوكرانيا إلى تشويه سمعة الأسلحة الغربية.

“روسيا تفتقر إلى رد على F-35. فكيف تواجهها؟ من خلال تقويض دعمها في بعض البلدان”، أوضحت السيدة كابلان.

نشرت حسابات راسخة لها تاريخ في المشاركة في النزاعات، بما في ذلك النزاع الإسرائيلي الفلسطيني، أيضًا معلومات خاطئة، وتختلف دوافعها ولكنها غالبًا ما ترتبط بإمكانية تحقيق الربح من خلال حوافز النظام الأساسي.

ركزت المنشورات المؤيدة لإسرائيل بشكل أساسي على ما يُزعم أنه ارتفاع المعارضة داخل إيران.

ويتضمن ذلك مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي تم تداوله على نطاق واسع يصور بشكل خاطئ إيرانيين يهتفون “نحب إسرائيل” في طهران.

في الآونة الأخيرة، مع تكهنات حول احتمال شن الولايات المتحدة ضربات على المواقع النووية الإيرانية، ظهرت صور تم إنشاؤها بواسطة الذكاء الاصطناعي لقاذفات B-2 فوق طهران. وقد غذت قدرة B-2 على ضرب المواقع النووية تحت الأرض هذه الرواية.

شاركت مصادر رسمية في كل من إيران وإسرائيل بعض هذه الصور المزيفة. نشرت وسائل الإعلام الحكومية في طهران لقطات مفبركة للهجمات وصورة تم إنشاؤها بواسطة الذكاء الاصطناعي لطائرة F-35 أسقطت، بينما تم وضع علامة على منشور تابع للجيش الإسرائيلي على X لاستخدامه لقطات قديمة غير ذات صلة.

ظهر الكثير من المعلومات الخاطئة التي راجعها قسم BBC Verify على X، حيث استخدم المستخدمون بشكل متكرر Grok، روبوت الدردشة بالذكاء الاصطناعي التابع لـ X، للتحقق. ومع ذلك، قام Grok بتأكيد بعض مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي بشكل خاطئ على أنها أصلية.

كان أحد الأمثلة على ذلك مقطع فيديو لشاحنات تحمل صواريخ تخرج من مجمع جبلي. على الرغم من التلاعب الواضح بالذكاء الاصطناعي (حركة الصخور بشكل مستقل)، أكد Grok مرارًا وتكرارًا صحتها، مشيرًا إلى تقارير من Newsweek وReuters.

لم ترد X على طلب BBC Verify للتعليق على سلوك روبوت الدردشة هذا.

ظهرت مقاطع فيديو مماثلة على TikTok وInstagram. ذكر TikTok أنهم ينفذون بنشاط المبادئ التوجيهية التي تحظر المحتوى الكاذب ويتعاونون مع راصدي الحقائق. لم ترد Meta على طلب BBC Verify للتعليق.

في حين تختلف الدوافع، يتم مشاركة الكثير من المعلومات الخاطئة من قبل مستخدمي وسائل التواصل الاجتماعي العاديين. يقترح ماثيو فاسيان من جامعة نوتردام أن الخيارات الثنائية التي تقدمها النزاعات تسرع من انتشار هذا المحتوى، مدفوعة بالاستجابات العاطفية والتماهي مع الهويات السياسية.

ماذا تريد من BBC Verify أن يحقق؟

يأتي هذا بعد أن قال الرئيس الأمريكي دونالد ترامب إنها كانت “على خطأ” لقولها إن إيران لم تكن تبني أسلحة نووية.

تبادل إسرائيل وإيران هجمات جديدة بعد يوم من قول طهران إنها لن تتفاوض بشأن برنامجها النووي.

قال قطب التكنولوجيا إن أطفاله لن يحصلوا على ميراثهم لمدة 30 عامًا.

إنه يحطم الأرقام القياسية لألعاب الإنترنت – ما الذي يقف وراء جاذبيته المتزايدة؟

تيت، 36 عامًا، هو الأخ الأصغر للمؤثر المثير للجدل أندرو تيت.

“`

قبل ProfNews