الأربعاء. فبراير 25th, 2026
الولايات المتحدة تحدد مهلة لـ Anthropic في نزاع حول ضمانات الذكاء الاصطناعي

أفادت التقارير أن وزير الدفاع الأمريكي بيت هيغسيث هدد بإزالة شركة أنثروبيك من سلسلة التوريد التابعة للوكالة إذا لم تسمح شركة الذكاء الاصطناعي باستخدام تقنيتها عبر مجموعة كاملة من التطبيقات العسكرية.

يُزعم أن الإنذار النهائي قُدّم في اجتماع بالبنتاغون يوم الثلاثاء، والذي طلبه هيغسيث مع الرئيس التنفيذي لشركة أنثروبيك، داريو أمودي، وفقًا لمصدر مطلع على المناقشات، متحدثًا إلى بي بي سي.

في بيان، صرحت شركة أنثروبيك: “لقد واصلنا محادثات حسن النية حول سياسة الاستخدام الخاصة بنا لضمان قدرة أنثروبيك على الاستمرار في دعم مهمة الأمن القومي للحكومة بما يتماشى مع ما يمكن لنماذجنا القيام به بشكل موثوق ومسؤول.”

أشار مسؤول كبير في البنتاغون إلى أن أمام أنثروبيك حتى مساء الجمعة للامتثال للطلب.

بينما وصف مصدر بي بي سي نبرة مناقشة هيغسيث-أمودي بأنها ودية، ورد أن أمودي أوضح ما تعتبره أنثروبيك “خطوطها الحمراء”.

وتشمل هذه الخطوط الحمراء المشاركة في العمليات الحركية المستقلة حيث تتخذ أدوات الذكاء الاصطناعي قرارات استهداف عسكرية نهائية دون تدخل بشري.

وأضاف المصدر أن استخدام أدوات أنثروبيك للمراقبة المحلية الجماعية يشكل أيضًا تطبيقًا محظورًا.

ومع ذلك، قال مسؤول البنتاغون لبي بي سي إن المأزق الحالي بين الوكالة وأنثروبيك لا علاقة له بنشر أسلحة ذاتية التشغيل أو مراقبة جماعية.

ووفقًا للمسؤول، إذا فشلت أنثروبيك في الامتثال، فسيضمن هيغسيث تفعيل قانون إنتاج الدفاع ضد الشركة.

يمكن لمثل هذا الإجراء أن يجبر المديرين التنفيذيين في أنثروبيك على منح البنتاغون وصولاً غير مقيد إلى الذكاء الاصطناعي الخاص بها لأغراض الأمن القومي.

وذكر المسؤول كذلك أن البنتاغون سيصنف أنثروبيك في الوقت نفسه على أنها خطر على سلسلة التوريد.

أشار متحدث باسم أنثروبيك إلى أن أمودي “أعرب عن تقديره لعمل الوزارة وشكر الوزير على خدمته” خلال اجتماعه مع هيغسيث.

كانت أنثروبيك، مبتكرة روبوت الدردشة Claude AI، من بين أربع شركات ذكاء اصطناعي مُنحت عقودًا مع البنتاغون الصيف الماضي.

كما تلقت كل من Google و OpenAI (صانعة ChatGPT) و xAI التابعة لإيلون ماسك (مبتكرة روبوت الدردشة Grok) عقودًا، قد تصل قيمة كل منها إلى 200 مليون دولار.

ذكر مسؤول بوزارة الدفاع إميل مايكل سابقًا أن الوكالة تتوقع من OpenAI و Google و xAI و Anthropic السماح للبنتاغون “بالقدرة على استخدام أي نموذج لجميع حالات الاستخدام القانونية”.

سعت أنثروبيك باستمرار إلى وضع نفسها في مكانة تعطي الأولوية لنهج أكثر وعيًا بالسلامة تجاه أبحاث الذكاء الاصطناعي مقارنة بمنافسيها.

تنشر الشركة بانتظام تقارير السلامة حول منتجاتها الخاصة.

أقر تقرير من العام الماضي بأن تقنية الذكاء الاصطناعي الخاصة بها قد “تم تسليحها” من قبل المتسللين الذين استخدموها لشن هجمات إلكترونية متطورة.

واجهت صورة الشركة تدقيقًا بعد تقارير تفيد بأن الجيش الأمريكي استخدم نموذج Claude AI الخاص بها خلال العملية التي أدت إلى القبض على الرئيس الفنزويلي السابق نيكولاس مادورو في يناير.

كانت أنثروبيك أول شركة تقنية مُعتمدة للعمل داخل شبكات الجيش السرية التابعة للبنتاغون وتحافظ على شراكات مع شركات مثل Palantir.

أشارت مصادر لبي بي سي إلى أن نموذج Claude استُخدم في عملية مادورو من خلال عقد مع Palantir.

موقف البنتاغون هو أنه لا ينبغي أن تتمتع أنثروبيك بسلطة إملاء كيفية استخدام البنتاغون لمنتجاتها.

يشير المراقبون إلى أن الخلاف الحالي بين أنثروبيك والبنتاغون ينبع من انهيار الثقة بين الكيانين.

صرحت إميليا بروباسكو، الزميلة البارزة في مركز الأمن والتكنولوجيا الناشئة بجامعة جورج تاون: “إنهم بحاجة إلى التوصل إلى حل”.

واختتمت بروباسكو قائلة: “في رأيي، يجب أن نمنح الأشخاص الذين نطلب منهم الخدمة كل ميزة ممكنة. نحن مدينون لهم لحل هذا الأمر”.

اشترك في نشرتنا الإخبارية Tech Decoded لمتابعة أهم قصص واتجاهات التكنولوجيا في العالم. خارج المملكة المتحدة؟ سجل هنا.