ثقافة وفنون

سرّ الخلاف بين البنتاغون وAnthropic.. حروب باستخدام الـAI

الأحداث – وكالات
كشفت تقارير إعلامية مؤخراً عن اتجاه وزارة الحرب الأميركية (البنتاغون) لاعتماد نموذج “غروك” التابع لشركة xAI المملوكة للملياردير إيلون ماسك داخل أنظمتها السرية.

فقد سمحت الوزارة سابقاً باستخدام عدة نماذج ذكاء اصطناعي من شركات كبرى مثل OpenAI وغوغل فضلاً عن نموذج شركة Anthropic، غير أن الأخير كان حتى وقت قريب الوحيد المخول بتنفيذ مهام عسكرية فائقة الحساسية قبل نشوب خلاف بسبب رفض الشركة توسيع استخدامه في تطبيقات عسكرية وتطبيقات معينة.

في هذا الإطار، قال رئيس وحدة الذكاء الاصطناعي والأمن السيبراني بمركز العرب للأبحاث والدراسات، محمد محسن رمضان، في تصريحات خاصة لـ”العربية.نت/الحدث.نت” إن “الاستخدامات التي أثارت الجدل بين شركة Anthropic والبنتاغون لم تكن عادية للذكاء الاصطناعي، بل تطبيقات عسكرية عالية الحساسية اعتُبرت — تقنياً وأخلاقياً مناطق خطرة في توظيف النماذج الذكية”.

كما أضاف محسن رمضان أنه “حسب ما تسرّب من تقارير وتحليلات تقنية، فإن أبرز هذه الاستخدامات التي رفضت الشركة توسيعها كانت تشمل: أولاً المراقبة واسعة النطاق (Mass Surveillance Analytics)، فالوزارة طلبت توسيع قدرة النموذج على تحليل بيانات ضخمة تشمل اتصالات وصوراً ومصادر استخباراتية متنوعة لاستخراج أنماط سلوكية للأفراد أو الجماعات”. وأوضح أن هذا النوع من الاستخدام يثير مخاوف تتعلق بالخصوصية، والانحياز الخوارزمي، واحتمال إساءة التفسير التحليلي.

كذلك تابع: “ثانياً: دعم الأنظمة الذاتية التشغيل عسكرياً (Autonomous Systems Support). والمقصود هنا استخدام النموذج لدعم أنظمة تعمل دون تدخل بشري مباشر، مثل الطائرات أو المنصات غير المأهولة أو أنظمة القرار التكتيكي”. وبيّن أن “الاعتراض التقني يتمثل في أن النماذج اللغوية لا تملك فهماً إدراكياً حقيقياً، بل تعمل باحتمالات إحصائية، ما يجعل الاعتماد عليها في سياقات قتالية مخاطرة عالية”.

ومضى قائلاً: “ثالثاً: تحليل استخباراتي عملياتي مباشر (Operational Intelligence Processing) أي إشراك النموذج في تفسير بيانات ميدانية حية واقتراح تقديرات موقف أو توصيات استراتيجية”، لافتاً إلى أن هذا النوع من الاستخدام ينقل الذكاء الاصطناعي من دور الأداة إلى دور الشريك في القرار، وهو ما تعتبره بعض الشركات تجاوزاً لحدود الاستخدام الآمن.

كما ذكر محسن رمضان أن التقارير أشارت إلى أن الجهة العسكرية طلبت إتاحة النموذج لكل الأغراض التي تعتبرها قانونية، وهو توصيف واسع جداً. وأردف أن الشركة رأت أن هذا التعريف الفضفاض قد يفتح الباب لاستخدامات لم تُختبر سلامتها أو آثارها الجانبية.

كذلك تابع أن الرفض فلم يكن موقفاً سياسياً بقدر ما كان قائماً على اعتبارات هندسية وأمنية، أهمها أنه قد يساء السيطرة على النماذج المتقدمة أو التلاعب بمخرجاتها، وأن نشرها في بيئات عملياتية حساسة قبل ضمان صلابة آليات الحماية قد يخلق مخاطر استراتيجية غير قابلة للعكس.

ورأى من وجهة نظره المهنية، أن جوهر القضية لا يكمن في اسم النموذج المستخدم، “بل في طبيعة المرحلة الجديدة التي ندخلها. إذ إن إدماج نموذج ذكاء اصطناعي لغوي داخل منظومات عسكرية سيادية يعني انتقاله من مجرد أداة تحليل بيانات إلى عنصر مؤثر في صناعة القرار العملياتي”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى