ماذا يَحدُثُ للعالم عندما تبدَأُ الروبوتات القاتلة التواصُلَ مع بعضِها البعض؟
إنها مسألة وقت فقط قبل أن يتمكن الجيش الأميركي (وجيوش الصين وروسيا وربما جيوش بعض القوى الأخرى) من نشر أسراب من أنظمة الأسلحة المستقلة المجهزة بخوارزميات تسمح لها بالتواصل مع بعضها البعض الآخر واختيار مناورات قتالية جديدة وغير متوقعة بشكل مشترك أثناء المهمة.
مايكل كلير*
أَجَل، لقد حانَ الوقتُ فعلًا للقلق – القلق الشديد. وكما أظهرت حربا أوكرانيا وغزّة، فإنَّ أوَّلَ طائراتٍ مُسَيَّرة التي تعادل “الروبوتات القاتلة” وصلت إلى ساحةِ المعركة وأثبتت أنها أسلحة مُدمّرة. لكنها على الأقل ما زالت تحت السيطرة البشرية إلى حدٍّ كبير. تَخَيَّل للحظةٍ عالمًا تنتشرُ فيه حربٌ تُهيمنُ عليها تلك الطائرات المُسَيّرة (أو ما يعادلها على الأرض وفي البحر)، وليس العكس. عندها سنكون على كوكبٍ مُختَلفٍ مُدَمَّرٍ بطريقةٍ قد تبدو غير قابلة للتصوّر تقريبًا في يومنا هذا. لكن من المؤسف أن هذا الأمرٌ يُمكن حاليًا تصوّره، نظرًا للعمل على الذكاء الاصطناعي وأسلحة الروبوتات الذي بدأته القوى الكبرى بالفعل. الآن، اسمحوا لي أن آخذكم إلى هذا العالم الغامض وأُحاولَ تصوّرَ ما قد يعنيه مستقبل الحرب بالنسبة إلى بَقِيَّتنا.
من خلالِ الجَمعِ بين الذكاء الاصطناعي والروبوتات المتقدمة، يعمل الجيش الأميركي وقوات القوى المتقدّمة الأخرى بجدٍّ لإنشاء مجموعةٍ من أنظمة الأسلحة “المستقلة” ذاتية التوجيه – طائرات مُسَيَّرة قتالية يمكنها استخدام القوّة المُميتة بشكلٍ مستقل عن أي ضباط بشريين من المفترض أن يقودوها . وتشمل هذه الأجهزة، التي يَطلقُ عليها النقاد “الروبوتات القاتلة”، مجموعةً متنوِّعة من الطائرات والدبابات والسفن والغواصات المُسَيَّرة أو “غير المأهولة” القادرة على التشغيل المستقل. على سبيل المثال، تعمل القوات الجوية الأميركية على تطوير “طائراتها المقاتلة التعاونية”، وهي مركبة جوية مُسيَّرة تهدف إلى الانضمام إلى الطائرات المأهولة في مهامٍ عالية المخاطر. يقوم الجيش الأميركي بالمثل باختبارِ مجموعةٍ متنوِّعة من المركبات الأرضية ذاتية القيادة المسيَّرة، في حين تقوم البحرية الأميركية بتجربةِ كلٍّ من السفن السطحية غير المأهولة المُسَيَّرة والغواصات المُسيَّرة غير المأهولة تحت سطح البحر. وتعمل الصين وروسيا وأوستراليا وإسرائيل أيضًا على مثل هذه الأسلحة لاستخدامها في ساحات القتال في المستقبل.
وقد أثار الظهورُ الوشيك لآلاتِ القتل هذه القلق والجدل على مستوى العالم، حيث تسعى بعض البلدان بالفعل إلى فَرضِ حظرٍ كامل عليها، وتُخطّطُ دولٌ أخرى، بما في ذلك الولايات المتحدة، للسماح باستخدامها فقط في ظلِّ ظروفٍ تحت إشراف الإنسان. وفي جنيف، سعت مجموعة من الدول إلى حظر نشر واستخدام أسلحة ذاتية التشغيل بالكامل، مُستَشهدةً بمعاهدة الأمم المتحدة لعام 1980، وهي الاتفاقية الخاصة بأسلحةٍ تقليدية مُعَيَّنة، التي تهدف إلى كبح أو حظر الذخائر غير النووية التي يُعتَقَدُ أنها ضارّة بشكلٍ خاص بالمدنيين. وفي الوقت نفسه، عقدت الجمعية العامة للأمم المتحدة في نيويورك أول مناقشة لها حول الأسلحة المستقلة والمُسيَّرة في تشرين الأول (أكتوبر) الفائت، وتُخطّطُ لإجراءِ مراجعةٍ شاملة للموضوع في الخريف المقبل.
في أغلب الأحيان، يتوقّفُ الجدلُ الدائر حول استخدام مثل هذه الأجهزة في ساحة المعركة على ما إذا كان سيتم تمكينها من إزهاق أرواح الناس بدونِ إشرافٍ بشري. ويرى العديد من المنظمات الدينية ومنظمات المجتمع المدني أنَّ مثل هذه الأنظمة لن تكونَ قادرة على التمييز بين المقاتلين والمدنيين في ساحة المعركة، وبالتالي يجب حظرها من أجل حماية غير المقاتلين من الموت أو الإصابة، كما يقتضي القانون الإنساني الدولي. ومن ناحيةٍ أخرى، يؤكّدُ المسؤولون الأميركيون أنَّ مثلَ هذه الأسلحة يمكن تصميمها للعمل بشكلٍ جيد ضمن القيود القانونية.
ومع ذلك، لم يتناول أيُّ طرفٍ في هذا النقاش الجانبَ الأكثر إثارةً للقلق لاستخدام هذه الأجهزة في المعركة: إحتمال أن تتمكّن، عاجلًا أم آجلًا، من التواصل مع بعضها البعض بدونِ تدخّلٍ بشري، ولأن كونها “ذكية”، ستكونُ قادرة على التوصّل إلى تكتيكاتها الخاصة غير المكتوبة لهزيمة العدو – أو أيِّ شيءٍ آخر تمامًا. إنَّ مثلَ هذا التفكير الجماعي القائم على الكمبيوتر، والذي أطلق عليه علماء الكمبيوتر “السلوك الناشئ”، يفتح مجموعةً من المخاطر التي لم يأخذها المسؤولون في جنيف أو واشنطن أو الأمم المتحدة بعين الاعتبار بعد.
في الوقت الحالي، ستكون غالبية الأسلحة المستقلة المُسَيَّرة التي يطوّرها الجيش الأميركي نسخًا غير مأهولة من المنصّات القتالية الحالية وسيتمُّ تصميمها للعمل جنبًا إلى جنب مع نظيراتها المأهولة. وفي حين قد يكون لديها أيضًا بعض القدرة على التواصل مع بعضها البعض، إلّا أنها ستكون جُزءًا من فريقٍ قتالي “مُتَّصِل بالشبكة” سيتم إملاء مهمّته والإشراف عليها من قبل قادة بشريين. على سبيل المثال، من المتوقع أن تكون الطائرة القتالية التعاونية بمثابة “طيّار جناح مخلّص” للمقاتلة الشبح “أف-35” المأهولة، أثناء القيام بمهامٍ عالية المخاطر في المجال الجوي المُتنازَع عليه. وقد اتبع الجيش والبحرية الأميركيان إلى حدٍّ كبير مسارًا مشابهًا في نهجهما تجاه تطوير الأسلحة المستقلة المُسَيَّرة وغير المأهولة.
جاذبية “أسراب” الروبوتات
مع ذلك، فقد دافع بعض الاستراتيجيين الأميركيين عن نهجٍ بديل لاستخدام الأسلحة المستقلة المُسَيَّرة في ساحات القتال المستقبلية، حيث لن تكون بمثابة زميلات صغيرات في فِرَقٍ يقودها الإنسان ولكن كأعضاءٍ متساوين في أسراب الروبوتات ذاتية التوجيه. ستتألّف مثل هذه التشكيلات من عشرات أو حتى مئات الطائرات المُسَيَّرة، أو المركبات البحرية أو المركبات البرية الأميركية غير المأهولة التي يدعمها الذكاء الاصطناعي – وجميعها قادرة على التواصل مع بعضها البعض، ومُشاركة البيانات حول ظروف ساحة المعركة المتغيِّرة، وتغيير تكتيكاتها القتالية بشكلٍ جماعي كما يراه العقل الجماعي ضروريًا.
توقع بول شار، أحد المتحمّسين الأوائل لهذا المفهوم، في تقريرٍ صدر في العام 2014 لمركز التكنولوجيا الجديدة أنَّ “التقنيات الروبوتية الناشئة ستسمح لقوات الغد بالقتال كسرب، مع قدرٍ أكبر من الكتل والتنسيق والذكاء والسرعة مُقارنةً بالقوات المتشابكة اليوم”. وكتب آنذاك: “ستكون الأنظمة المستقلة المتشابكة والتعاونية قادرة على الاحتشاد الحقيقي، أي السلوك التعاوني بين العناصر الموزَّعة التي تؤدّي إلى ظهورٍ كُلّي مُتماسك وذكي”.
وكما أوضح شار في تقريره التنبّؤي، فإنَّ أيَّ تحقيقٍ كاملٍ لمفهوم السرب سيتطلّب تطويرَ خوارزمياتٍ مُتقدّمة من شأنها تمكين الأنظمة القتالية المستقلة والمُسيَّرة من التواصل مع بعضها البعض و”التصويت” على أنماطِ الهجوم المُفَضَّلة. وأشار إلى أن هذا سيتضمّن إنشاء برامج قادرة على محاكاة النمل والنحل والذئاب وغيرها من الكائنات التي تُظهِرُ أو تعرض سلوك “السرب” في الطبيعة. وكما قال شار: “تمامًا كما تُقدّمُ الذئاب في قطيعٍ لأعدائها مجموعةً من التهديدات المتغيِّرة باستمرار من جميع الاتجاهات، فإن المركبات غير المأهولة التي يمكنها تنسيق المناورة والهجوم يمكن أن تكون أكثر فعالية بشكلٍ كبير من الأنظمة غير المُنسَّقة التي تعمل بشكلٍ جماعي”.
ولكن في العام 2014، كانت التكنولوجيا اللازمة، لجعل مثل هذا السلوك الآلي مُمكنًا، لا تزال في مهدها. ولمعالجة هذا النقص الخطير، شرعت وزارة الدفاع الأميركية في تمويل الأبحاث في مجال الذكاء الاصطناعي والروبوتات، حتى مع حصولها أيضًا على مثل هذه التكنولوجيا من شركاتٍ خاصة مثل غوغل ومايكروسوفت. كان روبرت وورك أحد الشخصيات الرئيسة في هذه الحملة، وهو زميل سابق لبول شار ومن أوائل المتحمّسين لحرب الأسراب. شغل وورك منصب نائب وزير الدفاع في الفترة من 2014 إلى 2017، وهو المنصب الذي مَكّنه من توجيه مبالغ متزايدة باستمرار لتطوير الأسلحة عالية التقنية، وبخاصة الأنظمة غير المأهولة والمستقلة والمُسيَّرة.
من “موزاييك” إلى “ريبليكايتور”
تمَّ تفويضُ الكثير من هذا الجهد إلى وكالة مشاريع الأبحاث الدفاعية المتقدمة “داربا” (DARPA)، وهي منظمة أبحاث داخلية للتكنولوجيا الفائقة تابعة للبنتاغون. كجُزءٍ من حملةٍ لتطويرِ الذكاء الاصطناعي لمثل هذه العمليات التعاونية، أطلقت “داربا” برنامج “موزاييك” (Mosaic)، وهو عبارة عن سلسلةٍ من المشاريع تهدفُ إلى تحسين الخوارزميات والتقنيات الأخرى اللازمة لتنسيق أنشطة الأنظمة القتالية المأهولة وغير المأهولة في قتالٍ عالي الكثافة مُستَقبَلي مع روسيا و/أو الصين.
وأوضح دان بات، نائب مدير مكتب التكنولوجيا الاستراتيجية التابع لـ”داربا”: “بتطبيق المرونة الكبيرة لمفهوم ال”موزاييك” (الفسيفساء) على الحرب، يمكن ربط الأنظمة الأقل تكلفة والأقل تعقيدًا معًا بعددٍ كبيرٍ من الطُرُقِ لإنشاءِ التأثيرات المُتشابكة المرغوبة المصمَّمَة لأيِّ سيناريو. الأجزاء الفردية من ال”موزاييك” يمكن عَزوها [الاستغناء عنها]، ولكنها معًا لا تُقدَّر بثمن لكيفية مساهمتها في الكل”.
من الواضح أن مفهومَ الحربِ هذا يدعمُ استراتيجية “ريبليكايتور” (Replicator) الجديدة التي أعلنتها نائبة وزير الدفاع الأميركي كاثلين هيكس في الصيف الماضي. “يهدف “ريبليكايتور” إلى مساعدتنا على التغلب على أكبر ميزة لدى الصين، وهي الكتل أو العدد. المزيد من السفن. المزيد من الصواريخ. المزيد من الناس”، قالت لمسؤولي صناعة الأسلحة في آب (أغسطس) الماضي. واقترحت أنه من خلال نشر الآلاف من الطائرات المُسيَّرة المستقلة، والمركبات الجوية غير المأهولة، والمركبات غير المأهولة، والمركبات غير المأهولة، سيكون الجيش الأميركي قادرًا على التفوّق على الجيش الصيني، جيش التحرير الشعبي، والتفوّق عليه في المناورة والتغلّب عليه. “للبقاء في المقدمة، سنقوم بإنشاء حالة جديدة من التقدّم … سنواجه عدد جيش التحرير الشعبي بعددٍ خاصٍ بنا، ولكن سيكون من الصعب التخطيط ضد جيشنا، وسيكون من الصعب ضربه، ومن الصعب التغلب عليه”.
للحصول على كلٍّ من الأجهزة والبرامج اللازمة لتنفيذ مثل هذا البرنامج الطموح، تسعى وزارة الدفاع الأميركية الآن للحصول على عروضٍ من مقاولي الدفاع التقليديين مثل “بوينغ” (Boeing) و “رايثيون” (Raytheon) بالإضافة إلى شركات الذكاء الاصطناعي الناشئة مثل ” أندوريل” (Anduril) و”شيلد إي آي” (Shield AI). في حين أنه قد يتم تضمين أجهزة واسعة النطاق مثل الطائرات القتالية التعاونية التابعة للقوات الجوية ومركبات “أوركا يو يو في” (Orca UUV) الكبيرة جدًا التابعة للبحرية في هذا المجال، إلّا أن التركيز ينصب على الإنتاج السريع لأنظمةٍ أصغر حجمًا وأقل تعقيدًا مثل الطائرة الهجومية المُسَيَّرة “سويتشبليد” (Switchblade) من شركة “AeroVironment”، والتي تستخدمها الآن القوات الأوكرانية لضرب الدبابات والمدرعات الروسية خلف خطوط العدو.
في الوقت نفسه، يدعو البنتاغون بالفعل الشركات الناشئة في مجال التكنولوجيا إلى تطوير البرامج اللازمة لتسهيل الاتصال والتنسيق بين هذه الوحدات الروبوتية المُتباينة والمنصّات المأهولة المرتبطة بها. لتسهيل ذلك، طلبت القوات الجوية الأميركية من الكونغرس مبلغ 50 مليون دولار في موازنتها للسنة المالية 2024 لتمويل ما تسميه مشروع “فينوم” (VENOM)، أو “نموذج تجارب الأفعى وعمليات الجيل التالي”. وبموجب مشروع “فينوم”، ستقوم القوات الجوية بتحويل الطائرات المقاتلة الحالية إلى طائرات مُسَيَّرة محكومة بالذكاء الاصطناعي واستخدامها لاختبار البرمجيات المستقلة المتقدّمة في عملياتٍ متعددة للطائرات المسَيَّرة. يقوم الجيش والبحرية الأميركيين باختبار أنظمةٍ مُماثلة.
عندما تختار الأسراب طريقها الخاص
بكلماتٍ أُخرى، إنها مسألة وقت فقط قبل أن يتمكن الجيش الأميركي (وجيوش الصين وروسيا وربما جيوش بعض القوى الأخرى) من نشر أسرابٍ من أنظمة الأسلحة المستقلة المجهزة بخوارزميات تسمح لها بالتواصل مع بعضها البعض الآخر واختيار مناورات قتالية جديدة وغير مُتَوَقَّعة بشكلٍ مشترك أثناء الحركة. سيتم منح أيّ عضو آلي مشارك في مثل هذه الأسراب هدفًا للمهمة (“البحث عن جميع رادارات العدو وبطاريات الصواريخ المضادة للطائرات الموجودة داخل هذه الإحداثيات الجغرافية [المحددة] وتدميرها”) ولكن لن يتمَّ إعطاؤه تعليماتٍ دقيقة حول كيفية القيام بذلك. وهذا من شأنه أن يسمح له باختيار تكتيكاته القتالية الخاصة بالتشاور مع باقي أعضاء السرب المُسَيَّر. إذا كانت بيانات الاختبار المحدودة المتوفرة لدينا كافية لإبداء الرأي، فقد يعني ذلك استخدام تكتيكات غير تقليدية إلى حد كبير لم يتم تصورها مطلقًا، ويستحيل تكرارها بواسطة طيارين وقادة من البشر.
إنَّ مَيلَ أنظمة الذكاء الاصطناعي المُترابطة هذه إلى الانخراط في نتائج جديدة وغير مُخَطَّطٍ لها هو ما يسمّيه خبراء الكمبيوتر “السلوك الناشئ”. وكما تشرح مجلة “ScienceDirect”، وهي عبارة عن مُلخَّص للمجلات العلمية، “يمكن وصف السلوك الناشئ باعتباره عملية تنشأ بموجبها أنماطٌ أكبر من خلال التفاعلات بين كياناتٍ أصغر أو أبسط والتي لا تُظهِرُ في حدِّ ذاتها مثل هذه الخصائص”. من الناحية العسكرية، يعني هذا أن سربًا من الأسلحة المستقلة قد يختار بشكلٍ مشترك تبنّي تكتيكاتٍ قتالية لم تكن أي من الأجهزة الفردية مُبَرمَجة لأدائها – ربما تُحقّقُ نتائجَ مُذهلة في ساحة المعركة، ولكنها قد تنخرط أيضًا في أعمالٍ تصعيدية غير مقصودة وغير متوقَّعة من قبل قادتها من البشر، بما في ذلك تدمير البنية التحتية المدنية الحيوية أو مرافق الاتصالات المستخدمة في العمليات النووية والتقليدية.
في هذه المرحلة، يكاد يكون من المستحيل تقريبًا التنبؤ بما قد يختاره العقل الجماعي الفضائي إذا كان مُسَلَّحًا بأسلحةٍ متعددة ومُنقَطِعًا عن الرقابة البشرية. من المفترض أن يتم تجهيز هذه الأنظمة بآلياتٍ آمنة من الفشل تتطلّب عودتها إلى القاعدة في حالة فقدان الاتصالات مع المشرفين عليها، سواء بسبب تشويش العدو أو لأيِّ سببٍ آخر. ومع ذلك، مَن يدري كيف يمكن لآلات التفكير هذه أن تعمل في ظل ظروف العالم الحقيقي الصعبة، أو ما إذا كان العقل الجماعي سيثبت في الواقع أنه قادرٌ على تجاوز مثل هذه التوجيهات والانطلاق والضرب من تلقاء نفسه.
ماذا بعد؟ هل تختار هذه الأجهزة مواصلة القتال بما يتجاوز حدودها المبرمجة مسبقًا، مما يؤدي إلى تصعيدٍ غير مقصود ــ حتى لو كان من النوع النووي؟ أم أنها ستختار وقف هجماتها على قوات العدو والتدخّل بدلًا من ذلك في عمليات القوات الصديقة، وربما إطلاق النار عليها وتدميرها (كما يفعل “سكاي نِت” (Skynet) في سلسلة أفلام الخيال العلمي الكلاسيكية “Terminator”)؟ أو ربما تنخرط في سلوكيات تتجاوز مخيلتنا تمامًا، للأفضل أو للأسوَإِ؟
يصرُّ كبارُ المسؤولين العسكريين والديبلوماسيين الأميركيين على أنه يمكن بالفعل استخدام الذكاء الاصطناعي بدون تكبّد مثل هذه المخاطر المستقبلية وأنَّ هذا البلد لن يستخدمَ إلّا الأجهزة التي تتضمّن ضمانات كافية تمامًا ضد أي سوء سلوك خطير في المستقبل. وهذه في الواقع هي النقطة الأساسية التي وردت في “الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والحكم الذاتي” الذي أصدرته وزارة الخارجية الأميركية في شباط (فبراير) 2023. ومع ذلك، فإنَّ العديد من مسؤولي الأمن والتكنولوجيا البارزين يدركون تمامًا الإمكانات المحتملة لمخاطر السلوك الناشئ في الأسلحة الآلية المستقبلية ويواصلون إصدار التحذيرات ضد الاستخدام السريع للذكاء الاصطناعي في الحرب.
تجدر الإشارة بشكلٍ خاص إلى التقرير النهائي الذي أصدرته لجنة الأمن القومي في الولايات المتحدة بشأن الذكاء الاصطناعي في شباط (فبراير) 2021. برئاسة مشتركة من روبرت وورك (الذي عاد إلى مركز التكنولوجيا الجديدة بعد فترة عمله في البنتاغون) وإريك شميدت، الرئيس التنفيذي السابق لشركة غوغل، أوصت اللجنة بـالاستخدام السريع للذكاء الاصطناعي من قبل الجيش الأميركي لضمان النصر في أيِّ صراع مستقبلي مع الصين و/أو روسيا. ومع ذلك، فقد أعربت أيضًا عن قلقها بشأن المخاطر المحتملة لساحات القتال المشبعة بالروبوتات.
وأشار التقرير إلى أن “الاستخدام العالمي غير الخاضع للرقابة لمثل هذه الأنظمة قد يؤدي إلى خطرِ تصعيدٍ غير مقصود للصراع وعدم استقرار الأزمات”. وقد يحدث هذا لعدد من الأسباب، بما في ذلك “بسبب التعقيدات الصعبة وغير المُختَبرة للتفاعل بين أنظمة الأسلحة المستقلة والمدعَّمة بالذكاء الاصطناعي [أي السلوكيات الناشئة] في ساحة المعركة”. ونظرًا لهذا الخطر، خلص التقرير إلى أنه “يجب على الدول اتخاذ إجراءات تُركّزُ على الحَدِّ من المخاطر المرتبطة بأنظمة الأسلحة المستقلة والمُدَعَّمة بالذكاء الاصطناعي”.
عندما يطلب منا كبار المدافعين عن الأسلحة المستقلة أن نشعر بالقلق إزاء المخاطر غير المقصودة التي يفرضها استخدامها في المعركة، فيجب أن يشعر بقيتنا بالقلق بالفعل. وحتى لو كنّا نفتقرُ إلى المهارات اللازمة في علوم الرياضيات لفهم السلوك الناشئ في الذكاء الاصطناعي، فلا بدَّ أن يكون من الواضح أنَّ البشرية قد تواجه خطرًا كبيرًا يُهدّدُ وجودها، إذا اكتسبت الآلات القاتلة القدرة على التفكير بمفردها. ربما ستُفاجئ الجميع وتُقرّرُ القيامَ بدور قوات حفظ السلام الدولية، ولكن بالنظر إلى أنها مُصَمَّمة للقتال والقتل، فمن المرجح أنها قد تختار ببساطة تنفيذ هذه التعليمات بطريقة مستقلة ومُتطرّفة.
إذا كان الأمر كذلك، فلن يكون هناك أحد ليضع لوحة رحمها الله على قبر الإنسانية.
- مايكل كلير هو أستاذ فخري في دراسات السلام والأمن العالمي ومدير برنامج الكليات الخمس في دراسات السلام والأمن العالمي (PAWSS). وقد كتب على نطاق واسع عن السياسة العسكرية الأميركية، وشؤون السلام والأمن الدوليين، وتجارة الأسلحة العالمية، وسياسة الموارد العالمية.
- كُتِبَ هذا المقال بالإنكليزية وترجمه قسم الدراسات والأبحاث في “أسواق العرب”.
يجب عليك تسجيل الدخول لكتابة تعليق.