حروبٌ بلا رصاص: كيفَ يَنهارُ الرَدعُ في عصرِ الذكاءِ الاصطناعي
لم يَعُد الذكاء الاصطناعي مجرّدَ أداةٍ لتعزيز القدرات العسكرية وصُنعِ القرار، بل تحوَّلَ إلى ساحةِ صراعٍ بحدِّ ذاته. ففي عالمٍ تُدارُ فيه الأزمات عبر البيانات والخوارزميات، قد لا يُقوَّض الردع بالقوة النارية، بل بتشويه المعلومات وإرباك العقول قبل اندلاعِ أيِّ مواجهة.

بريت بنسون وبريت غولدشتاين*
يتحوّل الذكاء الاصطناعي بسرعة إلى أحد الأعمدة الأساسية في صناعة قرارات الأمن القومي حول العالم. فقد باتت الجيوش تعتمد بالفعل على أنظمة ذكية لتحليل صور الأقمار الاصطناعية، وتقدير قدرات الخصوم، وتقديم سيناريوهات حول توقيت استخدام القوة وشكله ونطاقه. ومع تسارع تطور هذه التقنيات، يزداد حضور الذكاء الاصطناعي بوصفه عاملًا قادرًا على إعادة صياغة طريقة استجابة الدول للتهديدات. غير أنَّ هذا التحوُّل، على قدرِ ما يَحمُلُ من وعود، ينطوي أيضًا على مخاطر جدية، إذ تُهدّدُ المنصّات المُتقدّمة بإرباك معادلات الردع التقليدية التي شكّلت، لعقود، حجر الأساس في الاستراتيجية الأمنية الأميركية.
فالردعُ الفعّال يقوم، في جوهره، على قدرة الدولة واستعدادها الموثوق لإلحاق كلفة غير مقبولة بأيِّ خصم. ويبدو أنَّ الذكاء الاصطناعي يُعزّزُ بعض ركائز هذه المصداقية، من خلال تحسين جودة المعلومات الاستخباراتية، وتسريع عمليات التقييم، وإضفاء قدر أكبر من الاتساق على صنع القرار، بما يسمح بإيصال رسالة أوضح حول قدرات الدولة الدفاعية وعزمها على استخدامها. إلّا أنَّ الوجه الآخر لهذه المعادلة لا يقلُّ أهمّية، إذ يُمكِنُ للخصوم توظيف الذكاء الاصطناعي نفسه لتقويض الردع، سواء عبر تسميم بيانات النماذج التي تعتمد عليها الدول، بما يفضي إلى مخرجاتٍ مُضَلِّلة، أو من خلال عمليات تأثير ذكية تستهدف صانعي القرار مباشرة. وفي لحظات الأزمات الحادة، قد يؤدي هذا النوع من التلاعب إلى إضعاف قدرة الدولة على الحفاظ على ردعٍ فعّال، أو تشويه عملية اتخاذ القرار، وربما شلّها في أكثر الأوقات حساسية.
لنتَخيّل سيناريو أزمة تُقدِمُ فيه الصين على فرضِ عقوباتٍ اقتصادية شاملة على تايوان، بالتوازي مع تنفيذِ مناوراتٍ عسكرية واسعة النطاق حول الجزيرة. في مثلِ هذا الوضع، يلجأ مسؤولو الدفاع في الولايات المتحدة إلى أنظمة الذكاء الاصطناعي لدعم عملية صياغة الرد الأميركي. غير أنَّ المشكلة تبدأ حين يعتمد هؤلاء على نماذج جرى تشويهها مُسبَقًا بفعل عمليات تضليل صينية، استهدفت تسميم بيانات التدريب والمدخلات الأساسية التي تقوم عليها هذه الأنظمة.
في هذا السيناريو، تُفضي مخرجات الذكاء الاصطناعي إلى تضخيم القدرات الفعلية للصين، مقابل التقليل من مستوى جاهزية الولايات المتحدة وحلفائها، ما ينتج عنه تقييم مشوّه للموقف الاستراتيجي. ونتيجةً لذلك، قد يتردد صانعو القرار الأميركيون في اتخاذ خطوات تعبئة أو ردع مبكر، استنادًا إلى تقديراتٍ خاطئة توحي بأنَّ كلفة التحرك أعلى من جدواه. وفي الوقت نفسه، تعمل حملات التأثير الصينية، المدعومة بموجاتٍ من المحتوى المُزيّف المُنتَج بالذكاء الاصطناعي عبر منصّات مثل فايسبوك وتيك توك، على تقويض الدعم الشعبي الأميركي لأيِّ تدخُّلٍ محتمل، ما يزيد من تقييد هامش الحركة السياسية.
ومع عجز القادة الأميركيين عن التحقُّق بدقة من سلامة معلوماتهم الاستخباراتية، أو عن قياس اتجاهات الرأي العام بصورة موثوقة، قد يخلصون إلى أنَّ أيَّ تحرُّكٍ حاسمٍ ينطوي على مخاطر سياسية وعسكرية غير محسوبة. عند هذه النقطة، تستشعرُ بكين الفرصة، فتنتقل من سياسة الضغط إلى فرضِ حصارٍ كامل على تايوان، وتباشر تنفيذ غارات بالطائرات المسيّرة، في وقتٍ تُغرق الفضاء الإعلامي بسَيلٍ من مقاطع الفيديو المفبركة، التي تُظهر مسؤولين أميركيين وكأنهم يُلوّحون بالتخلي عن الجزيرة، إلى جانب استطلاعاتِ رأيٍ مُزيَّفة تُوحي بتراجُعِ الدعم الأميركي، وشائعات منظّمة عن انسحاب واشنطن من التزاماتها.
في ظروفٍ مختلفة، كان من الممكن لإشاراتِ ردعٍ أميركية واضحة وموثوقة أن تُثني الصين عن هذا التصعيد، وربما تمنعُ اندلاع الأزمة من أساسها. غير أنَّ اعتمادَ صانعي القرار على أنظمة ذكاء اصطناعي مُضلَّلة، إلى جانب رأي عام جرى التلاعب به رقميًا، يحرمُ الولايات المتحدة من القدرة على إرسالِ هذه الإشارات في الوقت المناسب. وبدلًا من أن يُسهِمَ الذكاءُ الاصطناعي في تعزيز الردع، ينتهي به الأمر إلى تقويض مصداقيته، وفتح المجال أمام سلوك عدواني مدروس من الجانب الصيني.
ومع تزايد اعتماد القادة على أنظمة الذكاء الاصطناعي في إدارة الأزمات واتخاذ القرار، تتجه الحرب المعلوماتية إلى لعب دور أكثر مركزية وفعالية في أدوات الإكراه والصراع الدولي. ولتعزيز الردع في عصر الذكاء الاصطناعي، يصبح من الضروري أن يدرك صانعو السياسات ومخططو الدفاع ووكالات الاستخبارات كيف يمكن تسليح هذه النماذج ضدهم، وأن يضمنوا تطوير دفاعات رقمية قادرة على كشف التلاعب وحماية عملية صنع القرار. ففي عالمٍ تتداخل فيه الخوارزميات مع حسابات الحرب والسلم، قد يتوقف مصير أزمات كبرى مستقبلًا على مدى القدرة على تحصين الذكاء الاصطناعي نفسه.
الردع في عصر الذكاء الاصطناعي
لكي يكونَ الردعُ فعّالًا، لا بدَّ أن يقتنعَ الخصمُ بأنَّ الدولة المدافِعة تمتلك القدرة على إلحاق خسائر جسيمة به، والأهم أنها مستعدّة لاستخدام هذه القدرة عند التحدي. فبعض عناصر القوة العسكرية يمكن رصده بسهولة، لكن جوانب أخرى، مثل جاهزية القوات، وقدرات التعبئة، أو فعالية أنظمة تسليح بعينها، تظل عصيّة على التقدير من الخارج. أما العزم السياسي، فيبقى الأكثر غموضًا، إذ لا يعرف حقيقته سوى صانعي القرار أنفسهم. ومن ثمّ، يعتمد الردع في جوهره على قدرة الدولة على إيصال صورة موثوقة عن إمكاناتها واستعدادها للتحرك.
وتكتسب إشارات الردع مصداقيتها عندما تكون مُكلفة وملموسة. فإعادة تموضع القوات أو رفع مستويات الجاهزية تتطلب وقتًا وموارد وتنطوي على مخاطر سياسية، ما يجعلها أكثر إقناعًا للخصوم. وقد برز ذلك بوضوح عقب الهجوم الذي استهدف البرلمان الهندي عام 2001، حين حشدت نيودلهي قواتها على طول الحدود مع باكستان، مُرسلةً إشارة واضحة عن قدرتها وعزمها على الرد، وهو ما أسهم في ردع هجمات لاحقة. كما تلعب الضغوط السياسية الداخلية في الأنظمة الديموقراطية دورًا إضافيًا في تعزيز المصداقية، إذ إن التهديدات التي يُطلقها قادةٌ منتخبون، ويصعب عليهم التراجع عنها من دون كلفةٍ سياسية، غالبًا ما تُؤخذ على محمل الجد. ويكفي التذكير بأزمة جزر فوكلاند عام 1982، حين عزز الضغط الشعبي في بريطانيا تصميم حكومة مارغريت تاتشر على التحرك، ما أضفى وزنًا أكبر على تهديدات الرد العسكري.
وتظل السرعة عاملًا حاسمًا في معادلة الردع، إذ تبدو التهديدات أكثر مصداقية عندما يُنظر إلى الدولة على أنها قادرة على التحرك بسرعة وبشكل شبه تلقائي عند وقوع التهديد. ومن هذه الزاوية، يبدو الذكاء الاصطناعي، للوهلة الأولى، أداة مثالية لتعزيز الردع. فمن خلال معالجة كميات هائلة من البيانات، يَعِدُ بتحسين جودة المعلومات الاستخباراتية، وتوضيح الإشارات، وتسريع عملية اتخاذ القرار عبر تحليلات أسرع وأكثر شمولًا.
وقد ظهرت ملامح هذا الدور بالفعل في الحرب الدائرة في أوكرانيا، حيث تُستخدَم أدوات الذكاء الاصطناعي لتحليل صور الأقمار الاصطناعية والطائرات المُسَيّرة، ورصد تحركات القوات والمعدات الروسية، وتحديد مواقع الصواريخ وخطوط الإمداد، فضلًا عن دمج بيانات الرادار والصوت وإشارات الاتصال. وبالنسبة إلى مخططي الدفاع، تتيح هذه القدرات بناء صورة أوضح وأكثر تماسكًا عن ميزان القوة مقارنةً بالخصم، ما يعزز، نظريًا، قدرة الدولة على إرسال إشارات ردع أكثر دقة وفاعلية.
إلى جانب ذلك، يمكن للذكاء الاصطناعي أن يعزّز الردع عبر تحسين وضوح الإشارات المتبادلة بين الأطراف المتنافسة. فالدول، بحكم طبيعة الصراع، تميل أحيانًا إلى المراوغة، ما يجعل من الصعب على الخصوم التمييز بين التهديد الجاد والموقف التكتيكي. وهنا تبرز أهمية الأدوات المدعومة بالذكاء الاصطناعي، التي تتيح نقل الإجراءات المكلفة التي تتخذها الدولة لإظهار عزمها بسرعة ووضوح واتساق، بما يقلل من فرص إساءة الفهم.
وفي هذا الإطار، تستطيع أنظمة الذكاء الاصطناعي لدى الطرف الآخر تحليل هذه الإشارات بكفاءة أعلى، والتحقق من مدى جديتها. فعلى سبيل المثال، يمكن لأدوات تحليل الرأي العام في الزمن الحقيقي أن تساعد دولة ديموقراطية على إظهار أنَّ تهديداتها مدعومة بتأييد سياسي داخلي ملموس، وليس مجرد خطاب رسمي. وبالمقابل، يستطيع الخصوم استخدام أدوات مماثلة للتأكّد من صدقية هذا الدعم. كما يتيح الذكاء الاصطناعي رصد الأنماط والشذوذات التي قد لا يلتقطها التحليل البشري بسهولة، مثل التغيُّرات المفاجئة في تحركات القوات، أو التدفقات المالية، أو النشاط السيبراني، ما يمنح صانعي القرار فهمًا أدق لنوايا الخصم.
وتزداد أهمية هذه القدرات في ظل حقيقة أن المعتدي قد يستغل أي تأخير، ولو محدودًا، في ردِّ الدولة المستهدفة لتحقيق مكاسب سريعة على الأرض. لذلك يصبح الردع أكثر فاعلية عندما تنجح الدولة في إقناع خصمها بأنها قادرة على الرد بسرعة كافية لحرمانه من أيِّ أفضلية زمنية. ويسهم الذكاء الاصطناعي في تعزيز هذا التصوُّر من خلال تمكين المدافعين من اكتشاف التهديدات مبكرًا والاستجابة لها بوتيرة أسرع.
كما يساعد الذكاء الاصطناعي القادة على الحفاظ على مصداقيتهم في الأزمات الممتدة عبر تحسين التخطيط طويل الأجل. فمن خلال تشغيل أعداد كبيرة من سيناريوهات “ماذا لو”، استنادًا إلى بيانات تتعلق بالقوة العسكرية والجغرافيا وخطوط الإمداد والتحالفات، يمكن لهذه الأنظمة أن تُقدِّمَ تصوُّرات أوضح لمسارات الصراع المحتملة، وأن تدعمَ تبنِّي استراتيجيات أكثر اتساقًا مع تطور الظروف، بدل الارتهان لقراراتٍ ارتجالية في لحظات الضغط.
القوة والهشاشة
غير أنَّ التقنيات نفسها التي قد تُسهِمُ في تعزيز الردع قادرةٌ، في المقابل، على جعله أكثر هشاشة وعُرضةً للاستغلال. فبدل أن تساعد أنظمة الذكاء الاصطناعي الدولة على إيصال صورةٍ دقيقة وموثوقة عن قدراتها وعزمها، يمكن، إذا جرى التلاعب بها، أن تُنتجَ أثرًا معاكسًا، يدفع القادة إلى التشكيك في إمكاناتهم أو في جدوى التحرُّك. وقد يلجأ الخصوم إلى استخدام الذكاء الاصطناعي لتشويه الرأي العام الداخلي، أو لتسميم النماذج التحليلية التي يعتمد عليها صانعو القرار، بما يعيد تشكيل البيئة المعلوماتية للدولة على نحوٍ ينعكسُ مباشرةً على قدرتها الردعية. وفي أسوَإِ السيناريوهات، قد يؤدي هذا الارتباك إلى فشل الردع، حتى عندما تكون القدرات العسكرية والعزيمة السياسية للدولة قوية في الواقع.
ولا يقتصر هذا النوع من الاستهداف على المؤسسات الرسمية، بل يمتدُّ إلى المجتمع بأسره، بما في ذلك الشخصيات المؤثرة التي تشكّل ملامح النقاش العام، وصنّاع القرار أنفسهم. وقد جعلت التطورات المتسارعة في علم البيانات والذكاء الاصطناعي التوليدي عمليات التأثير أكثر فاعلية، لا سيما في مجالات مترابطة مثل تحديد الأهداف، وبناء الشخصيات الرقمية، وإنتاج محتوى مصمَّم خصيصًا لكل فئة أو فرد. ففي السابق، كان نشر الدعاية المُوجَّهة يعتمدُ على تقسيم الجمهور إلى مجموعات واسعة ذات سمات مشتركة، أما اليوم فيتيح الذكاء الاصطناعي أتمتة هذه العملية واستهداف الأفراد على نطاق واسع وبدقة غير مسبوقة.
وبالاستناد إلى هذه الأدوات، يمكن التنبؤ بمدى قابلية الأشخاص للتأثر برواياتٍ بعينها، أو بحساباتٍ مزيفة على وسائل التواصل الاجتماعي صُمِّمَت خصيصًا لجذب انتباههم. وبينما كانت “الروبوتات” الرقمية في السابق بدائية وسهلة الرصد، بات الذكاء الاصطناعي التوليدي قادرًا على إنشاء شخصيات اصطناعية تبدو واقعية إلى حدٍّ يصعبُ تمييزه عن المستخدمين الحقيقيين. ومع مرور الوقت، يمكن تطوير هذه الحسابات لتكتسب أنماط نشر واهتمامات وخصائص لغوية تحاكي السلوك البشري بدقة، فضلًا عن إدارتها بأعداد كبيرة وعلى منصّاتٍ متعددة، ما يزيد من صعوبة اكتشافها.
وتسمحُ هذه القدرات للشخصيات الاصطناعية بنشر محتوى مُلفَّق داخل المجتمعات المستهدفة، وتوجيه النقاش العام، وتأجيج الانقسامات السياسية والاجتماعية. فعلى سبيل المثال، قد تُستَخدَمُ هذه الحسابات، في سياق السعي لإضعاف العزيمة الشعبية في الولايات المتحدة، لنشر روايات تُصوِّرُ الجيش الأميركي على أنه مُرهَق، أو تُلمّح إلى أنَّ الحلفاء يستغلّون المظلة الأمنية الأميركية، أو تُشكك في جدوى القتال من أجل قضايا دولية بعينها. ومع تضخيم هذه الرسائل عبر منصّات متعددة، يمكن للمعلومات المضلِّلة أن تبدو واقعية، أو على الأقل أن تُحدِثَ قدرًا كافيًا من التشويش لتقويض الإجماع الشعبي وإضعاف أُسُسِ الردع من الداخل.
ومع تطوُّر هذه الأدوات، قد يصبح الذكاء الاصطناعي قادرًا على استخدام آلاف الحسابات الوهمية الفريدة لتقديم محتوى مُخصّص لكلِّ فردٍ في المجتمع، وبصورةٍ آنية. نحن هنا أمام شكلٍ جديد من الحرب المعرفية، تتجلّى آثاره مباشرة في معادلات الردع. ففي الأنظمة الديموقراطية، ترتبط مصداقية الردع إلى حدٍّ كبير بالمناخ السياسي الداخلي، ما يجعل أي تلاعب منظّم بالرأي العام عاملًا مُقوِّضًا لإشارات العزم التي تحاول الدولة إرسالها إلى الخارج.
ويمكن لعمليات التأثير المدعومة بالذكاء الاصطناعي أن تجعل الجمهور المحلي أقل استعدادًا لدعمِ ردٍّ عسكري حاسم على أيِّ عدوانٍ خارجي، ولا سيما عندما يتعلّق الأمر بالدفاع عن حليف. كما قد تؤدي إلى تشويه بيانات استطلاعات الرأي والمؤشرات الأخرى التي يعتمد عليها القادة الديموقراطيون لقياس المزاج العام. وفي ظلِّ هذا التشويش، قد يجد صانعو القرار أنفسهم غير واثقين من حجم الدعم الحقيقي الذي يحظون به، أو من الكلفة السياسية المحتملة للتراجع أو التصعيد، ما يفضي إلى التردُّد، وإضعاف العزيمة، وتشويه عملية صنع القرار، وبالتالي تقليص مصداقية تهديدات الردع في نظر الخصوم.
ولم يَعُد هذا السيناريو افتراضيًا بالكامل، إذ بدأت جهاتٌ موالية لدول بالفعل باستكشاف سُبُل تقويض أمن المعلومات عبر عمليات تأثير مدعومة بالذكاء الاصطناعي. ومن الأمثلة على ذلك شركة “غولاكسي” (GoLaxy) الصينية، التي توظّف أدوات الذكاء الاصطناعي التوليدي وقواعد بيانات مفتوحة المصدر واسعة النطاق لبناء ملفات نفسية دقيقة للأفراد الخاضعين للمراقبة، ونشر شخصيات اصطناعية تحاكي المستخدمين الحقيقيين على نطاق واسع. وغالبًا ما تعتمد حملات هذه الشركة على جمع معلومات تفصيلية عن شخصياتٍ مؤثرة، ثم استخدام هذه البيانات لإنتاج رسائل مُصَمَّمة بعناية لزيادة فرص الإقناع، قبل تمريرها عبر حساباتٍ وهمية مُعدّة بعناية على منصّات التواصل الاجتماعي.
ومن خلال الجمع بين الدقة العالية في الاستهداف والتضخيم المتزامن للروايات المُضلِّلة عبر منصّاتٍ متعدِّدة، تستطيع مثل هذه العمليات إثارة الارتباك، وإضعاف الخطاب العام، وتقويض القاعدة الشعبية التي تستندُ إليها إشارات الردع في الخارج. ويزيد من خطورة هذا النموذج ما يُنسب إلى”غولاكسي” من توافق مع أولويات الدولة الصينية، وعلاقاتها بمؤسّسات بحثية وشركات تكنولوجية مرتبطة بالدولة، ما يجعلها أداةً دعائية متقدّمة في بيئة الصراع المعلوماتي المعاصر.
وتُظهِرُ الوثائق التي جرى تحليلها في معهد الأمن القومي بجامعة “فاندربيلت” أنَّ شركة “غولاكسي” الصينية نفّذت بالفعل عملياتٍ في كلٍّ من هونغ كونغ وتايوان، وشرعت في بناء قواعد بيانات تفصيلية عن أعضاءٍ في الكونغرس الأميركي وشخصيات عامة حول العالم. وتُبيّن هذه الحالات كيف تُتيحُ المعلومات الاستخباراتية مفتوحة المصدر للخصوم تكوين ملفات شاملة عن السياسيين والقادة العسكريين وحتى الجنود، يمكن توظيفها لاحقًا في عمليات استهداف دقيقة ذات أبعاد استراتيجية.
وعلى المستوى التكتيكي، قد يُستخدَمُ هذا النوع من البيانات لاستهداف الجنود برسائل مُفبركة بتقنيات التزييف العميق، تتضمّن معلوماتٍ مضلِّلة عن ظروف ساحة المعركة أو الأوضاع الداخلية. كما إنَّ تضمين تفاصيل شخصية دقيقة عن حياتهم اليومية قد يمنح هذه الرسائل قدرًا من المصداقية يكفي لتشتيت انتباههم أو زعزعة تماسك وحداتهم. وفي المجال السياسي، يمكن دمج صور حقيقية لمسؤولين مع أصوات أو وجوه مستنسخة، بما يخلق مواد ابتزاز محتملة. وحتى في حال عدم نشر هذه المواد، فإنَّ التهديدَ بالكشف عنها قد يكون كافيًا لإضعاف الخطاب السياسي، أو تعطيل مسارات تشريعية، أو تقويض عزيمة القادة في لحظاتٍ حرجة.
وعلى مستوى أوسع، قد تلجأ أطرافٌ معادية إلى محاكاة صدور أوامر رسمية زائفة، مثل أوامر الانسحاب أو التحوُّل إلى قنوات اتصال بديلة، بما يُربِكُ القيادة ويمنح الخصم نافذة زمنية للتقدُّم. والنتيجة النهائية هي حالة من “الضباب الذهني” تشبه، في آثارها، ضباب الحرب التقليدي، لكن بأدواتٍ رقمية.
وهناكَ مسارٌ آخر لا يقلُّ خطورة يتمثّل في تسميم النماذج، أي التلاعب المُتعمَّد بأنظمة الذكاء الاصطناعي التي تعتمد عليها الحكومات في جمع المعلومات الاستخباراتية ودعم اتخاذ القرار. فمن خلال إفساد بيانات التدريب أو اختراق المسارات التحليلية لهذه الأنظمة، يستطيع الخصوم تشويه إدراك الدولة لقوتها النسبية أو لدرجة إلحاح التهديدات التي تواجهها. فالنظام الذي يقلّل من شأن الخصم قد يُغذّي ثقة مفرطة، في حين أنَّ النظام الذي يضخّم التهديد قد يدفع إلى التردُّد والشلل. وفي الحالتين، لا يقتصر الأثر على تعقيد إدارة الأزمات، بل يمتد إلى تقويض مصداقية إشارات الردع نفسها، بما يخلق مخاطر استراتيجية جسيمة.
ويعمل تسميم النماذج، في جوهره، عبر التلاعب بتدفقات البيانات التي يعتمد عليها الذكاء الاصطناعي، بحيث يتجاهلُ معلوماتٍ جوهرية أو يستوعبُ مدخلات خاطئة. ويمكن تحقيق ذلك، على سبيل المثال، عبر زرع بيانات مضلّلة داخل مجموعات التدريب. ورُغمَ أنَّ هذه المدخلات قد تبدو غير ضارة عند مراجعتها بشريًا، إلّا أنها قد تؤثر سلبًا في قدرات النموذج الاستدلالية، كأن يخدع في تصنيف برمجيات ضارة على أنها آمنة، ما يتيح للمهاجمين تجاوز أنظمة الحماية المدعومة بالذكاء الاصطناعي.
ورُغمَ عدم تسجيل حالات مؤكدة لاستخدام هذا الأسلوب على نطاق واسع حتى الآن، فإنَّ الأبحاث الحديثة في مجال الذكاء الاصطناعي تُظهر أنَّ مجموعات البيانات المتاحة حاليًا عُرضةً لمثل هذه الهجمات. وما كان يُنظر إليه سابقًا بوصفه تهديدًا نظريًا، بات اليوم احتمالًا عمليًا ينبغي التعامل معه بجدية في سياق الردع والأمن القومي.
وُيمكِنُ كذلك تسميم النماذج عبر إنشاء مواقع إلكترونية مُختَرََقة تُستَغَلُّ كقنوات إدخال غير مباشرة. فأنظمة الذكاء الاصطناعي تعتمد على البحث المستمر في الإنترنت لجمع معلومات حديثة، ما يفتح الباب أمام إدخال تعليمات خفية أو بيانات مضلّلة من خلال هذه الصفحات. وإذا كانت آليات التصفية التي تفحص البيانات الواردة ضعيفة أو غير محكمة، فإنَّ عددًا محدودًا من المواقع المخترَقة قد يكون كافيًا لإنتاج استجابات غير دقيقة، وتشويه تقييمات النموذج من دون أن يلفت ذلك الانتباه فورًا.
وفي هذا السياق، يُعدّ تسميم النماذج أحد أكثر أشكال حرب المعلومات خفاءً، إذ يُتيحُ للخصوم التأثير في فهم المُدافِع لقدراته وعزيمته، أو لقدرات خصومه، من خلال العبث بالأدوات المُصمَّمة أصلًا لتوفير الوضوح. وفي أوقات الأزمات، قد يدفع هذا التشويش القادة إلى التردد، أو الأسوأ من ذلك، إلى سوء التقدير، بما يُضعف الردع ويفتح المجال أمام التصعيد غير المحسوب.
وكان من المفترض أن يسهم صعود أنظمة الذكاء الاصطناعي في تعزيز الردع عبر إرسال إشارات أوضح وأكثر دقة حول قدرات الدول وعزمها. غير أنَّ الاستخدام المتزايد لحرب المعلومات، المدفوعة بهذه الأنظمة نفسها، يُهدّدُ بقلب هذه المعادلة. فحتى في مراحلها المبكرة، أظهرت هذه الموجة الجديدة من الصراع المعلوماتي قدرة الذكاء الاصطناعي على التأثير في كيفية تفسير المعلومات، وإدخال مستويات عالية من عدم اليقين في التقييمات، وتشويه البيانات التي تُبنى عليها قرارات مصيرية. ومع استمرار تطور هذه التقنيات، يُرجَّح أن تتضاعف خطورة هذه التهديدات.
وفي هذا الإطار، قد تجد حتى دولة تمتلك قدرات كبيرة، مثل الولايات المتحدة، صعوبة في إظهار ردع موثوق إذا تعرضت لحرب معلوماتية متقدّمة مدعومة بالذكاء الاصطناعي. ويكمن التحدي الحقيقي أمام صانعي السياسات والجمهور على حد سواء في تحقيق توازن دقيق: الاستفادة من مزايا الذكاء الاصطناعي دون السماح بتحوُّله إلى أداةٍ تُستَخدَم ضدهم. ويتطلب ذلك تطوير استراتيجيات استجابة وحماية بالسرعة نفسها التي تتطوَّرُ بها التقنيات التي تُغذّي هذا الشكل الجديد من الصراع.
تتطلّب مواجهة هذا التحدّي المتصاعد من الحكومات والمؤسسات البحثية اتخاذ خطوات عملية لتعزيز مناعة أنظمة التحليل أمام التلاعب، والتصدي السريع لعمليات التأثير المدعومة بالذكاء الاصطناعي فور رصدها. وفي مواجهة كيانات مثل”غولاكسي” (GoLaxy)، يصبح لزامًا على الولايات المتحدة وحلفائها تطوير قدرات قادرة على كشف الشبكات المصطنعة وتعطيلها في مراحلها المبكرة، عبر أدوات ترصد الشخصيات المدعومة بالذكاء الاصطناعي وتُحيّدها قبل أن تترسخ في الفضاء العام. كما يمكن لحملات التوعية حول المحتوى الاصطناعي وأساليب كشفه أن تسهم في رفع مستوى الوعي المجتمعي بهذا الخطر المتنامي. ويتطلب ذلك تنسيقًا وثيقًا بين الحكومات الديموقراطية، ومنصات التواصل الاجتماعي، وشركات الذكاء الاصطناعي، والباحثين من مختلف التخصصات.
وعلى المستوى الاستراتيجي، ينبغي للولايات المتحدة الاستثمار في تقنيات قادرة على الكشف السريع والدقيق عن الرسائل المصطنعة، بالتوازي مع تصميم أطر جديدة لاتخاذ القرار وأنظمة تصفية بيانات أكثر صلابة، قادرة على مقاومة المدخلات الملوثة. كما يتعين العمل مع الحلفاء على كشف ومساءلة الجهات التي تقف وراء حملات التأثير واسعة النطاق. وفي هذا السياق، تبرز أهمية إخضاع النماذج الجديدة لاختبارات منهجية صارمة لاكتشاف نقاط الضعف الكامنة فيها، بما في ذلك أشكال تسميم البيانات التي قد لا تظهر في الاستخدام الاعتيادي، وذلك ضمن بيئة شفافة تتيح المراجعة والتدقيق من قبل خبراء مستقلين. فوجود ضمانات قوية وآليات اختبار دقيقة بات شرطًا أساسيًا لضمان أداء أنظمة الذكاء الاصطناعي بفعالية في أوقات الضغط والأزمات غير المتوقعة.
وفي نهاية المطاف، لم يعد الردع في عصر الذكاء الاصطناعي قائمًا على توازن القدرات والعزيمة وحدهما، بل بات مرتبطًا بقدرة الدول على حماية سلامة بيئاتها المعلوماتية. وسيكون الحفاظ على موثوقية المعلومات، في مواجهة التشويه الرقمي المتزايد، أحد التحديات المركزية التي ستواجه القادة وخبراء الدفاع وصناع القرار في السنوات المقبلة، وربما العامل الحاسم في منع الأزمات من الانزلاق إلى صراعات مفتوحة.
- بريت بنسون هو أكاديمي وباحث أميركي، يشغل منصب أستاذ مشارك في العلوم السياسية والدراسات الآسيوية بجامعة فاندربيلت في الولايات المتحدة.
- بريت غولدشتاين هو مستشار خاص لرئيس جامعة فاندربيلت لشؤون الأمن القومي والمبادرات الاستراتيجية، وأستاذ باحث في كلية الهندسة بالجامعة نفسها.
- يَصدُرُ هذا المقال بالعربية في “أسواق العرب” توازيًا مع صدوره بالإنكليزية في “فورين أفِّيرز” الأميركية.




يجب عليك تسجيل الدخول لكتابة تعليق.