الحرب على الحقيقة في إيران: كيف تحوَّلَ الذكاءُ الاصطناعي إلى سلاحٍ في المعارك

لم تعد الحروب تُخاض بالصواريخ وحدها، بل بالصور والروايات التي تنتشر أسرع من أيِّ ضربةٍ عسكرية. في الصراع الإيراني، يكشف الذكاء الاصطناعي عن وجه جديد للحرب—حيث يصبح التشويش على الحقيقة سلاحًا بحدِّ ذاته.

امرأة تعرض صورة تم إنشاؤها بواسطة الذكاء الاصطناعي للمرشد الأعلى الإيراني الجديد، مجتبى خامنئي، بالزي العسكري للحرس الثوري الإسلامي على شاشة هاتفها المحمول خلال مسيرة مؤيدة للحكومة في وسط مدينة طهران.

فاليري ويرتسشافتر*

في 28 شباط (فبراير) 2026، شنّت الولايات المتحدة وإسرائيل هجومًا عسكريًا مشتركًا استهدف منشآت إيران النووية وبنيتها التحتية العسكرية ومراكز قيادتها، في عملية أُطلق عليها رسميًا اسم “الغضب الملحمي”. لكن ما إن بدأت الضربات على الأرض، حتى اندلعت معركة موازية في الفضاء الرقمي.

خلال ساعات، امتلأت منصّات التواصل الاجتماعي بسَيلٍ من المقاطع والصور التي توثّق —ظاهريًا— تطوّرات الصراع: انفجارات ضخمة في تل أبيب، ضربات إيرانية دقيقة تُصيبُ سفنًا حربية أميركية، وصور أقمار اصطناعية تزعم إظهار أضرار جسيمة في قواعد عسكرية أميركية في الخليج. غير أنَّ جُزءًا كبيرًا من هذا المحتوى لم يكن حقيقيًا.

بعضُ هذه المواد أُعيد تدويره من نزاعات أخرى، من بينها الحرب في أوكرانيا، بل إنَّ بعضها مستخرجٌ من ألعاب فيديو. لكن اللافت أنَّ قسمًا متزايدًا منها لم يكن مجرّد إعادة استخدام، بل صُنِعَ بالكامل باستخدام أدوات الذكاء الاصطناعي التوليدي، التي باتت قادرة على إنتاج محتوى بصري وصوتي شديد الواقعية وعلى نطاقٍ واسع. وقد أشار مراقبون إلى أنَّ حجم هذا المحتوى وتطوُّره التقني بلغا مستوى غير مسبوق.

ورُغم التحذيرات المتكرّرة في السنوات الأخيرة من أنَّ الذكاء الاصطناعي سيُغرِقُ الفضاء المعلوماتي بمحتوى يصعب التحقُّق منه، فإنَّ حضوره الفعلي ظل محدودًا نسبيًا حتى وقت قريب. ففي العام 2024، الذي وُصِفَ بـ”عام الانتخابات”، لم يؤدِّ المحتوى المُولَّد بالذكاء الاصطناعي —على الرغم من وجوده— إلى تعطيل ملموس للعملية الانتخابية على مستوى العالم. وحتى في المراحل الأولى من الحرب بين إسرائيل و”حماس”، بقي هذا النوع من المحتوى هامشيًا مقارنة بحجم المعلومات المضللة التقليدية.

لكن ما يجري اليوم يطرح تساؤلًا مختلفًا: هل يشهد الصراع في إيران نقطة تحول حقيقية في استخدام المحتوى المُولَّد بالذكاء الاصطناعي؟ وإذا كان الأمر كذلك، فما الذي دفع إلى هذا التصعيد النوعي—وما الذي يعنيه ذلك لمستقبل الحقيقة في زمن الحروب الرقمية؟

ما بقي على حاله

تصاعُدُ المحتوى الكاذب والمُضلّل—وخصوصًا في لحظات الأزمات—ليس ظاهرة جديدة. ففي العام 2023، ومع اندلاع الحرب بين إسرائيل و”حماس”، اجتاحت موجة من الادعاءات غير الدقيقة الفضاء الرقمي. كان ذلك نتيجة فجوة واضحة بين الطلب المتزايد على معلومات موثوقة وتوافرها المحدود، إلى جانب الحوافز المالية المرتبطة بالانتشار السريع، والتغيرات في سياسات المنصات، وتفكك المساحات الرقمية التي كان يعتمد عليها الصحافيون والباحثون لرصد الوقائع ميدانيًا.

اليوم، لا تزال هذه الديناميكيات قائمة إلى حد كبير. فالفجوة بين الحاجة إلى معلومات دقيقة حول الصراع وتوافرها لم تُسَدّ، بل ربما اتسعت. وفي هذا الفراغ، يجد المحتوى المضلل مساحة للانتشار والتداول. كما لم تتغير الحوافز الاقتصادية التي تُغذّي هذا الانتشار. إذ تعتمد بعض المنصات، مثل “إكس”  (X)، على نماذج تقاسم الإيرادات التي تكافئ المستخدمين بناءً على عدد المشاهدات أو التفاعل، ما يخلق دافعًا مباشرًا لإنتاج محتوى مثير– حتى على حساب الدقة. وخلال الأسابيع الأولى من التصعيد في إيران، حصدت مقاطع مصوّرة مُولَّدة بالذكاء الاصطناعي—تُصَوِّر هجمات غير حقيقية—ملايين المشاهدات خلال وقتٍ قياسي.

في موازاة ذلك، اتجهت منصات كبرى مثل “إكس” و”ميتا” (Meta) إلى توسيع الاعتماد على الإشراف الجماعي للمحتوى. من حيث المبدأ، تبدو هذه المقاربة واعدة، لكنها تواجه اختبارات حقيقية في أوقات الأزمات. فخلافًا للفرق الداخلية المتخصصة التي يمكن إعادة توجيهها سريعًا لمواكبة تدفُّق المحتوى، يعتمد الإشراف الجماعي على ديناميكيات غير مستقرة؛ قد يتوسع مع تصاعد الأحداث، لكنه لا يضمن بالضرورة استجابة سريعة أو فعّالة. كما إنَّ الخوارزميات التي تُحدّد مدى فائدة الملاحظات أو التنبيهات تبقى ثابتة، بغض النظر عن حساسية السياق أو تسارُع التطورات.

الأكثر تعقيدًا أنَّ أدوات التحقُّق المُتقدِّمة—خصوصاً تلك القادرة على كشف المحتوى المُولَّد بالذكاء الاصطناعي—لا تزال محدودة الانتشار، وغالبًا ما تبقى خارج متناول الجمهور العام. وحتى عندما تكون متاحة، فإنَّ فعاليتها ليست مطلقة. في بيئة كهذه، يصبح التمييز بين الحقيقي والمصطنع أكثر صعوبة، ليس فقط للمستخدمين العاديين، بل حتى للمتخصّصين.

ما حجم مشكلة المحتوى الناتج عن الذكاء الاصطناعي؟

لفهم مدى استخدام أدوات الذكاء الاصطناعي التوليدي في الصراع الإيراني، اتجهتُ إلى تحليل بيانات “ملاحظات المجتمع” على منصة “إكس”  (X)، التي لا تزال تُعد من أبرز أدوات إدارة المحتوى على المنصة. يقوم هذا النظام على مزيج من التعهيد الجماعي وإجماع المستخدمين، حيث يُكلَّف المشاركون بإضافة سياق توضيحي إلى المنشورات—بما في ذلك الإشارة إلى محتوى قد يكون مضللًا، أو خارجًا عن سياقه، أو غير دقيق، أو حتى مُولَّدًا باستخدام الذكاء الاصطناعي.

بعد ذلك، يقوم مستخدمون آخرون بتقييم هذه الإضافات. وإذا حازت على موافقة عدد كافٍ من المشاركين الذين تم تصنيفهم ضمن “وجهات نظر متنوعة”—وفق خوارزمية تستنتج هذه التوجهات بناءً على أنماط التقييم—يتم إلحاق الملاحظة بالمنشور وجعلها مرئية للعموم. ورُغمَ أنَّ أيَّ مستخدم يمكنه إضافة سياق لأيِّ منشور، فإنَّ طبيعة النظام القائمة على الإجماع تعني أنَّ نسبةً صغيرة فقط من هذه الملاحظات تصل إلى الجمهور. غير أنَّ الأهم هو أنَّ كامل بيانات “ملاحظات المجتمع” متاحة بشكلٍ علني، ما يتيح نافذة نادرة لرصد حجم المحتوى المتنازع عليه عبر المنصة.

وبالاستناد إلى هذه البيانات، يتضح أنه خلال الأسابيع الأخيرة سجّل المحتوى الذي وُضع عليه وسم مرتبط بالذكاء الاصطناعي التوليدي ارتفاعًا غير مسبوق منذ انتشار هذه الأدوات على نطاق واسع. فقد تم تسجيل أكثر من 5000 ملاحظة تشير إلى محتوى مُحتمل أن يكون ناتجًا عن الذكاء الاصطناعي منذ اندلاع الصراع. ويأتي ذلك في سياق تصاعد تدريجي خلال الشهرين الماضيين في عدد الملاحظات المرتبطة بمصطلحات الذكاء الاصطناعي، بما في ذلك ارتفاع ملحوظ عقب أحداث عنف سابقة مثل الهجوم على شاطئ بوندي والتوترات المرتبطة بتطبيق قوانين الهجرة في ولاية مينيسوتا.

ومع ذلك، من المهم وضع هذه الأرقام في سياقها الصحيح. فهذه المؤشرات—رغم ارتفاعها—لا تزال تمثل نسبة محدودة من إجمالي المحتوى المتنازع عليه على “إكس”، ولا تعني بالضرورة أن الذكاء الاصطناعي قد استُخدم فعليًا في جميع الحالات. كما إنَّ ظاهرة ما يُعرف بـ”عائد الكاذب” (Liar’s Dividend) تبدو حاضرة أيضًا، حيث يتم أحيانًا التشكيك في محتوى حقيقي واعتباره مُولَّدًا بالذكاء الاصطناعي، ليس لعدم صحته، بل لأنه غير مريح أو لا يتماشى مع تصوّرات معينة.

مشكلة طبقات المعلومات

تتميّز اللحظة الراهنة عن موجات التضليل السابقة بتطورات نوعية عدة قد تفسّر الحضور المتزايد للذكاء الاصطناعي التوليدي داخل المشهد المعلوماتي المتنازع عليه. أبرز هذه التحوّلات هو التقدم السريع في التكنولوجيا نفسها، التي لم تعد تعمل بمعزل، بل باتت مدعومة بطبقات جديدة مثل روبوتات الدردشة المدمجة في محركات البحث ومنصات التواصل، بما فيها “إكس”. هذه الأدوات لم تعد مجرد وسائل مساعدة، بل أصبحت جزءًا من بنية إنتاج وتداول المعلومات.

ورُغمَ التحسُّن الملحوظ في أدائها، لا تزال هذه الأنظمة تواجه صعوبة في مواكبة التطوُّرات لحظة بلحظة، خصوصًا في سياقات سريعة التغير مثل النزاعات المسلحة. ومع ذلك، يتزايد اعتماد المستخدمين عليها كمصدر أولي للمعلومات. وقد ظهر ذلك بوضوح خلال الصراع الحالي، حين صنّف برنامج “غروك” (Grok) التابع لمنصة “إكس” مقاطع مصوّرة لرئيس الوزراء الإسرائيلي بنيامين نتنياهو على أنها مزيفة، ما أثار موجة من الارتباك وأسهم في تغذية الشائعات حول مكان وجوده.

في موازاة ذلك، أصبح مجال كشف المحتوى المُولَّد بالذكاء الاصطناعي أكثر تعقيدًا وإشكالية. فالأدوات المتاحة لهذا الغرض متفاوتة في دقتها، وغالبًا ما تتطلّب مستوى تقنيًا متقدّمًا لا يتوافر لدى المستخدم العادي. وحتى في الأوساط المتخصصة، لا يزال التمييز بين الحقيقي والمصطنع تحديًا قائمًا. وفي سياق الصراع الإيراني، وثّق باحثون حالات اعتمد فيها محللو المصادر المفتوحة على أدوات كشف غير دقيقة لاستبعاد صور أصلية، ما ساهم في تعميق حالة الشك وعدم اليقين.

تتضاعف خطورة هذه الإشكاليات في ظلِّ توجّه المنصّات بشكل متزايد نحو الاعتماد على المستخدمين أنفسهم لتقييم المحتوى والإبلاغ عنه. ففي حين كانت “إكس” رائدة في تبنّي نموذج الإشراف المجتمعي القائم على الإجماع منذ أواخر العام 2023، بدأت منصات أخرى مثل “ميتا” بتوسيع هذا النهج عبر “فايسبوك” و”إنستغرام” و”ثريدس”، بالتوازي مع تقليص استثماراتها في التحقق المهني من الحقائق. من حيث المبدأ، يمكن لهذا النموذج أن يعزز الثقة ويشرك المستخدمين في ضبط جودة المحتوى، لكنه يواجه تحديات حادة في أوقات الأزمات، حين يتزايد الطلب على المعلومات بشكل يفوق قدرة المجتمعات الرقمية على الاستجابة السريعة.

ففي الأنظمة التقليدية، يمكن إعادة توجيه الموارد الداخلية لمواجهة تدفق المعلومات في لحظات الذروة. أما في النماذج المعتمدة على الجمهور، فهذه المرونة تصبح محدودة، إذ تعتمد فعالية الإشراف على حجم المشاركة ونوعية التفاعل، وهي عوامل لا يمكن التحكم بها بسهولة.

وتعكس البيانات هذا التحدّي بوضوح. فقد تراجعت نسبة الملاحظات التي يصنّفها المستخدمون على أنها “مفيدة” بمرور الوقت، رغم الارتفاع الملحوظ في عدد الملاحظات المرتبطة بالمحتوى المُولَّد بالذكاء الاصطناعي. ففي أعقاب الانتخابات الأميركية عام 2024، لم تتجاوز هذه النسبة 1.5% من إجمالي المحتوى المتنازع عليه. أما خلال الشهرين الماضيين، فقد ارتفعت إلى ما بين 7% و8%، أي أنَّ نحو واحدة من كل 12 ملاحظة على “إكس” تشير إلى احتمال استخدام الذكاء الاصطناعي.

ورغم هذا الارتفاع، تبقى قدرة النظام على إرفاق سياق توضيحي بالمنشورات محدودة، نظرًا لاعتماده على قاعدة من المساهمين المتطوعين، وعلى قدرتهم على التوصل إلى توافق فعّال. ومع تضخّم حجم المحتوى المضلل في أوقات الأزمات، يصبح من الصعب على هذه النماذج مواكبة التدفق المتسارع للمعلومات. وعلى “إكس”—وربما على منصات أخرى بدأت حديثًا في تبنّي هذا النهج—يبدو أنَّ الإشراف لا يتوسع بالوتيرة نفسها التي يتوسّع بها المحتوى، ببساطة لأنَّ المنصة لا تتحكَّم في من يشارك، أو متى، أو كيف.

التزييف العميق كسلاح في الحرب

رُغمَ أنَّ تصاعد المحتوى المُولَّد بالذكاء الاصطناعي على منصة “إكس” يأتي ضمن اتجاه أوسع شهدته الأشهر الأخيرة، فإنَّ الصراع الحالي يبرز بوضوح من زاوية محددة: استخدام هذا النوع من المحتوى كامتداد مباشر للمجهود الحربي. فمنذ سنوات، حذّر الباحثون من إمكان توظيف أدوات الذكاء الاصطناعي في النزاعات، ليس فقط لنشر معلومات مضللة، بل لإرباك الخصوم، وتشويه سمعة القادة، وتقويض الثقة العامة، وتعميق الانقسامات داخل المجتمعات.

في السياق الراهن، تبدو هذه المخاوف وقد تحوّلت إلى واقع ملموس. فحرب المعلومات المدعومة بالذكاء الاصطناعي باتت متعددة الاتجاهات، ما يجعل البيئة المعلوماتية أكثر تعقيدًا لجميع الأطراف. ومع ذلك، يكتسب هذا الاستخدام أهمية خاصة في الحالة الإيرانية، حيث يواجه النظام فجوة واضحة في موازين القوة العسكرية التقليدية أمام الولايات المتحدة وإسرائيل. في مثل هذا السياق، تصبح المعركة على السردية والرواية—وليس فقط على الأرض—أداة استراتيجية بحد ذاتها.

إثارة الارتباك، وبث الشكوك حول فعالية العمليات العسكرية الأميركية، قد لا يكونان مجرد أهداف ثانوية، بل جزءًا من استراتيجية أوسع تهدف إلى إطالة أمد الصراع وتعزيز قدرة النظام على الصمود. ومن هذا المنطلق، يبدو اللجوء إلى الذكاء الاصطناعي التوليدي امتدادًا طبيعيًا لأساليب إيران السابقة في حرب المعلومات، ولكن بوتيرة أسرع وأدوات أكثر تطوّرًا.

وقد وثّقت تقارير حديثة حملات منسقة للتزييف العميق، تضمنت مقاطع فيديو متطابقة، وتعليقات مكررة، وتوقيتات نشر متزامنة، إلى جانب استخدام منظم للوسوم المرتبطة بالرواية الإيرانية. ولا تأتي هذه التحركات من فراغ، بل تندرج ضمن مسار أوسع من التجارب السابقة التي سعى فيها النظام إلى توظيف الذكاء الاصطناعي للتأثير في الرأي العام، بما في ذلك خلال محطات سياسية حساسة مثل الانتخابات الأميركية.

في هذا الإطار، لا يقتصر دور المحتوى المُولَّد بالذكاء الاصطناعي على التضليل المباشر، بل يمتد إلى تغذية حالة أوسع من الضبابية الرقمية. فالهدف ليس بالضرورة إقناع الجمهور برواية محددة، بل إرباكه إلى حد يصبح معه التمييز بين الحقيقة والادعاء أمرًا بالغ الصعوبة. هذا النوع من الاضطراب المعلوماتي—حتى وإن لم يكن مدفوعًا بالكامل بالذكاء الاصطناعي—يُوظَّف لتعزيز مكاسب سياسية واستراتيجية على الأرض.

وتتقاطع هذه الديناميكيات مع السياق السياسي الداخلي في الولايات المتحدة. فقد شكّل شعار “أميركا أولاً”، الذي رفعه الرئيس دونالد ترامب خلال حملته الانتخابية عام 2024، ركيزة أساسية في خطابه، متعهّدًا بإنهاء “حروب الماضي”. ومع أن قاعدته الشعبية لا تزال تدعم العمليات العسكرية في الوقت الراهن، فإنَّ مؤشرات الانقسام بدأت بالظهور، خصوصًا في ظل كلفة الصراع وتداعياته.

ضمن هذا المشهد، يبدو أن جُزءًا من المحتوى الذي يتم تداوله—وأحيانًا الترويج له بشكل مباشر من قبل جهات مرتبطة بإيران—يهدف إلى تضخيم القدرات العسكرية الإيرانية، والمبالغة في حجم الأضرار التي لحقت بالقوات الأميركية والإسرائيلية. والغاية ليست فقط التأثير في الرأي العام الخارجي، بل أيضًا تسريع تآكل الدعم الشعبي داخل الولايات المتحدة نفسها.

من خلال إغراق الفضاء المعلوماتي بهذا النوع من المحتوى، تراهن طهران على أنَّ التشويش المستمر قد يكون بحد ذاته أداة فعّالة. والذكاء الاصطناعي، في هذا السياق، لا يغيّر طبيعة الحرب بقدر ما يعيد تشكيل أدواتها—جاعلًا إياها أسرع، وأرخص، وأكثر قدرة على الوصول، وربما أكثر تأثيرًا مما كان عليه الحال في السابق.

التطلع إلى الأمام

في نهاية المطاف، يكشف هذا المشهد عن تلاقي مجموعة من العوامل التي لم تجتمع بهذا الشكل من قبل: قدرات متقدّمة ومتسارعة للذكاء الاصطناعي، ونظام معلوماتي مُتشظٍّ ومتعدد الطبقات، وتراجع في أنماط الإشراف التقليدي على المحتوى، إلى جانب فاعلين حكوميين يوظّفون هذه الأدوات ضمن استراتيجيات محددة. هذا التلاقي لا يخلق مجرد تحديات تقنية، بل يُضعف أسس النقاش العام ذاته، خصوصًا في سياقات النزاع المسلح حيث تصبح الحقيقة أكثر هشاشة، والرأي العام أكثر عُرضةً للتأثير.

في هذا السياق، يتقاطع تسييس الإشراف على المحتوى مع الحاجة المتزايدة إليه. فبينما يتحوّل الإشراف إلى ساحة جدل سياسي، يتسع في الوقت نفسه نطاق المحتوى المُولَّد بالذكاء الاصطناعي كأداة مؤثرة في الحروب الحديثة. وهذا التناقض يعقّد الاستجابة، ويجعل من الصعب بناء آليات فعّالة تواكب حجم التحدّي.

ويبرز الصراع الإيراني مثالًا ملموسًا على أهمية وجود أنظمة أكثر فاعلية لإدارة المحتوى. فالإشراف، في شكله الحالي، يحتاج إلى أن يكون أكثر قدرة على التعامل مع حالات عدم اليقين—ليس فقط من خلال إزالة المحتوى أو تصنيفه، بل عبر توفير سياق واضح يشير إلى درجة موثوقيته، خصوصًا في اللحظات التي يكون فيها الجمهور أكثر قابلية للتأثر وأكثر استهدافًا من قبل حملات خارجية.

كما يسلّط هذا الواقع الضوء على الحاجة الملحّة إلى الاستثمار في أدوات كشف أكثر دقة وموثوقية، لا سيما مع استمرار تطوُّر نماذج الذكاء الاصطناعي وتزايد قدرتها على إنتاج محتوى يصعب تمييزه. وفي موازاة ذلك، يزداد الاهتمام بتقنيات التحقق والمصادقة على المحتوى الرقمي كجُزءٍ من الحل.

توفر البيانات المستمدة من نظام “ملاحظات المجتمع” على منصة “إكس” لمحة نادرة عن حجم هذا التحدّي، رُغم أنه لا يزال صعب القياس بشكل دقيق. لكنها تكشف أيضًا عن فجوة واضحة بين ما تستطيع الأنظمة الحالية تحقيقه، وما تتطلبه هذه اللحظة من أدوات أكثر سرعة ومرونة وفعالية.

في النهاية، لم يعد السؤال ما إذا كان الذكاء الاصطناعي سيؤثر في بيئة المعلومات أثناء الحروب، بل كيف—وإلى أي مدى—يمكن للمجتمعات والمؤسسات مُواكَبة هذا التحوُّل قبل أن يسبقها.

Exit mobile version