بينما يُعيدُ الاتحادُ الأوروبي فتحَ قانون الذكاء الاصطناعي بعدَ أشهرٍ فقط من إقراره، يتضح أنَّ العالم يركض أسرع من القواعد التي تُنظّمه. وبالنسبة إلى دول الخليج، لا يبدو السؤال كيف نستخدم الذكاء الاصطناعي فقط، بل كيف نحكمه من دون خنق طموحات التنويع الاقتصادي أو تعريض الاستقرار المؤسسي لمخاطر غير محسوبة.
نايف النابت*
عندما شرعَ المنظّمون في مناقشة إدخال تعديلات على قانون الذكاء الاصطناعي للاتحاد الأوروبي لعام 2024، بعد أشهرٍ قليلة فقط من إقراره، شكّل ذلك مؤشّرًا واضحًا على عمق التحدّيات التنظيمية التي يطرحها هذا القطاع. فقد أظهر هذا التشريع الشامل، وهو الأوّل من نوعه عالميًا، أنّ حتى الجهات التنظيمية ذات الخبرة الطويلة، مثل الاتحاد الأوروبي، تُعاني صعوبة في مواكبة التسارع الهائل في تطوّر تقنيّات الذكاء الاصطناعي، وتَرزَحُ تحت وطأة ضغوط سياسية وتجارية مكثّفة، ومن دون القدرة على بلورة أطر تنظيمية واقعية وفعّالة. وبالنسبة إلى المراقبين في الخليج، بدت هذه التجربة بمثابةِ جرسِ إنذارٍ يسلّط الضوء على الحاجة المُلحّة إلى تحقيق توازنٍ دقيق بين تحفيز الابتكار وإدارة المخاطر.
وقد باتت صناعة الذكاء الاصطناعي تُشكّلُ ركنًا أساسيًا في إستراتيجيات الابتكار والتنويع الاقتصادي في الدول الخليجية، حيث تستثمر بلدانٌ مثل المملكة العربية السعودية والإمارات العربية المتّحدة وقطر بكثافة في بنية الذكاء الاصطناعي التحتية وقدراته، مع السعي إلى تثبيت مواقعها كنقاط ارتكاز رئيسة ضمن شبكة الذكاء الاصطناعي العالمية. غير أنّ هذا القطاع الناشئ، على الرُغمِ من زخمه المُتسارِع، هو في جوهره سباقٌ تنافسي محموم، لا يرغب أيُّ طرف فيه في التخلّف عن الركب أو تقييد طموحاته، وفي الوقت نفسه يفتقر الجميع إلى رؤيةٍ واضحة عن وجهته النهائية أو انعكاساته المُحتَملة على الاقتصادات الوطنية، وأسواق العمل، والبنى الاجتماعية في المديَين المتوسّط والبعيد.
وانطلاقًا من ذلك، يُفتَرَضُ أن تتّسمَ الأُطُرُ التنظيمية بالمرونة الكافية لتمكين النمو وتوفير فرص تحقيق ميزة تنافسية. إلّا أنّ عدمَ اليقين، وضغوط السوق، واستمرار الجدل بشأن أيِّ جوانب الذكاء الاصطناعي تستوجب كبح جماحها وضبطها، كلّها عوامل تجعل من تحقيق وضوح تنظيمي مهمّة بالغة الصعوبة. ولا يُعدّ هذا الإرباك التنظيمي محض مصادفة، بل يعكس عجزًا بُنيويًا في النظم السياسية والاقتصادية القائمة عن الاستجابة السريعة والفعّالة ومواكبتها لتقنيات تتطوّر بوتيرة تفوق قدراتها المؤسّسية. وعليه، ستظلّ حوكمة الذكاء الاصطناعي مجالًا متنازعًا عليه وهشًّا طالما لم تتوافق القوى الدافعة للتطوير مع متطلّبات المساءلة.
لحظةُ الذكاء الاصطناعي في الخليج
تُعَدُّ حَوكَمة الذكاء الاصطناعي مسألةً ملحّةً في منطقة الخليج، في سياقٍ يتّسمُ بتقاطع الانتشار السريع لهذه التقنيات مع تَرَكُّزِ السلطة السياسية والمؤسّسية. فقد رسخّت إستراتيجيات وطنية، مثل الإستراتيجية الوطنية للذكاء الاصطناعي في قطر 2019، والإستراتيجية الوطنية للذكاء الاصطناعي في الإمارات 2031، والإستراتيجية الوطنية للبيانات والذكاء الاصطناعي في السعودية، أهدافًا طويلة الأمد تهدف إلى ضمان الريادة الإقليمية في بنية الذكاء الاصطناعي التحتية وخدماته. كما تشير المؤسّسات المستحدثة في هذا المجال، إلى جانب الاستثمارات التي تُقدَّر بمليارات الدولارات، إلى التزامٍ سياسي واضح بتوظيفِ الذكاء الاصطناعي كأداةٍ لتحوّلٍ اقتصادي طويل الأمد والتحديث الهيكلي.
وقد أحدث الذكاء الاصطناعي بالفعل تحوّلات ملموسة في قطاعاتٍ محورية من اقتصادات الخليج، تشمل الطاقة، والنقل، والتعليم، والرعاية الصحية. ففي قطاع الخدمات المالية، يُوَظَّفُ الذكاء الاصطناعي لتعزيز آليّات تقييم المخاطر والامتثال التنظيمي، بما يدعم الثقة الاقتصادية ويُعزّز الشفافية المؤسّسية. كذلك، تبرزُ الإدارة العامة مثالًا واضحًا على الأثر العملي لهذه التقنيات، من خلال اعتمادها في تشغيل روبوتات المحادثة، والتحليلات التنبُّؤية، وحلول المدن الذكية.
وقد أتاح هذا التقدّم اعتماد نماذج حوكمة مرنة في دول خليجية سمحت بالنشر السريع لتطبيقات الذكاء الاصطناعي وابتكاراته. غير أنّ التوسّع المتسارع في تبنّي هذه التقنيات يرافقه تصاعدٌ في مستويات عدم اليقين بشأن آثارها بعيدة المدى، ولا سيّما في ما يتصل بطبيعتها بوصفها تكنولوجيا مُربِكة، وما قد يترتب عليها من تداعيات على قدرة الدول على تحقيق أهدافها وخططها الوطنية المُعلَنة.
لماذا تتعثّر الحوكمة
تُشكّل ثلاثة عوائق بنيوية أبرز التحدّيات التي تواجه حوكمة الذكاء الاصطناعي، سواء في منطقة الخليج أو على المستوى العالمي. يتمثّل أوّل هذه العوائق في طبيعة تقنيات الذكاء الاصطناعي الغامضة، إلى جانب الفجوة المعرفية التي تفصل غالبًا بين هذه التقنيات وصانعي السياسات. فالذكاء الاصطناعي تكنولوجيا سلوكية لا تعمل دائمًا وفق منطقٍ ثابت أو قواعد يمكن التنبؤ بمخرجاتها مُسبقًا. وحتى التطبيقات المُصمَّمة بنوايا إيجابية قد تفضي، عند نشرها على نطاق واسع أو مع تطوّرها بمرور الزمن، إلى نتائج غير مقصودة أو ضارّة. وبناءً عليه، يُتوقّع من الجهات التنظيمية ضبط أنظمةٍ غامضة ولا يمكن التنبؤ بها، في حين لا تزال عملية تقييم آثارها بعيدة المدى مهمةً عصيّةً.
يرتبط العائق الثاني بوتيرة التطوّر السريعة لهذه التكنولوجيا. فبينما لا تتجاوز دورات تطوير أنظمة الذكاء الاصطناعي بضعة أشهر، تُصاغ الأطر التنظيمية عادة لتغطّي سنوات. وتبدو دورات السياسات العامة التقليدية، التي تشمل التشاور مع أصحاب المصلحة، وصياغة السياسات، وتنفيذها، ثم تقييمها، غير ملائمة بطبيعتها لمتطلّبات تنظيم مجال الذكاء الاصطناعي. وفي هذا السياق، تواجه حكومات الخليج معضلة مُوازَنة صعبة بين التحرّك السريع، مع ما يحمله ذلك من مخاطر صياغة أطر تنظيمية سطحية، وبين إرجاء التدخّل بما قد يفقد السياسات جدواها ومواكبتها لمجال الذكاء الاصطناعي.
أما العائق الثالث، فيكمن في أنّ أنظمة تنظيم الذكاء الاصطناعي لا تعمل بمعزل عن غيرها. فقضايا الأمن، والخصوصية، وحماية المستهلك، وغيرها من الإشكاليات العابرة للحدود والقطاعات، تتطلّب تنسيقًا متعدّد المستويات. غير أنّ هذا التنسيق يظلّ بعيد المنال في ظلّ غياب إطار حوكمة ذكاء اصطناعي دولي موحّد. ومع ذلك، لا تتيح الطبيعة المتسارعة للتطوّر التكنولوجي مجالًا لإيقاف المسار بانتظار توافق دولي شامل.
وفي السياق الخليجي، تتقاطع هذه التحدّيات البنيوية مع معيقات محلّية خاصة. إذ لا تنسجم أنماط الحوكمة المركزية السائدة دائمًا مع احتياجات قطاع تكنولوجي يتسم بطبيعته بالمرونة والتعقيد وصعوبة كبح جماحه. كما إنَّ طموحات الدول الخليجية في تصدّر مشهد الذكاء الاصطناعي العالمي تصطدم بقلّة الكفاءات البشرية المتخصّصة وبقيود البنية التحتية، ما يعزّز الاعتماد على الموارد والاستثمارات والخبرات الخارجية.
ضغوط الاقتصاد السياسي
ساهم تنامي انخراط شركات الذكاء الاصطناعي في عمليات الحوكمة في إبطاء مسارات تطوير السياسات، كما يظهر بوضوح في تجربة الاتحاد الأوروبي. وتنسحب هذه الديناميات على سياقات عالمية أخرى، بما في ذلك منطقة الخليج. إذ تمارس شركات التكنولوجيا الكبرى ضغوطًا متزايدةً على صُنّاع القرار لدفعهم نحو تبنّي أطر تنظيمية وسياسات تخدم مصالحها، لا بالضرورة مصالح المستهلكين أو الاقتصاد ككلّ. وغالبًا ما تُقدَّم وعود الأرباح المستقبلية والاختراقات التكنولوجية بوصفها أولوية، في مقابل التقليل من شأن المخاطر ومقتضيات المساءلة. كما يتيح النفوذ السياسي والموارد المالية لهذه الشركات البقاء خطوة متقدّمة على الجهات التنظيمية، من خلال تمويل وتطوير أنظمة جديدة قبل أن تتبلور لدى المنظّمين القدرة على استيعاب آثارها وتداعياتها كاملة.
في الدول الخليجية، تتّخذ هذه الإشكاليات بُعدًا أكثر تعقيدًا بفعل التداخل الوثيق بين مصالح الشركات ومصالح الدولة، وينطوي هذا على مخاطر فريدة. فالحكومات الخليجية لا تكتفي بالشراكة مع شركات تكنولوجيا عالمية فحسب، بل تستثمر أيضًا بكثافة في شركات تكنولوجية مدعومة من الدولة. فعلى سبيل المثال، أسّست قطر شركة “قاي” (Qai) تحت مظلة جهاز قطر للاستثمار، وخصّصت مليارات الدولارات لشراكات إستراتيجية في بنية الذكاء الاصطناعي التحتية، تزامنًا مع ضخّ استثمارات كبرى مماثلة في دول خليجية أخرى. وتجسّد هذه الخطوات نهجًا إستراتيجيًا في تسخير موارد الدولة لخدمة هذا القطاع. غير أنّ التداخل الوثيق بين شراكة القطاعَين العام والخاص، مقرونًا بحدّة المنافسة الإقليمية، يجعل من أيِّ محاولة لتنظيم قطاع الذكاء الاصطناعي عرضةً لإحداث توتّرات داخل هذه الشراكات الإستراتيجية.
ولذلك، يُبدي صانعو السياسات في الخليج حذرًا إزاء تبنّي قواعد تنظيمية صارمة قد تدفع الاستثمارات في الذكاء الاصطناعي إلى التوجّه نحو أسواق بديلة. ومن هنا، تُصاغُ الأُطُرُ التنظيمية تحت ضغط تحقيق توازن دقيق بين متطلّبات الرقابة والحوكمة من جهة، والحفاظ على تدفّق التكنولوجيا والاستثمارات من جهة أخرى، في قطاعٍ بات وثيق الارتباط بالأهداف الاقتصادية الوطنية.
وفي سياقٍ عالمي يتحوّل فيه الذكاء الاصطناعي إلى أحد مصادر القوة الوطنية، تُدرَك الحوكمة على نحو متزايد بوصفها مسألة أمنية. فالدول القادرة على توظيف الابتكار في هذا المجال تكتسب أدوات نفوذ اقتصادي وسياسي، فيما تمنحها المساهمة في وضع المعايير المنظّمة للتكنولوجيا قدرة إضافية على تعزيز حضورها في ميدان القوة الناعمة. وفي منطقة المنافسة فيها محتدمة مثل الخليج، غالبًا ما تتقدّم اعتبارات ترسيخ الريادة الإقليمية على المخاوف المرتبطة بسلامة الذكاء الاصطناعي. وتشمل هذه المخاوف نقاط ضعف بنيوية ناجمة عن الاعتماد المُفرط على شركات تكنولوجيا أجنبية تتولّى تشغيل مراكز البيانات أو توفير العتاد والتقنيات الأساسية لبنية الذكاء الاصطناعي التحتية. وبالنسبة إلى الدول الخليجية التي تتحرّك ضمن تحالفات جيوسياسية معقّدة، فإنّ الضغوط المرتبطة بالحفاظ على الوصول إلى التكنولوجيا والتحرّر من التبعية تشكّل سياسات الذكاء الاصطناعي بقدر ما تفعل الاعتبارات الداخلية الأخرى.
فخّ التوقيت
يواجه صانعو القرار في الخليج مُعضِلةً شائعة على المستوى العالمي: هل ينبغي الإسراع في سنّ أطر الذكاء الاصطناعي التنظيمية استنادًا إلى معرفة لا تزال غير مكتملة، أم التريُّث وترك القطاع يتطوّر بمعزلٍ عن معايير المساءلة والشفافية اللازمة؟ ينطوي كلا الخيارين على مخاطر مُعتَبَرة. فالتحرّك المبكر قد يحدّ من نمو القطاع ويؤخّر خطط التنويع الاقتصادي الطموحة، في حين لا يقلّ التراخي خطورةً من حيث تداعياته طويلة الأمد.
وتضيق نافذة الفرص المتاحة لإرساء أُطر حوكمة الذكاء الاصطناعي بوتيرة متسارعة. فبمجرّد تغلغل أنظمة الذكاء الاصطناعي في بنى الدول الخليجية التحتية الحيوية وعملياتها التجارية، يصبح تعديل أطر الحوكمة أمرًا شاقًا. وإلى جانب ذلك، تتأثّر اعتبارات الحوكمة بحقيقة أنّ الاستثمارات، وبناء الشراكات، وتنمية الكفاءات البشرية في مجال الذكاء الاصطناعي يجب أن تُحسّم في الحاضر، لضمان القدرة التنافسية في المدى الطويل.
ولا تنفرد الدول الخليجية بهذه الهواجس. فالمخاوف من التأخير أو من أخطاء التقدير في تنظيم الذكاء الاصطناعي تطال مختلف الدول الساعية إلى ضبط هذا القطاع. وتشمل مخاطر التحرّك السريع احتمالات الإخفاقات المنهجية، أو تعميق الاعتماد على مزوّدي التكنولوجيا الأجانب والأنظمة الرقمية الحيوية. غير أنّ الحاجة الملحّة في الخليج إلى تنويع اقتصاده وتسريع تحوّله بعيدًا من الاقتصاد الريعي النفطي ترفع حدّة المخاطر. ففي هذا السياق، تتقاطع وعود اقتصاد ما بعد النفط القائم على التكنولوجيا مع تحدّيات حوكمية راسخة، ناجمة عن النقص المزمن في الكفاءات المتخصّصة والقيود المفروضة على القدرات المؤسّسية.
التداعيات العالمية
إنّ طبيعة حوكمة الذكاء الاصطناعي البنيوية تعني أنّ العقبات التي تواجهها الدول الخليجية لا تقتصر عليها وحدها، بل تنطبق أيضًا على دولٍ أخرى تسعى إلى تنظيم هذا المجال. وتُظهِرُ التجارب المتعثّرة لكلٍّ من الاتحاد الأوروبي والدول الخليجية أنّ الفجوات التنظيمية لا تعودُ في المقام الأول إلى الجمود السياسي، بقدر ما تنبع من الغموض الملازم لتقنيات الذكاء الاصطناعي وعدم قابليتها للتنبؤ.
يُدرك صانعو السياسات حجم الرهانات والمخاطر المرتبطة بتنظيم قطاع الذكاء الاصطناعي، لكن قدرتهم على التعامل مع إشكالية مواكبة تطوّر الذكاء الاصطناعي وغياب التوافق العابر للحدود تظلّ محدودة. وفي ظلِّ غيابِ مؤسّساتٍ دولية قادرة على الاضطلاع بدور جهات تنظيمية مُقيِّدة ومحايدة، تُترك الدول لتدبير شؤون الحوكمة وهي ترزح تحت وطأة ضغوط تنافسية متزايدة.
ويتطلّب تنظيم الذكاء الاصطناعي مستويات عالية من التنسيق وموازنة دقيقة بين المنافع المحتملة والمخاطر المصاحبة، وهي مهمّة يصعب تحقيقها في إطار البُنى السياسية والاقتصادية السائدة حاليًا. ومن ثمّ، يُرجَّح أن تظلّ حوكمة الذكاء الاصطناعي موضع تنازع، وأن تتّسم بالتقطّع وعدم الاستقرار، مع ما يترتّب على ذلك من تداعيات تتعلّق بالمساءلة، والأمن، وحماية الخصوصية.
وتُبرِزُ حالةُ الدول الخليجية التي تتنافس اليوم على تصدّر مشهد الذكاء الاصطناعي، جملةً من العوائق البنيوية العميقة. فالتوتّر القائم بين السعي إلى منح شركات التكنولوجيا الكبرى هامشًا واسعًا من الحرية لتحقيق الأهداف الوطنية، من جهة، ومخاطر فقدان السيطرة على قطاع يتطوّر بوتيرةٍ متسارعة، من جهة أخرى، هو توتّرٌ بُنيوي لا يُتَوَقّع أن يُحسَمَ سريعًا أو بسهولة.
- نايف النابت هو باحثٌ مُتخَصّص في حوكمة الذكاء الاصطناعي في منطقة الخليج، مع تركيزٍ خاص على دور الدول الصغيرة. ويتناول بحثه الآثار السياسية والمؤسسية للتقنيات الناشئة في المنطقة، مُستندًا إلى خبرته المهنية السابقة في الأمم المتحدة في مجال الديبلوماسية متعددة الأطراف والتنسيق الحكومي الدولي.
