الذكاءُ الاصطناعي وثورةُ الثقة: كيفَ تُغَيِّرُ التكنولوجيا العلاقاتَ الإنسانية

يجب أن يكون تعزيز الوكالة البشرية هو الهدف عند التفكير في كيفية تفاعُل الناس مع منصّات الذكاء الاصطناعي. فبدلًا من النظر إلى الذكاء الاصطناعي على أنه سيدٌ آليٌّ مُستبِد، يحتاج المطوّرون إلى تقديمه كعضوٍ فائق الذكاء ضمن حشود الناس الموجودة على الإنترنت.

الذكاء الاصطناعي: الثقة فيه أكبر من ثقة الإنسان في الإنسان.

ياسمين غرين وجيليان تيت*

عندما يَقلقُ الخبراء بشأنِ علاقةِ الشباب بالمعلومات على الإنترنت، يفترضون عادةً أنهم ليسوا على درايةٍ إعلامية بقدرِ كبارِ السن. لكنَّ البحثَ الإثنوغرافي الذي أجرته وحدة “جيغسو” (Jigsaw) -حاضنة التكنولوجيا التابعة ل”غوغل”- يَكشُفُ عن حقيقةٍ أكثر تعقيدًا ودقّة: فقد طوَّرَ أفرادُ جيل “زد” (Z)، الذين يُفهَمُ عادةً أنهم من مواليد ما بعد العام 1997 وقبل العام 2012، استراتيجياتٍ مختلفة تمامًا لتقييم المعلومات على الإنترنت، استراتيجياتٌ من شأنها أن تُربِكَ أيَّ شخصٍ يزيد عمره عن 30 عامًا. فهُم لا يستهلكون الأخبار كما يفعل كبار السن – أي بقراءة العنوان أوّلًا ثم القصة. إنهم عادةً ما يَقرَؤون العناوين أوّلًا، ثم ينتقلون إلى التعليقات الإلكترونية المُرتبطة بالمقال، وبعد ذلك فقط يتعمّقون في متن القصة الإخبارية. هذا المَيلُ الغريب كاشفٌ ومُوَضِّح. لا يثقُ الشباب بمصداقيةِ قصّةٍ ما لمجرّد أنَّ خبيرًا أو مسؤولَ تحريرٍ أو شخصيةً ذات سلطة أخرى قالها أو أيّدها؛ يُفضّلون استشارةَ حشدٍ من الأقران لتقييم مدى مصداقيتها. مع عدم ثقة الشباب بالمؤسّسات وشخصيات السلطة، فإنَّ عصرَ الشبكات الاجتماعية يسمحُ لهم بوَضعِ ثقتهم في الحشد المجهول.

استكشفت دراسةٌ لاحقة لوحدة “جيغسو” في صيف العام 2023، عقب إصدار برنامج الذكاء الاصطناعي “ChatGPT”، كيف يستخدمُ أفرادُ جيل “زد” في الهند والولايات المتحدة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي. وجدت الدراسة أنَّ الشباب سارعوا إلى استشارة روبوتات الدردشة للحصول على المشورة الطبية، واستشارات العلاقات، ونصائح الأسهم، لأنهم اعتقدوا أنَّ الذكاء الاصطناعي سهل الوصول إليه، ولن يحكمَ عليهم، ويستجيب لاحتياجاتهم الشخصية – وأنَّ نصائح الذكاء الاصطناعي، في كثير من هذه النواحي، كانت أفضل من النصائح التي تلقّوها من البشر. في دراسةٍ أخرى، وجدت شركة الاستشارات “أوايفر ويمان” (Oliver Wyman) نمطًا مشابهًا: ما يصل إلى 39% من موظفي جيل “زد” حول العالم يُفضّلون أن يكون لديهم زميلٌ أو مدير من الذكاء الاصطناعي بدلًا من زميلٍ بشري؛ وبالنسبة إلى عمال وموظفي الجيل “زد” في الولايات المتحدة، تبلغ هذه النسبة 36%. ويشعر ربع جميع الموظفين في أميركا بالشعور نفسه، مما يشير إلى أنَّ هذه المواقف ليست حكرًا على الشباب فقط.

تتحدّى هذه النتائج المفاهيم التقليدية حول أهمّية وقُدسية التفاعلات الشخصية. يأسفُ العديد من المراقبين الأكبر سنًا على صعود برامج الدردشة الآلية، معتبرين أنَّ التكنولوجيا الجديدة مسؤولة عن تفتيت الناس وعزلهم عن المجتمع الأوسع، وتشجيع تباعُد متزايد بين الأفراد وفقدان احترام السلطة. ولكن من منظورٍ آخر، يشير سلوك وتفضيلات الجيل “زد” أيضًا إلى أمرٍ آخر: إعادة هيكلة الثقة التي تحمل بعض بذور الأمل.

يُفكّرُ المحلّلون في الثقة بشكلٍ غير صحيح. يرى الرأي السائد أنَّ الثقة في المؤسّسات المجتمعية آخذة في الانهيار في الدول الغربية اليوم، حيث يقول 2% فقط من الأميركيين إنهم يثقون بالكونغرس، على سبيل المثال، مُقارنةً بـ77% قبل ستة عقود؛ وعلى الرُغم من أنَّ 55% من الأميركيين كانوا يثقون بوسائل الإعلام في العام 1999، فإنَّ 32% فقط يثقون بها اليوم. في الواقع، في وقتٍ سابقٍ من هذا العام، خلصت خبيرة استطلاعات الرأي كريستين سولتيس أندرسون إلى أنَّ “ما يُوحّدنا [الأميركيين]، بشكلٍ متزايد، هو ما لا نثق به”.

لكن هذه البيانات لا تروي سوى نصف القصة. تبدو الصورة قاتمة إذا نظرنا إليها من خلال عدسة القرن العشرين لاستطلاعات الرأي التقليدية التي تسأل الناس عن مشاعرهم تجاه المؤسّسات وشخصيات السلطة. لكن إذا نظرنا من خلال عدسة أنثروبولوجية أو إثنوغرافية -تتبع ما يفعله الناس بدلًا من مجرّد أقوالهم لمُستطلعي الآراء- فستظهر صورة مختلفة تمامًا. الثقة لا تختفي بالضرورة في العالم الحديث؛ إنها في حالة تحوّل وانتقال. مع كلِّ ابتكار تكنولوجي جديد، يبتعدُ الناس عن هياكل السلطة التقليدية ويتّجهون نحو الحشود، عالمُ الناس والمعلومات الغامض ولكنه حقيقي للغاية على بُعدِ بضعِ نقرات فقط.

يُشكّلُ هذا التحوُّل مخاطرَ لا ينبغي لأحدٍ التقليل من شأنها. فمخاطرُ الاعتماد المُفرِط وتشويه الواقع من أدوات الذكاء الاصطناعي واضحة بالفعل: تُظهِرُ الدراسات أنَّ استخدامها المُكثَّف يرتبطُ بانخفاضِ مستوى الرفاهية والاعتماد العاطفي لدى المستخدمين المعزولين اجتماعيًا. لكن هذا التحوُّل قد يُحقّقُ فوائدَ أيضًا. فعلى الرُغمِ من أنَّ الأشخاص غير الرقميين قد يعتبرون الثقة في الروبوتات أمرًا محفوفًا بالمخاطر، إلّا أنَّ الحقيقة هي أنَّ الكثيرين من جيل “زد” يعتقدون أنَّ الثقة في شخصيات السلطة البشرية بالقدر نفسه من الخطورة (إن لم تكن أكثر خطورة). إذا صُمِّمَت أدواتُ الذكاء الاصطناعي بعناية، فقد تُسهِمُ في تحسين التفاعلات الشخصية، لا في إضرارها: إذ يُمكنها أن تُؤدّي دورَ الوسيط، مُساعدةً المجموعات المُستَقطَبة على التواصُل بشكلٍ أفضل مع بعضها البعض؛ كما يُمكنها مُواجهة نظريات المؤامرة بفعالية أكبر من الشخصيات ذات السلطة البشرية؛ كما يُمكنها أن تُعطي شعورًا بالفاعلية للأشخاص الذين يُشككون في الخبراء البشريين. يكمنُ التحدّي الذي يواجه صانعي السياسات والمواطنين وشركات التكنولوجيا على حد سواء في إدراك كيفية تطوُّرِ طبيعة الثقة، ومن ثمَّ تصميم أدوات وسياسات الذكاء الاصطناعي استجابةً لهذا التحوُّل. لن تتصرّفَ الأجيالُ الشابة كالأجيال السابقة، ومن غير الحكمة تجاهُل التغيير الهائل الذي تُحدِثه.

إنهيارُ الثقة

الثقةُ حاجةٌ إنسانية أساسية: فهي تجمعُ الناس والجماعات معًا، وهي أساسُ الديموقراطية والأسواق ومعظم جوانب الحياة الاجتماعية اليوم. تَتَّخِذُ الثقةُ أشكالًا متعددة، أوّل وأبسط أنواعها هو الثقة بين الأفراد، أي المعرفة المباشرة التي غالبًا ما تربطُ المجموعات الصغيرة ببعضها من خلال روابط شخصية مباشرة. لنُسَمِّ هذه الثقة “ثقة التواصل البصري”. توجد هذه الثقة في معظم البيئات غير الصناعية (من النوع الذي غالبًا ما يدرسه علماء الأنثروبولوجيا)، وكذلك في العالم الصناعي (بين مجموعات الأصدقاء والزملاء وزملاء الدراسة وأفراد العائلة).

ولكن عندما تكبر المجموعات، تُصبِحُ التفاعلات المباشرة غير كافية. وكما لاحظ روبن دنبار، عالم الأحياء التطوّري، فإنَّ عددَ الأشخاص الذين يمكن للدماغ البشري معرفتهم حقًا محدود؛ وقدّر دنبار العدد بحوالي 150 شخصًا. كانت “الثقة العمودية” الابتكار الأعظم في آلاف السنين القليلة الماضية، مما سمح للمجتمعات الأكبر بالعمل من خلالِ مؤسّسات مثل الحكومات وأسواق رأس المال والأكاديميات والهيئات الدينية المنظمة. هذه الأنظمة الجماعية القائمة على القواعد، والتي تُطبّق المعايير وتُخصّص الموارد، تُشكّل كيفية ومكان توجيه الناس ثقتهم.

أتاحَ تحوّل المجتمع الرقمي على مدى العقدين الماضيين نقلةً نوعيةً جديدة تتجاوز التواصُل البصري والثقة العمودية إلى ما تُطلِقُ عليه عالمة الاجتماع راشيل بوتسمان “الثقة الموزّعة”، أو التفاعلات واسعة النطاق بين الأقران. ذلك لأنَّ الإنترنت يُتيحُ التفاعل بين المجموعات بدون التواصل البصري. ولأول مرة، يُمكِنُ لأشخاصٍ غرباء تمامًا التنسيق في ما بينهم للسفر عبر تطبيق مثل “Airbnb”، والتداول عبر “eBay”، والترفيه عن بعضهم البعض من خلال لعب ألعاب فيديو مُتعَدِّدة اللاعبين مثل “Fortnite”، وحتى العثور على الحب عبر مواقع مثل “Match.com”.

قد تبدو هذه الروابط غير جديرة بالثقة للبعض، إذ من السهل إنشاء شخصيات رقمية مُزَيَّفة، ولا تُوجَدُ جهة واحدة لفَرضِ القواعد وتطبيقها على الإنترنت. لكن مع ذلك، يتصرّفُ الكثيرون كما لو أنهم يثقون بالحشود، ويعودُ ذلك جُزئيًا إلى ظهورِ آلياتٍ تُعزِّزُ الثقة، مثل ملفات تعريف وسائل التواصل الاجتماعي، و”الصداقة”، وأدوات تأكيد الحشود، ومُراجعات الأقران عبر الإنترنت التي توفّرُ نوعًا من الرقابة. خُذ على سبيل المثال تطبيق مشاركة الركوب “أوبر” (Uber). قبل عقدين من الزمن، كان من غير المعقول إنشاء خدمة سيارات أجرة تشجع الغرباء على ركوب سيارات بعضهم البعض الخاصة؛ لم يكن الناس يثقون بالغرباء بهذه الطريقة. لكن اليوم، يفعل الملايين ذلك، ليس فقط لأنَّ الناس يثقون ب”أوبر” كمؤسسة، ولكن لأنَّ نظامَ تصنيف الأقران -مراقبة الحشود- يطمئن كلًّا من الركاب والسائقين. بمرور الوقت ومع زخم التكنولوجيا الجديدة، يمكن أن تتغيّرَ أنماط الثقة.

لا حُكم

يُقدّم الذكاء الاصطناعي بُعدًا جديدًا في هذه القصة، بُعدٌ يُمكِنُ فهمه كشكلٍ جديدٍ من الثقة. لطالما كانت هذه التقنية جُزءًا لا يتجزّأ من الحياة اليومية، في أدواتٍ مثل مُدقّقات الإملاء وفِلتِر (مُنَقّي) البريد الإلكتروني العشوائي. لكن الظهور الأخير للذكاء الاصطناعي المُوَلِّد يُمثّل تحوّلًا واضحًا. تتميّزُ أنظمة الذكاء الاصطناعي الآن بقدراتٍ مُتطوّرة على التفكير، ويمكنها العمل كأدواتٍ تُنفّذ مهامًا مُعقّدة بشكلٍ ذاتيّ. قد يبدو هذا مُرعبًا للبعض؛ في الواقع، يُشير استطلاع رأي أجراه مركز “بيو” للأبحاث إلى أنَّ 24% فقط من الأميركيين يعتقدون أنَّ الذكاء الاصطناعي سيُفيدهم، بينما يتوقّع 43% أنه يُؤذيهم.

لكنّ المواقف الأميركية تجاه الذكاء الاصطناعي ليست مُشتركة عالميًا. فقد وجد استطلاعُ رأيٍ أجرته شركة “إبسوس” في العام 2024 أنه على الرُغم من أنَّ حوالي ثلثي البالغين في أوستراليا وكندا والهند والمملكة المتحدة والولايات المتحدة يُوافقون على أنَّ الذكاء الاصطناعي “يُثير قلقهم”، فإنَّ 29% فقط من البالغين اليابانيين يُشاركون هذا الرأي، وكذلك حوالي 40% فقط من البالغين في إندونيسيا وبولندا وكوريا الجنوبية. وعلى الرُغم من أنَّ حوالي ثلث الناس فقط في كندا والمملكة المتحدة والولايات المتحدة وافقوا على أنهم مُتحمِّسون للذكاء الاصطناعي، إلّا أنَّ ما يقرب من نصف الناس في اليابان وثلاثة أرباع الناس في كوريا الجنوبية وإندونيسيا أبدوا ذلك.

في الوقت نفسه، على الرُغم من أنَّ الناس في أوروبا وأميركا الشمالية يفيدون مستطلعي الرأي أنهم يخشون الذكاء الاصطناعي، إلّا أنهم يستخدمونه باستمرار في مهام معقّدة في حياتهم، مثل الحصول على الاتجاهات باستخدام الخرائط، وتحديد العناصر أثناء التسوّق، وضبط الكتابة. الراحةُ هي أحد الأسباب: فالتواصُل مع طبيبٍ بشري قد يستغرق وقتًا طويلًا، لكن روبوتات الذكاء الاصطناعي مُتاحة دائمًا. والتخصيصُ هو سبب آخر. في الأجيال السابقة، كان المستهلكون يميلون إلى قبول خدمات “مقاس واحد يناسب الجميع”. ولكن في القرن الحادي والعشرين، مكّنت الرقمنة الناس من اتخاذ خيارات أكثر تخصيصًا في عالم المستهلك، سواء في ما يتعلق بالموسيقى أو وسائط الإعلام أو الطعام. تستجيب روبوتات الذكاء الاصطناعي لهذه الرغبة المتزايدة في التخصيص وتشجّعها.

هناكَ عاملٌ آخر، أكثر تناقُضًا مع البديهية، وهو الخصوصية والحياد. في السنوات الأخيرة، سادَ قلقٌ واسع النطاق في الغرب من أنَّ أدواتَ الذكاء الاصطناعي قد “تسرق” البيانات الشخصية أو تُمارِسُ سلوكًا مُتَحَيِّزًا. قد يكون هذا مُبرَّرًا في بعض الأحيان. مع ذلك، تُشيرُ الأبحاث الإثنوغرافية إلى أنَّ مجموعةً من المستخدمين تُفضّلُ أدواتَ الذكاء الاصطناعي تحديدًا لأنها تبدو أكثر “حيادية” وأقل تحكُّمًا وأقل تدخُّلًا من البشر. أوضحت فتاة من أفراد الجيل “زد” الذين قابلتهم وحدة “جيغسو” ميلها للتحدُث إلى الذكاء الاصطناعي بعباراتٍ صريحة: “لا يُمكن لبرنامج الدردشة الآلي ’إلغائي‘!”.

وجدت دراسة حديثة أخرى أجريت على أشخاصٍ يؤمنون بنظريات المؤامرة أنهم كانوا أكثر استعدادًا لمناقشة معتقداتهم مع روبوت مقارنةً بأفراد أسرهم أو شخصيات السلطة التقليدية، حتى عندما تحدّت الروبوتات أفكارهم، مما يُشير إلى إحدى الطرق التي يُمكن من خلالها للتفاعلات بين الإنسان والآلة أن تتفوَّق على التواصل البصري وآليات الثقة العمودية. وكما قال أحد الأشخاص للباحثين: “هذه هي المرة الأولى التي أتلقّى فيها ردًا حقيقيًا وواقعيًا ومنطقيًا”. بالنسبة إلى الأشخاص الذين يشعرون بالتهميش أو العجز أو الانعزال عن النخبة -مثل الكثير من جيل “زد”- تبدو الروبوتات أقل إصدارًا للأحكام من البشر، مما يمنح مستخدميها مزيدًا من الاستقلالية. وربما، على نحوٍ مُغاير، يُسهّل هذا الأمرُ الثقة بها.

من هال إلى هابرماس

قد يتغيّرُ هذا النمطُ مُجَدَّدًا، نظرًا لسرعة التغيُّرِ التكنولوجي وظهورِ “الذكاء الوكيل”، وهو الخليفة الأكثر تطوُّرًا واستقلالية لأدوات الذكاء الاصطناعي التوليدية الحالية. يعملُ مطوِّرو الذكاء الاصطناعي الرئيسيون، بما في ذلك “أنثروبيك” و”غوغل” و”أوبن إي آي”، على خلق “مساعدين عالميين” جدد قادرين على الرؤية والسمع والدردشة والاستدلال والتذكّر واتخاذ الإجراءات عبر الأجهزة. هذا يعني أنَّ أدوات الذكاء الاصطناعي ستكون قادرة على اتخاذ قرارات مُعقّدة بدون إشرافٍ بشري مُباشر، مما سيُمكّنها من تعزيز دعم العملاء (باستخدام روبوتات الدردشة التي تُلبّي احتياجات العملاء) والبرمجة (باستخدام وكلاء يُمكنهم مساعدة المهندسين في مهام تطوير البرمجيات).

تكتسبُ الأجيال الجديدة من أدوات الذكاء الاصطناعي قدراتٍ إقناعية أقوى، وفي بعض السياقات تبدو بقوة إقناع البشر نفسها. هذا يُنذِرُ بمخاطر واضحة إذا ما صُمِّمَت هذه الأدوات واستُخدِمَت عمدًا للتلاعُب بالناس، أو إذا ما أخطأت في استخدامها أو هَلوَسَت. لا ينبغي لأحد التقليل من شأن هذه المخاطر. مع ذلك، يُمكن للتصميم المدروس أن يُخفّفَ من وطأة هذه المخاطر: على سبيل المثال، أظهر باحثون في “غوغل” إمكانية تطوير أدوات ومحفّزات تُدرِّبُ الذكاء الاصطناعي على تحديد وتجنُّب اللغة المُتلاعبة. وكما هو الحال مع التطبيقات والأدوات الرقمية الحالية، يُتيحُ الذكاء الاصطناعي الوكيل للمستخدمين التحكُّم. خُذ على سبيل المثال التكنولوجيا القابلة للارتداء، مثل “فيت بيت” (Fitbit) أو “ساعة أبل” (Apple Watch)، التي يُمكنها مراقبة العلامات الحيوية، واكتشاف الأنماط المُقلقة، والتوصية بتغييرات سلوكية، وحتى تنبيه مُقدّمي الرعاية الصحية عند الضرورة. في جميع هذه الحالات، يكون المستخدم، وليس الروبوت، هو من يُقرّر الاستجابة لهذه المحفّزات والبيانات التي ستُستخدَم في برامج الذكاء الاصطناعي؛ فلا يُمكن لجهاز “Fitbit” الخاص بك إجبارك على الركض. كذلك الحال مع روبوتات التخطيط المالي أو تلك المستخدمة في المواعدة: فالتكنولوجيا لا تعمل كديكتاتور، بل كعضو في مجموعة أصدقاء على الإنترنت، تقدِّم نصائح قابلة للرفض أو القبول.

من الواضح أنَّ استخدامَ أداة ذكاء اصطناعي بهذه الطريقة يمكن أن يزيد من كفاءة الناس ويساعدهم على تنظيم حياتهم بشكلٍ أفضل. لكن ما هو أقل وضوحًا هو أنَّ هذه الأدوات يُمكِنُ أن تُحسّن أيضًا التفاعل بين الأقران داخل المجموعات وفي ما بينها. مع تراجع الثقة في أصحاب السلطة، وسعي الناس إلى تخصيص مصادر معلوماتهم و”جمهورهم” على الإنترنت وفقًا لأذواقهم الشخصية، أصبحت المجتمعات أكثر استقطابًا، عالقة في غرف صدى لا تتفاعل أو تفهم بعضها البعض. لا يمكن لأصحاب السلطة البشرية معالجة هذا بسهولة، نظرًا لانعدام الثقة الواسع الانتشار. ولكن كما تستطيع أدوات الذكاء الاصطناعي الترجمة بين اللغات، فإنها بدأت أيضًا تمتلك القدرة على الترجمة بين “اللغات الاجتماعية”: أي بين وجهات النظر العالمية. يمكن للروبوت مسح المحادثات عبر الإنترنت بين مجموعات مختلفة، والعثور على أنماط ونقاط اهتمام مشتركة يمكن تحويلها إلى حوافز تُمكّن “جمهورًا” واحدًا من الناس من “سماع” بل و”فهم” وجهات نظر الآخرين بشكل أفضل. على سبيل المثال، طوّرَ باحثون من “غوغل ديب مايند”  (Google DeepMind) وجامعة أكسفورد أداة ذكاء اصطناعي تُسمى “آلة هابرماس” (تكريمًا للفيلسوف الألماني يورغن هابرماس)، تهدف إلى التوسُّط في النزاعات بين المجموعات ذات الرؤى السياسية المتعارضة. تُولّد الآلة بيانات تعكس وجهات نظر الأغلبية والأقلية في المجموعة حول قضية سياسية، ثم تقترح نقاطًا مشتركة. في دراسات شملت أكثر من 5000 مشارك، فضّل الباحثون البيانات المُولّدة بواسطة الذكاء الاصطناعي على تلك التي أنشأها وسطاء بشريون، وأدى استخدامها إلى اتفاق أكبر حول سبل المضي قدمًا في القضايا الخلافية.

فكيف يُمكن للمجتمعات إذًا جني ثمار الذكاء الاصطناعي بدون الوقوع فريسة لمخاطره؟ أوّلًا، عليها أن تُدرِكَ أنَّ الثقةَ ظاهرةٌ متعدّدة الأوجه، وقد تحوّلت سابقًا (وستستمر في التحوّل)، وأنّ التغيير التكنولوجي يحدث في خضمّ تحوّلات اجتماعية (مُفاقِمًا إياها). هذا يعني أنَّ على مُطوّري الذكاء الاصطناعي التحرّك بحذرٍ وتواضُعٍ شديدَين، مُناقشين ومُخفّفين من مخاطر الأدوات التي يُطوّرونها. من جانبها، حاولت “غوغل” القيام بذلك من خلال نشر مجموعةٍ طموحةٍ من 300 صفحة من التوصيات حول المتاهة الأخلاقية لمساعدي الذكاء الاصطناعي المُتقدّمين، مُستكشفةً كيفية الحفاظ على الضمانات التي تمنع الذكاء الاصطناعي من التلاعب عاطفيًا بالمستخدمين، وما يعنيه قياس رفاهية الإنسان. شركاتٌ أخرى، مثل “أنثروبيك”، تفعل الشيء نفسه. لكنّ هناك حاجةٌ إلى مزيدٍ من الاهتمام من القطاع الخاص لمعالجة هذه الشكوك.

يحتاجُ المُستهلكون أيضًا إلى خيارٍ حقيقيٍّ بين المُطوّرين، ليتمكّنوا من اختيار المنصّات التي تُوفّر أقصى درجات الخصوصية والشفافية وتحكّم المُستخدم. يُمكن للحكومات تشجيع ذلك من خلال استخدام السياسات العامة لتعزيز التطوير المسؤول للذكاء الاصطناعي، بالإضافة إلى العلوم المفتوحة والبرمجيات المفتوحة. قد يُسبب هذا النهج بعض المخاطر الأمنية. ولكنه يُنشئ أيضًا المزيد من الضوابط والتوازنات من خلال إدخال المنافسة بين الأنظمة المختلفة. فكما يُمكن للعملاء “التسوُّق” بين البنوك أو خدمات الاتصالات إذا لم يُعجبهم أسلوب معاملة أحد الأنظمة لهم، يجب أن يكونوا قادرين على التبديل بين وكلاء الذكاء الاصطناعي لتحديد المنصة التي تُوفر لهم أكبر قدر من التحكّم.

يجب أن يكون تعزيز الوكالة البشرية هو الهدف عند التفكير في كيفية تفاعل الناس مع منصّات الذكاء الاصطناعي. فبدلًا من النظر إلى الذكاء الاصطناعي على أنه سيدٌ آليٌّ مُستبد، يحتاج المطوّرون إلى تقديمه كعضوٍ فائق الذكاء ضمن حشود الناس الموجودة على الإنترنت. هذا لا يعني أنَّ الناس يضعون ثقةً عمياءً في الذكاء الاصطناعي أو يستخدمونه لاستبدال التفاعلات بين البشر؛ سيكون ذلك كارثيًا. ولكن سيكون من الحماقة أيضًا رفض الذكاء الاصطناعي لمجرد أنه يبدو غريبًا. فالذكاء الاصطناعي، مثل البشر، لديه القدرة على فعل الخير والشر والتصرُّف بطُرُق جديرة بالثقة وغير جديرة بالثقة. إذا أردنا الاستفادة الكاملة من الذكاء الاصطناعي، فعلينا أن ندرك أننا نعيش في عالم تتضاءل فيه الثقة بالقادة، حتى مع ازدياد ثقتنا بحكمة الجماهير أو الحشود- وبنفسنا. يكمن التحدي إذًا في استخدام هذه الدفعة الرقمية لحكمة الجماهير والحشود لنصبح جميعًا أكثر حكمة.

  • ياسمين غرين هي الرئيسة التنفيذية لوحدة “جيغسو”، حاضنة “غوغل” التكنولوجية. وهي الرئيسة المشاركة ل”مجموعة أسبن للأمن السيبراني” (Aspen Cybersecurity Group)، وعضو مجلس إدارة رابطة مكافحة التشهير.
  • دكتورة جيليان تيت هي عميدة كلية كينغز كوليدج كامبريدج، وكاتبة عمود في صحيفة “فايننشال تايمز”.
  • يَصدُرُ هذا المقال بالعربية في “أسواق العرب” توازيًا مع صدوره بالإنكليزية في “فورين أفِّيرز” الأميركية.

مقالات ذات صلة

زر الذهاب إلى الأعلى