المُنعقدة في 10 و11 شباط/فبراير 2025، فرنسا
فريقِ العمل المعني بالذّكاء الاصطناعي لدى الائتلاف العالميّ من أجل عدالة التِّقانة
تشرين الثّاني/نوفمبر 2024
مسارات موضوعيَّة: الثِّقة بالذّكاء الاصطناعي، والحوكمة العالميّة للذكاء الاصطناعيّ، والذَّكاء الاصطناعي من أجل المصلحة العامَّة
المُقترحات الواردة في طَي هذه الوثيقة من إعدادِ فريقِ العمل المعني بالذّكاء الاصطناعي لدى الائتلاف العالميّ من أجل عدالة التِّقانة (Global Coalition for Tech Justice) (المُشار إليه بـ ”الائتلاف“ في متن هذه الوثيقة).
يهدف الائتلاف، الَّذي تضمُّ عضويّته 250 منظمة وخبيرة وخبيرًا من 55 دولة، إلى ضمان وقوف شركات التِّقانة الكُبرى على مسؤوليّاتها وأداء دورها في حماية الدّيمقراطيَّة وحقوق الإنسان في مختلِف أرجاء العالم، لا سيّما في أقطارِ الأغلبيَّة العالميَّة، حيث يعتري مُمارساتها إهمالًا في التَّعامل مع آثار منصَّاتها وتقنيَّاتها.
تشمل الوثيقة توقيعات الأفراد والجهات المُشاركة مع بقاء باب التّوقيع على المقترح مفتوحًا حتّى شباط/فبراير 2025.
تعكفُ مجموعةُ العمل الرَّقميّ، المِظلَّةُ الجامعةُ والمُنظِّمة لهذا للائتلاف، منذ عام 2019 على بناء شبكة عالميّة من الشّركاء وحشدها لمطالبة الحكومات والشَّركات المسؤولة عن بيئاتنا الرّقميَّة باعتماد أفضل المعايير والممارسات.
الفهرس
- مُقدِّمة
- مشاعات الذّكاء الاصطناعي: دمقرطة الذّكاء الاصطناعي عبر تمكين مواطنات العالم ومواطنيه
- شبكة مراكز بناء قدرات تعزيز المُساواة في أنظمة الذّكاء الاصطناعي
- مجلس المواطنين والمواطنات لمراجعة تصميم أنظمة الذّكاء الاصطناعي
- مختبر ابتكار سياسات الذّكاء الاصطناعي
- نظام الرّقابة متعدّد الأطراف
- نموذج جديد للرّقابة الدّيمقراطيّة على الذّكاء الاصطناعي
- الشَّرعيَّة الدّيمقراطيَّة: البُنيّة والعمليَّات
- بناء المصداقيّة بالاستناد إلى منهجيّة صارمة
- ضمانات الحؤول دون تجاوز الرّسالة وتركيز السّلطة
- الرّقابة بنهجٍ تعاوني
- تمكين الخطاب والوعي العامين
الخاتمة
- الأفراد الجهات الموقّعة على المُقترح (باب الانضمام للمقترح متاح حتّى شباط/فبراير 2025).
- مُقدِّمة
يعتري ميدان تِقانةِ الذّكاء الاصطناعيّ حالة من انعدام المساواة العالميَّة—مِن تصميمِ هذه تِقانةِ إلى انتشارها وتوظيفها ومِن إعداد سياساتها إلى المُساءلة عن تبعاتها—واقع يتزايد أثرُه في صياغة مستقبل سلامة المعلومات، والدّيمقراطيّة، وحقوق الإنسان. تُشكِّل هذه الحالة تحدّيًا جوهريًا أمام تحقيق المساواة والحوكمة الدّيمقراطيّة في عصرنا الرَّقميّ على مستوى العالم. فمع تزايد اعتماد أنظمة الذّكاء الاصطناعيّ في المؤسّسات العامَّة والبُنى التّحتيَّة الأساسيَّة—من خدمات الرِّعايَّة الصِّحيَّة والتَّعليم والنُّظم القضائيَّة وسائر الخدمات العامَّة—بات هذا الاختلال في موازين القوّة يُهدّد بِمفاقمة الفجوات وأوجه التّباين القائمة وخلق ضروبٍ جديدةٍ من التّبعيَّة التّكنولوجيّة العالميَّة؛ مِمَّا يُقوِّض الاستقلال الوطنيّ وحق تقرير المصير؛ بل إنّ التّسارع الكبير في تطوير تقانة الذّكاء الاصطناعيّ في عددٍ محدودٍ من مراكز القوَّة العالميَّة بات يُهدَّد بترسيخ هذه الفجوّات في أسس مستقبلنا الرَّقميِّ المشترك.
يُصمَّمُ الذّكاء الاصطناعيُّ في دول الشَّمال العالميّ أو الصّين، ثم يُنشر في بلاد العالم الأخرى دون إيلاء أكثر من الحدّ الأدنى من الاعتبار للسياقات المحليّة أو العواقب المترتبة على استخدام هذه التِّقانة في أقطار الانتشار، وغالبًا ما تُترك الأضرار الّتي يُسفر عنها الذّكاء الاصطناعيّ في دول الأغلبيَّة العالميَّة دون معالجة منهجيّة في ظلِّ انخفاضِ القدرات والخبرات اللّازمة لوضع سياسات تحترم الحقوق في هذه المناطق. تتنوّع الأضرار من التّحيّز الخوارزميّ إلى إقصاء أنظمة القرار المحليَّة وتتجلّى بطرقٍ شتّى، منها: فشل أنظمة الذّكاء الاصطناعي في التَّعرُّف على اللّغات المحليّة والفوارق الثّقافيّة ودقائقها، واعتماد أنظمة التَّقرير الآلي بناءً على البيانات الغربيّة الّتي دُرِّبت عليها هذه الأنظمة، ممّا يسفر عن نتائج لا تلائم سياقات الجنوب العالميّ، عدا عن الأنظمة الآليّة للإشراف على المحتوى الّتي تؤدّي إلى قمعٍ غير مقصود لخطاباتٍ سياسيّة مشروعة. يُذكر في هذا السّياق إلى أنّ نقص الخبرات والموارد المحليّة اللّازمة لرصد هذه الأضرار ومعالجتها والإقصاء الممنهج للمعارف والخبرات المحليّة في الجنوب العالميّ من عملية تطوير تطبيقات الذّكاء الاصطناعي وتوظيفها يكرِّسان دائرة مغلقة من التَّهميش والتَّبعيَّة التّكنولوجيّة.
ثمّ تباين عميق في قدرة دول الأغلبيَّة العالميَّة على إنفاذ قوانينها وبسط ولايتها القضائيَّة، مما يجعلها غير قادرة على بلورة أنظمة الذّكاء الاصطناعي المنتشرة في فضاءاتها المعلوماتيّة بفعاليّة—حتى لو نجحت في تنظيمها. يُفضي هذا الاختلال في ميزان القوى إلى تقويض السّيادة الوطنيّة والحوكمة الدّيمقراطية للفضاء الرّقمي. فحتى عندما تُطوّر هذه البلدان أنظمة ولوائح شاملة لتنظيم الذّكاء الاصطناعي، فإنّها تصطدم بتحديات جمّة لإنفاذها على شركات التِّقانة المتعدّدة الجنسيّات النَّافذة، حيث إنّ الطّبيعة العابرة للحدود لأنظمة الذّكاء الاصطناعي وتركيز الخبرات التّقنيَّة والقانونيّة المرتبطة بها في الشّمال العالمي يُحِدِثانِ وضعًا غالبًا ما يُجبرُ دول الأغلبيَّة العالميَّة على قبول ما يُفرضُ عليها من أنظمة وسياسات، بغض النّظر عن التّشريعات أو الأعراف الاجتماعيَّة المحليَّة.
عِلاوة لِما سبق، يُهمَّش المواطنون والمواطنات والمجتمع المدني—أو يُقصَوْن—من جميع مراحل تطوير الذّكاء الاصطناعي—من التّصميم إلى الانتشار والاستخدام، ومن صوغ السّياسات إلى المساءلة على العواقب والتّبعات، علمًا أنَّ هذه الفئات بحاجة للوصول إلى هذه المراحل وتلقّي دعم مُستدام لبناء قدراتها وخبراتها كي تتمكّن من المُشاركة مشاركةً ذات مغزى. في المُحصِّلة، يُجذِّرُ هذا الإقصاء حلقة من التّبعيّة التّكنولوجيَّة والعجز الدّيمقراطي. تُعاني منظّماتُ المجتمع المدني، الّتي ينبغي لها القيام بدور حاسم في حماية المصلحة العامّة وتعزيز المشاركة الدّيمقراطيّة، نقصًا في الخبرات والموارد التّقنيَّة الّتي تحتاجها للتفاعل بفعاليّة على صعيد حوكمة الذّكاء الاصطناعي. يُزاد على ذلك تعقيد أنظمة الذّكاء الاصطناعي والضَّبابيّة المتعمدة في تطويرها وتوظيفها وما ينشأ عنها من عوائق كبيرة أمام مشاركة الجمهور بفعاليّة. بالتّالي فإنَّ هذا الإقصاء الممنهج للمواطنات والمواطنين يعني تطوير أنظمة الذّكاء الاصطناعي دون مساهمة جوهرية من المجتمعات الّتي ستتأثر مباشرة بها.
لهذا السبب بالتّحديد لا بدّ أن تكون الشّفافيّة وقابليّة التّفسير من المبادئ الأساسية للتطوير الأخلاقي لأنظمة الذّكاء الاصطناعي، فللأفراد حقًا أصيل في فهم كيفيّة تأثير أنظمة هذه التِّقانة في حياتهم والحصول على تفسيرات واضحة للقرارات الآليّة الّتي تنثني عليه. تحقّق الشّفافيّة وظيفتين أساسيتين: من جهة تُمكِّن الجمهور من فهم كيفية عمل أنظمة الذّكاء الاصطناعي، والأهم من ذلك أنّها تُرسي الأرضيَّة اللّازمة لمساءلة جهات تطوير هذه الأنظمة والمنصّات بكل ما يتصل بتأثيراتها. في غياب عامل الشّفافية، تبقى المشاركة المجتمعيّة الفاعلة والرقابة المؤثرة ضربًا من المُحال، ممّا يعمّق اختلال توازن القوى بين جهات تطوير أنظمة الذّكاء الاصطناعي والمجتمعات المُتأثِرة جرَّائها.
من تَبِعَات عدم المساواة العالميّة، كما توصف، ترسيخ أوجه اللّامساواة العرقيّة في تصميم أنظمة الذّكاء الاصطناعي وانتشارها وتوظيفها، وإعداد سياساتها، والمساءلة عن آثارها. يزيد هذا التّحيز الممنهج من تعقيد أوجه انعدام العدالة الاجتماعيّة القائمة أصلًا، كما يهدّد بتجذير أنماط التّمييز التَّاريخيَّة. في سياق مُتصل، يُسفر الافتقار للتَّنوُّع في فرق تطوير أنظمة الذّكاء الاصطناعي، وبيانات التَّدريب، وعمليّات الاختبار إلى إنشاء أنظمة لا تكتفي بالإخفاق في معالجة أوجه انعدام المساواة العرقيّة القائمة، بل تُعزِّزها—وهذا ينطبق بدءًا من أنظمة التَّعرُّف على الوجوه الَّتي يسوء أداؤها ودقّة نتائجها ما أن يرتبط الأمر بذوي وذوات البشرة الدَّاكنة إلى نماذج اللَّغة الَّتي تُكرِّس الصُّور النَّمطيَّة الضَّارة. وعليه فإنّ ممارسات تطوير الذّكاء الاصطناعي الرّاهنة تنثني على عواقب عرقيّة عميقة وبعيدة الأثر. وفي ظلِّ غياب آليّات فعّالة للمساءلة، تبقى هذه التّحيّزات كامنة بلا راصدٍ أو مُعالجٍ إلى أن تُسفر عن أضرارٍ كبيرة.
وضعت هيئةُ الأمم المتَّحدة الاستشاريّةُ الرَّفيعةُ المستوى المعنيَّة بالذّكاء الاصطناعي جُملةً من المبادئ والتَّوصيات التّوجيهيّة الأساسيَّة للحوكمة العالميّة للذّكاء الاصطناعي، وشدّدت على أن تحقيق هذه المبادئ بفعاليّة يقتضي معالجة أُسس أوجه عدم المساواة، لا سيّما بين دول شَّمال العالم وجنوبه. ورغم ما توفره رؤية الهيئة لحوكمة شاملة تستند إلى حقوق الإنسان من أُسس ضروريّة، فإنَّ ترجمة هذه المبادئ إلى واقعٍ عمليٍّ بحاجة لآليَّات محدَّدة يُمكن تنفيذها لإعادة توزيع موازين القوى ضمن منظومة الذّكاء الاصطناعي.
في ضوء كل ذلك، يقدِّم مقترحنا، ”مشاعات الذّكاء الاصطناعي،“ مسارًا عمليًّا لتطبيق هذه المبادئ، بما يضمن مشاركة فعّالة للشرائح والأصوات الّتي طالما هُمِّشت وأُقصِيت من المشاركة في بلورة تطوير أنظمة الذّكاء الاصطناعي وانتشارها. يُقدِّم نهجنا مُعالجةً مباشرةً لمخاوف الهيئة الاستشاريّة حيال فجوات التّمثيل وتحدّيات التّنفيذ في المبادرات الدّوليّة الرّاهنة لحوكمة الذّكاء الاصطناعي، كما يُقدِّم حلولًا ملموسة لبناءِ مساواةٍ أصيلة وحقيقيّة في هذا المجال على مستوى العالم.
في العالم الرّقمي الرّاهن، تتجسّد أُسس سلامة المعلومات في تمكين الأفراد من الإمساك بزمام معلوماتهم والتَّحكم بها—بما في ذلك ما يمكنهم الوصول إليه منها، وما يستهلكونه، وكيفيّة عرضها، وكيف يُقيّمونها. رغم وضوح المُراد، ما زال العالم يواجه تحدّيًا محوريًّا على هذا الصّعيد يتمثّل في امتلاك حُفنةٍ من شركات التّقانة الكبرى نفوذًا لم يسبق له مثيل على منظومة المعلومات، فلا يكتفون بتحديد ما يراه مليارات النّاس وبل وكيف يرونه أيضًا. لا يقتصر تركيز القوّة هذا على كونه مجرَّد قضيّة اقتصاديّة؛ بل يؤثر مباشرةً في الخطاب الديمقراطي—وغالبًا ما يقوضه.
تقوم سلامة المعلومات على ثلاثة عناصر أساسيّة: الشّفافيَّة في كيفية تنسيق المعلومات وتوزيعها، والمساءلة من طرف الجهات القائمة على هذه الأنظمة، وتعددية وغزارة مصادر المعلومات الموثوقة. وبينما تقدّم مبادئ الأمم المتّحدة إطارًا مهمًّا على هذا الصَّعيد—يركّز على الثّقة المجتمعيَّة، والحوافز الصِّحيَّة، وتمكين الجمهور، والإعلام المستقل، وشفافية البحوث—إلّا أنَّ مِنظارها المتمحور حول الشّمال العالمي يقتضي مقاربةً نقديَّة جادّة. من منظار الجنوب العالمي، لا بدّ لنا من معالجة تحدَّيات بنيويَّة أعمق، لا سيّما تحقيق السَّيادة الرَّقمية في مواجهة مقاومة المنصَّات الرّقميَّة للحوكمة المحليَّة، وتعزيز الصّحافة باعتبارها ممارسة أخلاقيَّة لا مجرد ”إعلام مستقل،“ وإعادة بناء المساحات الاجتماعيّة المشتركة بدلاً من الاكتفاء بتدعيم القدرة على مواجهة التَّهديدات الخارجيَّة. علينا تجاوز هذا الواقع القابع تحت هيمنة منصّات التِّقانة الكبرى وخوارزمياتها وما ترتأيه من تنسيق لمعلوماتنا، مع الإقرار بأنَّ التّمكين الفعّال للمواطنين والمواطنات يستدعي معالجةً جذريَّة لأوجه عدم المساواة الاجتماعيَّة، والعرقيَّة، والجندريّة. كما يتعيّن على البلدان الدّيمقراطيّة القيام بدورٍ فاعلٍ للحؤول دون تركز الأسواق وضمان الوصول المتساوي إلى البيانات وفرص البحث، لا سيَّما للباحثات والباحثين الذين يواجهون عوائق ممنهجة في دول الجنوب العالمي. لا تقتصر مُقتضيات هذا التحوّل المنشود على الابتكار التّقني والإشراف الدّيمقراطي، بل تستدعي أيضًا التزامًا بمعالجة أوجه عدم المساواة البنيويَّة الّتي تصوغ واقع منظومتنا المعلوماتيَّة.
نعالج في مقترحنا أوجه عدم المساواة في مجال الذّكاء الاصطناعي وأبعادها المتراميّة، خاصَّة الجغرافيّة، والعرقيَّة، والاجتماعيَّة، وذلك عبر جُملةٍ من التَّدخُّلات المُنسَّقة والمُمنهجة على عِدِّة صُعد. يقرُّ هذا النّهج الشّامل بما تستدعيه معالجة هذا التّحدِّي من تحرّك متزامن على عدّة مستويّات—تقنيّة واجتماعيَّة، وسياسيَّة—مِمَّا يتطلّب إنشاء مؤسّسات وأطر جديدة تُعيد توزيع موازين القوى بفعاليّة ضمن منظومة الذّكاء الاصطناعي، مع بناء القدرات المحليّة بما يتيح مشاركتها مشاركة حقيقيّة وأصيلة في حوكمة هذه المنظومة. نهدفُ من خلال معالجة أوجه عدم المساواة المتواشجة هذه إلى إحداث تغيير مستدام يُمكّن المجتمعات من صوغ وبلورة أنظمة الذّكاء الاصطناعي الّتي تؤثّر في حياتهم.
لا يقتصر الأمر على وضع لوائح وأنظمة جديدة، بل إعادة توزيع جذريّة لموازين القوى في الفضاء الرقمي وضمان توظيف التِّقانة في خدمة الديمقراطية وحقوق الإنسان بدلاً من تقويضهما. لتحقيق ذلك، نقدِّمُ إلى قمّة الذّكاء الاصطناعي العالميّة المُقرَّرة في شباط/فبراير 2025 جُملةً من المُقترحات العمليَّة القادرة على إحداث آثارٍ فوريَّة بالتّوازي مع عمليّة طويلة الأمد لبناء القدرات في مجال الحوكمة الدّيمقراطيَّة لأنظمة الذّكاء الاصطناعي.
- مشاعات الذّكاء الاصطناعي: دمقرطة الذّكاء الاصطناعي عبر تمكين مواطنات العالم ومواطنيه
تقوم مبادرة ”مشاعات الذّكاء الاصطناعي“ على أربع ركائز تنفيذيَّة. تخيّلوا وجودَ شبكةٍ عالميّة تُمكّن المواطنات والمواطنين من المشاركة في صياغة واقع تطوير أنظمة الذّكاء الاصطناعي وانتشارها، لا سيّما الفئات الّتي لم تُتح لهما الفرصة من قبل. عبر أربعةِ برامج مترابطة—تتمثّل بمراكز تدريب في دول الجنوب العالمي، ومجلس تمكّن المواطنات والمواطنين من مراجعة تصميم أنظمة الذّكاء الاصطناعي، ومختبر يتيح لهم تجريب سياسات ذكاء اصطناعي جديدة، ونظام رقابة شامل يضمن الشّفافيّة والمساءلة—نضع زِمام قوى تِقانة الذّكاء الاصطناعي في أيدي الجميع. لكلّ ركيزة دورها الحيوي: حيث تعمل شبكة مراكز بناء قدرات تعزيز المُساواة في أنظمة الذّكاء الاصطناعي على بناء القدرات، وتُمكِّنُ مجالس المراجعة المجتمعات من الانخراط المباشر في تصميم أنظمة الذّكاء الاصطناعي، ويتيح مختبرُ ابتكار سياسات الذّكاء الاصطناعي مساحةً آمنة لتجريب السّياسات واختبارها، بينما يضمن النّظام الرّقابي متعدّد الأطراف المساءلة والشّفافيّة في جميع مراحل العمليّة. تجدر الإشارة إلى أن هذا النّهج لا يسعى فقط لذّكاء اصطناعي أكثر إنصافًا، بل لضمان خِدمة هذه التّقانة للجميع، لا للنخب فقط. نؤكد أيضًا أنّنا نقدّم هذه الرؤيّة لا كغاية لمستقبلٍ بعيد؛ بل مقترحٍ يمكن تحقيقه الآن لرفد النَّاس بأدوات حقيقية تضمن دعم الذّكاء الاصطناعي لسير مجتمعاتنا الدّيمقراطيّة بدلاً من إعاقتها.
- شبكة مراكز بناء قدرات تعزيز المُساواة في أنظمة الذّكاء الاصطناعي
يُمكن النّظر لـشبكة مراكز بناء قدرات تعزيز المُساواة في أنظمة الذّكاء الاصطناعي على أنّها مدرسة عالميّة لتأهيل صنّاع مستقبلِ سياسات الذّكاء الاصطناعي لكن برؤية مبتكرة—إذ تهدف هذه الشّبكة لتمكين أصوات المجتمعات الّتي لم تحظَ تاريخيًّا بفرصةٍ للمشاركةِ في بلورة تطوير التّقانة. من خلال مراكز فعليّة منتشرة في دول الأغلبيَّة العالميَّة ومنصة إلكترونيّة فعَّالة، ستوفّر هذه الشّبكة مساحات تفاعليّة لاكتساب الخبرات في مجال أنظمة الذّكاء الاصطناعي وتعلُم كيفية توجيه عمليّة تطوير هذه الأنظمة في الاتجاه الصّحيح.
تمتاز هذه الشّبكة بشموليّة نهجها، فهي لا تقتصر على التّدريب التقني؛ بل يمرّ المشاركون والمشاركات ببرنامج زمالة يمتد على مدار عامٍ كامل، يتعلمون خلاله كل ما يلزمهم في هذا الميدان—من تدقيق أنظمة الذّكاء الاصطناعي لضمان سويّتها وعدالتها وصولًا إلى صياغة سّياسات تحمي مصالح مجتمعاتهم. بحلول عام 2026، تهدف الشّبكة إلى تدريب 1000 قيادي وقياديّة في مجال سياسات الذّكاء الاصطناعي من إفريقيا، وآسيا، والشّرق الأوسط، وأمريكا اللَّاتينيَّة—1000 قيادي وقياديّة ملمين بالجوانب التِّقنيَّة والاجتماعيَّة للذكاء الاصطناعي، وذلك في محاولةٍ لخلق قوَّة مؤثّرة تسهم إيجابًا في تشكيل مشهد الذّكاء الاصطناعي العالميّ.
نموذج التَّمويل والشَّراكات
ترتكز الاستدامة الماليَّة لشبكة مراكز بناء قدرات تعزيز المُساواة في أنظمة الذّكاء الاصطناعي على نموذج تمويلي متعدّد الأطراف مُصمَّم بعناية. بدلًا من الاتكاء على مصدر تمويل واحد، اعتمدنا نهجًا متوازنًا يوزع الموارد والمسؤوليّات عبر مختلف القطاعات. فمن جهة، توفّر مساهمة حكومات الدّول المستضيفة للمراكز دعمًا بنيويًا ضروريًّا وتضفي شرعية لهذا المشروع، كما يجسد استثمارها فيه التزامًا بتطوير الخبرات المحليّة في مجال إعداد سياسات الذّكاء الاصطناعي، طبعًا، مع ضمان مواءمة البرنامج مع أهداف التّنميّة الوطنيّة لكل بلد.
أما الشّراكات مع الشّركات، فيتجاوز أثرها الدَّعم المالي، إذ يُمكن لشركات التِّقانة الرّائدة رفد المراكز بموارد تقنية أساسيّة، وتوفير فرص لتوجيه المشاركين/ات وإرشادهم، وتقديم دراسات لحالات واقعية. تجدر الإشارة هنا إلى أنّ هذه الشّراكات قد صُمِّمت على نحوٍ يصون استقلاليَّة الشَّبكة وقدرتها على تقييم تقنيات الذّكاء الاصطناعي وآثارها من منظارٍ نقدي.
من جهة أخرى، للمؤسّسات الدّولية دور حيوي في ضمان الأهميّة والصِّلة العالميّة للبرنامج واستدامته، حيث تُسهم مشاركتها في الحفاظ على معايير عالية وتُيسِّر تبادل المعرفة عبر مختلِف الأقطار والمناطق. كذلك، يتضمن نموذج تمويل الشّبكة آليات لتحقيق الاستدامة على الأمد البعيد، بما في ذلك إنشاء صندوق وقف وتنفيذ أنشطة مُدرِّة للإيرادات لدعم نمو الشّبكة دون الحياد عن جوهر رسالتها.
المنهاج وهيكلية التّدريب
يسعى منهاج شبكة مراكز بناء قدرات تعزيز المُساواة في أنظمة الذّكاء الاصطناعي لجسر الفجوة بين الخبرة التقنية وفهم سياسات حوكمة الذّكاء الاصطناعي، إذ يقرُّ البرنامج بأنّ فعاليّة قادة سياسات هذا المجال بحاجة إلى فهم شامل يمتد للأبعاد التقنية والاجتماعيّة لهذه التّقانة. لِذا، عملنا على تصميم نظام مناهج مزدوج المسار يراعي تنوّع خلفيات المشاركات والمشاركين مع ضمان اكتسابهم لمجموعة من المهارات متعدّدة التَّخصّصات.
”أنظمة الذّكاء الاصطناعي وتصميم السّياسات:“ يبدأ هذا المسار المُخصّص للعاملين والعاملات في مجالي السّياسات والقانون، بتبسيط تقانة الذّكاء الاصطناعي، ويحصل المشاركون/ات على خبرة عمليّة في أساسيّات البرمجة ومفاهيم التّعلُّم الآلي، بحيث ينتقلوا من الفهم النّظري لهذه الموضوعات إلى تطبيقاتها العمليّة. من خلال مختبرات تفاعلية ومشاريع واقعية، يتعلّمون كيفيّة تقييم أنظمة الذّكاء الاصطناعي من منظار نقديٍّ، والإلمام بأوجه محدوديّتها، وتقييم آثارها المجتمعيّة.
بإتمام هذا المسار يصبح المشاركون/ات قادرين على التّواصل الفعّال مع الفرق التّقنية واتخاذ قرارات سياساتيّة تستند إلى إلمام ومعرفة تقنيّة أصيلة.
يتمكّن المحترفون/ات التقنيون/ات المنضمّون إلى برنامج ”تكامل السّياسات وحقوق الإنسان والأخلاقيّات“ من تحويل خبراتهم التّقنية إلى معرفة قابلة للتوظيف في صياغة السّياسات وإعدادها. يركّز هذا المسار على الجانب التّنظيمي، والأطر الدّوليّة للحقوق الرّقمية، وتفاصيل الطّرق الّتي يؤثر بها الذّكاء الاصطناعي في المجتمعات على اختلافها. يتعلم المشاركون/ات أيضًا كيفية ترجمة خبراتهم التّقنية إلى توصيات سياساتيّة مع مراعاة تنوّع السياقات الثقافية لمجتمعاتهم واحتياجاتها.
يلتقي المساران أعلاه في منهجية مشتركة تهدف إلى رفدهم بمجموعة من مهارات المناصرة والمهارات القيادية الأساسيّة. توفّر هذه التّجربة المشتركة شبكة للمحترفين/ات القادرين على جسر الفجوة التقليدية بين التِّقنية والسِّياسية.
اختيار مراكز الشّبكة وتوزيعها
صُمِّمَت عملية اختيار مراكز الشبكة بما يُحقّق بناء مجتمع تعدّدي ومؤثر من قادة مستقبلِ سياسات الذّكاء الاصطناعي. إدراكًا لخصوصيّة تحدّيات كل مجتمع وبلدٍ وفُرَصِه، حرصنا على وضع نظام حصص متوازن لدول الأغلبيَّة العالميَّة. تجدر الإشارة إلى أنّ الغاية تتجاوز الأرقام إلى خلق حوارٍ غني بين مختلِف وجهات النّظر والخبرات.
تتجاوز معايير اختيارنا المؤشرات التّقليّديّة، فرغم إدراكنا لأهمية الخبرة المهنية، فإنّنا نولي قيمة خاصّة للمرشحات/ين مِمَّن لديهم فهم عميق يسياقات أوطانهم ولديهم المقدرة على إحداث تغيير إيجابي في مجتمعاتهم. بعبارة أخرى، نبحث عن أفراد قادرين على جسر مستجدّات الذّكاء الاصطناعي العالميّة واحتياجات مجتمعاتهم المحليّة، مع الأخذ بعين الاعتبار عوامل مثل مشاركتهم في المبادرات المجتمعيّة وقدرتهم على التّعامل ضمن أطر علاقات أصحاب المصلحة وتعقيداتها.
تشكّل البنية المادِّية للمراكز الإقليميّة عنصرًا جوهريًا في رؤيتنا. فكل مركز—سواء في نيروبي، أو جاكرتا، أو ساو باولو—يعمل كمركز تميّز لمنطقته، بحيث يتكيف مع سياقها المحلّي مع الالتزام بالمعايير العالميّة الّتي تعتمدها الشّبكة. إن هذه المراكز، الّتي تتعدّى كونها مؤسّسات تدريبيّة إلى حاضنات للابتكار في مجال سياسات الذّكاء الاصطناعي الإقليميّة، تهدف لتعزيز التّعاون بين المشاركين/ات وأصحاب المصلحة المحلّيين.
إطار التّنفيذ والحوكمة
تعكس استراتيجيّة التّنفيذ التزامنا ببناء مؤسّسة قابلة للتكيف والنّمو—والبقاء. تجمع هيكلية حوكمة الشّبكة بين الإشراف العالمي والاستقلاليّة الإقليميّة بما يضمن بقاء برامجها على صِلة وثيقة بسياقاتها المحلّية مع الالتزام بالمعايير الدّوليَّة. في هذا السّياق، تضطّلع الهيئةُ الاستشاريّةُ الرَّفيعةُ المستوى المعنيَّة بالذّكاء الاصطناعي دورًا محوريًا في توجيه استراتيجيّتنا رافدةً إيّاها بوجهات نظر متنوعة (من خبراء تقنيين، ومتخصصين/ات في السياسات، وقادة المجتمع المدني).
حرصنا أيضًا على ضمان الجودة في كلِّ جانبٍ من جوانب برامج الشّبكة، حيث ستُجرى مراجعات دورية للمناهج، وتُستخدم آليّات لجمع آراء المشاركين/ات وتعقيباتهم، بالإضافة للتّدقيقات الخارجيّة لضمان مقدرة الشبكة على الاستمرار في تلبية الاحتياجات المتناميّة لتطوير سياسات الذّكاء الاصطناعي. يُذكر أنّ تقييم الآثار الّذي نعتمده يتجاوز المقاييس التّقليدية ليشمل تحليل كيفية تأثير زملاء السّياسات في سياسات الذّكاء الاصطناعي في مناطقهم وإحداث تغييرات إيجابيّة في مجتمعاتهم.
نُدرك بأنَّ إطارنا الزّمني للتنفيذ طموح—لكنّه واقعي. سنبدأ العمل في مناطق تجريبيّة بحيث يُتاح لنا إجراء أي تعديلات على النهج قبل توسيع تطبيقه، بحيث نتمكّن بحلول عام 2026 تدريب 1000 قيادي وقياديّة في مجالات سياسات الذّكاء الاصطناعي، علمًا أنّ الغاية تتجاوز الأرقام إلى خلق بُنية متماسكة من الخبرات الحيويَّة في البلدان والمناطق التي لم تحظَ تاريخيًا بما تستحقه من تمثيل في النّقاشات والمنتديات الدّوليّة الخاصّة بحوكمة الذّكاء الاصطناعي.
- مجلس المواطنين والمواطنات لمراجعة تصميم أنظمة الذّكاء الاصطناعي
نرنو من خلال مجلس المواطنين والمواطنات لمراجعة تصميم أنظمة الذّكاء الاصطناعي إلى إحداث ثورة في منهجيّة تصميم أنظمة الذّكاء الاصطناعي من خلال إشراك المواطن العادي في تطوير هذه التِّقانة. عبر مراكزه الإقليميّة (في إفريقيا، وأمريكا اللّاتينية، وآسيا والشرق الأوسط)، سيبني المجلس هيكليّة تُتيح للمجتمعات—لا سيّما تلك التي لطالما أُغفل صوتها في عمليات تطوير التِّقانات—فرصةً حقيقية للمشاركة في بناء أنظمة الذّكاء الاصطناعي وانتشارها في أوطانها.
لا يقتصر عمل المجلس على تلقي الملاحظات بعد تّطوير الأنظمة وانتشارها؛ بل يشرك المجتمعات في جميع المراحل، بحيث يتم تقييم أي نظام يعمل بهذه التّقانة قبل بنائه—ما في ذلك تأثيره الثقافي واحتياجات المتأثّر به، وفي أثناء عملية التطوير، يعمل المجلس على اختبار النماذج الأوليّة ورصد آثارها. يواصل أيضًا بعد النشر متابعة الأثر الفعليّ لهذه الأنظمة في حياة الناس، فالهدف، كما أشرنا آنفًا: ضمان خِدمة أنظمة الذّكاء الاصطناعي للجميع، وليس فقط لنخبةٍ متمكنة تقنيًّا.
- مختبر ابتكار سياسات الذّكاء الاصطناعي
تخيّل وجود مساحة تتيح لمختلِف الأصوات المعنيّة—من صنّاع السّياسات ونشطاء المجتمع المدني إلى المجتمعات المتأثّرة بهذه التّقانة، والمدافعين/ات عن حقوق الإنسان، والمنشآت الخاصّة—العملَ معًا لمعاينة وتجريب آثار سياسات الذّكاء الاصطناعي على حقوق الإنسان الأساسية وحياة النّاس اليومية قبل إنفاذها. هذا بالضّبط ما يقدّمه مختبر ابتكار سياسات الذّكاء الاصطناعي. لهذه الغاية، يوفّر المختبر أدوات ومساحات متطورة لتقديم تمثيلات ومحاكاة مرئيّة تُمكّن التقنيين، وخبراء حقوق الإنسان، وقادة المجتمع وممثلي الأعمال الخاصّة، وصنّاع السياسات من تحويل ما لديهم من أفكارٍ سياساتيّةٍ مجرّدة إلى سيناريوهات ملموسة تُظهر التّأثيرات الواقعية لهذه السّياسات على الخصوصيّة، وحرّية التّعبير، وعدم التّمييز، وسائر حقوق الإنسان الأساسيّة الأخرى.
يجمع المختبر بين الأدوات التّقنية المتقدّمة وطرائق إعداد السّياسات المتمحورة حول حقوق الإنسان، من خلال نهجٍ مبتكر متعدّد الأطراف. في محطات عمله التّعاونيّة وغرفه الافتراضيّة لصناعة السّياسات، سيعمل قادة المجتمعات الأصلانيّة جنبًا إلى جنب مع المدافعين عن الحقوق الرّقميّة، والمنظّمات القاعديّة، والمسؤولين الحكوميين، ويتشارك الخبراء الأكاديميون مع ممثلي الشباب لاختبار كيفية تأثير سياسات الذّكاء الاصطناعي المختلفة على الفئات الضّعيفة والحرّيّات الأساسيَّة.
من خلال طيفٍ من تجارب المُحاكاة الغامرة، تتيح هذه البيئة المتنوعة للمشاركين/ات تجربة التّأثيرات المحتملة للقرارات بشكل مباشر، سواء على صعيد الوصول إلى المعلومات، أو حماية الخصوصيّة، أو مفاقمة أوجه التّمييز. يولي المختبر اهتمامًا خاصًّا بالتَّأثيرات التّقاطعيّة، حيث يُعطي المجتمعات المتضرّرة دفّة الحوار بشأن كيفية تأثير السّياسات على أفرادها استنادًا إلى جُملة من العوامل، مثل الجندر (النّوع الاجتماعي)، أو العرق، أو الوضع الاقتصادي، أو الموقع الجغرافي.
يكاد يكون مختبر ابتكار سياسات الذّكاء الاصطناعي مضمارًا سياساتيًّا عِماده الضمير والحكمة الجمعيَّة—مكان يمكن فيه اختبار الأفكار بأمان وصقلها بالنّهل من وجهات نظر متعددة لضمان حمايتها وتعزيزها لحقوق الإنسان قبل أن تؤثر على حياة الملايين. يضمن هذا النّهج التّشاركي أن السّياسات لا تُصمَّم لأجل المجتمعات فقط بالتّشارك معها، مما يساعدنا في تفادي ما لا يُرجى ولا يُقصد من تبعات قد تمس كرامة الإنسان أو تساوم عليها—أو تفاقم أوجه عدم المساواة القائمة.
- نظام الرّقابة متعدّد الأطراف
يكشف مشهد الذّكاء الاصطناعي الرّاهن تناقضات شائكة. ففي الوقت الذي تُسارع شركات مثل أوبن آيه. آي. (OpenAI) وميتا(Meta) وشركات تقنية إقليمية أخرى في نشر أنظمة الذّكاء الاصطناعي على مستوى العالم، تظل آليات الرَّقابة مشرذمة وغالبًا غير فعالة. تتضح هذه التّناقضات مثلًا في سيطرة الصِّين المُحكَمة على الوصول إلى تطبيق تشات جي. بي. تي. (ChatGPT)، مقارنة بالنّهج الذّاتي التّنظيم السّائد في الولايات المتحدة، أو في الفجوة بين الأنظمة الحقوقيّة في أوروبا والأطر النّاشئة في البلدان النّامية التي تواجه تحديات مرتبطة بعدم المساواة، كما أشرنا سابقًا. تُبرز هذه التَّباينات الحاجة الملحّة إلى نظام رقابة متزن وقابل للمواءمة، يجسر هذه الأساليب المتنوعة مع التّركيز على إعطاء الأولويّة لحماية حقوق الإنسان وضمان سلامة المعلومات.
تتميز تركيبة هذه الهيئات بتوازن دقيق، حيث يعمل الخبراء التقنيون جنبًا إلى جنب مع المدافعين/ات عن حقوق الإنسان، ويتعاون المتخصصون/ات القانونيون مع الصحفيين/ات، بينما يضمن ممثلو/ات المجتمع المدني بقاء أصوات المجتمعات محور جميع القرارات. لا تقتصر غاية هذا التّنوّع على التّمثيل؛ بل يهدف إلى جمع المهارات اللازمة لفهم كل من الآثار التقنية لأنظمة الذّكاء الاصطناعي وتأثيراتها الواقعيّة على المجتمعات.
يُقرُّ نظام الرّقابة متعدّد الأطراف بما تواجهه حوكمة الذّكاء الاصطناعي من تحديات تتباين بتباين البلدان والمجتمعات. ففي أوغندا، حيث تعكف الحكومة على مراجعة استراتيجيتها للذكاء الاصطناعي، يمكن لنظام الرّقابة متعدّد الأطراف توفير إطار ذي مغزى بالتّوازي مع دعم الابتكار المحلي. أمّا في مناطق مثل جنوبي شرق آسيا، حيث يأخذ توطين البيانات والمصالح الحكوميّة حيّزًا كبيرًا، فيمكن لهذا النّظام تقديم آليات مرنة تحترم السّيادة الوطنيّة مع ضمان حماية حقوق الإنسان.
تكمن قوّة هذا النّظام في قدرته على التكيّف مع الحفاظ على جوهر مبادئه. ففي المناطق الّتي يهيمن فيها التّنظيم الذّاتي، يوفّر آليات رقابة مُنظّمة. وفي البلدان الّتي تُحِكمُ الحكومات سيطرتها، يتيح قنوات لمشاركة المجتمع وحماية حقوقه. تضمن هذه المرونة حفاظ النّظام على صلةٍ بسياقه وفعاليّته في مختلِف البيئات التَّنظيميَّة.
لنأخذ مِثالًا عمليًّا: إن اعتزمت شركة ذكاء اصطناعي كبرى نشر نموذج لغوي جديد غربي إفريقيا، يباشر جهاز الرقابة الإقليميّ هناك في تقييم المواصفات التّقنية للنموذج وتأثيراته الثّقافيّة، والمخاوف المرتبطة بخصوصيّة البيانات، وما ينثني عليه من آثار محتملة على نظم المعلومات المحلّيّة. بعبارة أخرى، هذا التّقييم ليس إجراء شكليًّا، بل عمليّة شاملة يمكن تُحدِثِ تعديلات ذات مغزى أو حتّى فرض قيود على النّشر والاستخدام، إذا لزم الأمر.
يضمن نظام الرّقابة متعدّد الأطراف شفافيّة عملية تطوير وانتشار أنظمة الذّكاء الاصطناعي ومساءلتها أمام جميع المجتمعات الّتي تؤثر عليها، مع التّركيز على حماية حقوق الإنسان وسلامة المعلومات. يُرسي هذا النِّظام إطارًا شاملًا يُعطي هيئات الرّقابة الإقليميّة—من ممثلين/ات المجتمع المحلّي، ومدافعي/ات حقوق الإنسان، والصحفيين/ات، ومتحرِّي/ات الحقائق، والمنظّمات الإعلاميّة المستقلة، وأعضاء من المجتمع المدني، والمجتمعات المتأثرة—سلطةً حقيقية لرصد الأنظمة المطوّرة ومتابعتها، وتقييمها والتأثير على أثرها في حقوق الإنسان وسلامة المعلومات في مناطقهم.
سيشرف نظام الرّقابة متعدّد الأطراف على أنظمة الذّكاء الاصطناعي في مرحلتي الانتشار وما قبله، خاصةً تلك الّتي تؤثّر تأثيرًا كبيرًا على تدفّق المعلومات وحقوق الإنسان في المجتمع، مع التّركيز على أربعة مجالات أساسيّة: (1) نماذج اللّغات الكبيرة (Large Language Models) وأنظمة الذّكاء الاصطناعي التّوليدي الّتي تؤثر على الخطاب العام وإنتاج المعلومات؛ (2) وأنظمة التّوصية بالمحتوى وإدارته الّتي تتحكم بهيئة توزيع المعلومات والوصول إليها؛ (3) وأنظمة اتخاذ القرارات الآليّة الّتي تؤثر على الحقوق الأساسيّة والخدمات العامَّة؛ (4) وتقنيات المراقبة والرّصد والمتابعة العاملة بالذّكاء الاصطناعي. تشمل هذه الرقابة تقييمًا شاملًا لتأثيرات هذه الأنظمة على سلامة المعلومات، بما في ذلك دورها في تضخيم المعلومات المضلّلة أو الحد منها، وتأثيرها على تعدّدية خطاب وسائل الإعلام وعلى التَّحيز الخوارزمي في توزيع المعلومات.
في الوقت نفسه، يضمن النّظام صرامة المساءلة فيما يتعلّق بحقوق الإنسان من خلال أجراء تقييمات إلزامية للأثر، وآليات شكاوى مُلزِمة، وبرامج رصد ومتابعة يقودها المجتمع المحلّي. يُذكر أنّ هذا النّظام يعتمد على نهج مزدوج المسار: مسار إشراف استباقي من خلال تقييمات ما قبل النّشر، ورقابة متواصلة عبر تقييمات ما بعد النشر، مع الترّكيز على الأنظمة التي تنشرها الشّركات التكنولوجيّة الكبرى والجهات الحكوميّة. تستند عمليّة الرّقابة إلى متطلّبات التّوثيق الشّفافة، وجلسات الاستماع العامّة المنتظمة، وآليات الإنفاذ الواضحة، وذلك لضمان إبقاء تطوير الذّكاء الاصطناعي وانتشاره خاضعين لمساءلة المُجتمعات المتأثرة بها وحماية سلامة المعلومات وحقوق الإنسان من آثارها.
يُحدث نظام الرّقابة متعدّد الأطراف تحولًا في عملية الرقابة عبر خمسة نُهُج رئيسة انسجامًا ومبادئ الأمم المتحدة بشأن سلامة المعلومات:
- بناء الثّقة والمرونة المجتمعيّة: إنشاء آليات للتثبّت من المحتوى الّذي ينتجه الذّكاء الاصطناعي وتعزيز شفافيّة أنظمة خوارزميّاته.
- إعادة بناء هيكلية صحيّة للحوافز: إرشاد المنصّات للانتقال من مقاييس التّفاعل إلى جودة المعلومات.
- تمكين الجمهور: دعم التّربية والثّقافة الرَّقمية وتوفير أدوات تُمكِّن الجمهور من الرَّقابة على أنظمة الذّكاء الاصطناعي.
- حماية وسائل الإعلام: صون استقلالية الصّحافة وتعدّديّتها في عصر الذّكاء الاصطناعي.
- الشّفافيّة والبحث: ضمان تمكين البحَّاثة من إجراء بحوث ذات مغزى في تأثير الذّكاء الاصطناعي على نظم المعلومات.
من خلال نهجه المُتكامل ”الحقوق أولًا،“ يضمن النّظام احترامَ أنظمةِ الذّكاء الاصطناعي لحقوقِ الإنسان وإسهامها في خلقِ بيئةٍ معلومات صحيَّة، وموثوقة، وتعدّديّة. يشمل إطار المساءلة آليات إنفاذ تتراوح من التّحذيرات العامّة والغرامات، وصولًا إلى فرض قيود تشغيليّة في حال حدوث انتهاكات جسيمة لمعايير حقوق الإنسان أو مبادئ سلامة المعلومات.
- نموذج جديد للرّقابة الدّيمقراطيّة على الذّكاء الاصطناعي
يُشكّل نظام الرّقابة متعدّد الأطراف نهجًا فريدًا للرقابة على أنظمة الذّكاء الاصطناعي، فهو يقع في منطقة وسطى بين مراصد المجتمع المدني والسّلطات التَّنظيميَّة الرسميَّة. على العكس من المحاكم الّتي تنطق بقراراتها المُلزِمة أو الجهات التنظيمية التي تفرض القواعد، يعمل النّظام راصدًا شفَّافًا لآثار أنظمة الذّكاء الاصطناعي على نُظم المعلومات وحقوق الإنسان. وعليه فإنّ قوّته لا تكمن في فرض القوانين، بل في جمع الأدلّة، وإبراز الأنماط، وإثراء نقاشات عامّة مدعّمّة بالأدلّة والمعلومات عن التأثيرات الاجتماعيّة للذكاء الاصطناعي. ينسجم هذا الدّور الرّقابي أيضًا مع النّماذج النّاشئة للرقابة غير التنظيمية على الذّكاء الاصطناعي، مثل ”آليات الاعتماد الطوعيّة في خدمة المصلحة العامة،“ التي أثبتت فعاليتها في مجالات أخرى. كما تُشير بُحوث منتدى الإعلام والدّيمقراطيّة، يمكن لمثل هذه الآليات الإسهام في معالجة الفجوات المعلوماتيّة بين مزودي خدمات تِقانة الذّكاء الاصطناعي والجمهور، مع خلق حوافز إيجابية لاعتماد ممارسات التّطوير المسؤولة. مثل هيئات الاعتماد الناجحة الّتي تحافظ على استقلالها عن الصّناعة والحكومة وتركّز على تعزيز الشفافيّة والمساءلة، يمكن لنظام الرّقابة متعدّد الأطراف أن يغدو وسيطًا موثوقًا يتيح مشاركة فعّالة ذات مغزى من كافّة الأطراف المعنية وتمكين الرّقابة العامّة. كذلك فإن موقعه، باعتباره مرصدًا مستقلًا، يتيح له توثيق التأثيرات المجتمعيَّة لأنظمة الذّكاء الاصطناعي وتحليلها، مع تجنب مخاطر الاستحواذ التنظيمي أو التأثير السّياسي التي قد تعتري هيئات الرَّقابة الرّسميَّة، مّما يُعزِّز شرعيّة وثقة الجمهور به من خلال التزامه بالتّقييمات الصّارمة والتوثيق العام بدلًا من الاعتماد على أجهزة إنفاذ القانون الرّسميّة.
- الشَّرعيَّة الدّيمقراطيَّة: البُنيّة والعمليَّات
تنبع شرعية نظام الرّقابة متعدّد الأطراف أساسًا من عُمق البُعد الدّيمقراطي لبنيته، إذ يتم تداول رئاسته والتّناوب عليها بين ممثلي المناطق ومجموعات أصحاب المصلحة، مع فرض حدود صارمة لمدّة كل رئاسة للحؤول دون هيمنة وجهة نظر واحدة على النّظام. تضمن عملية التّعيين الشَّفافة تنوّع التّمثيل وتعدّديته، بينما تحمي سياسات منع تضارب المصالح ومصادر التّمويل المتعددة من استحواذ ذوي المصالح النافذة على النّظام. بالإضافة لهذه الأبعاد الدّاخليّة، تخضع أنشطة النّظام لعمليات تدقيق مستقلة وبوتيرة منتظمة لضمان تطبيقه لمبادئ الشّفافية الّتي يدعو للالتزام بها في أنظمة الذّكاء الاصطناعي.
- بناء المصداقيّة بالاستناد إلى منهجيّة صارمة
تستمد تقييمات نظام الرّقابة متعدّد الأطراف سوّيتها ومصداقيتها من دقة منهجيّتها لا من سلطة تنظيميّة أو رسميّة. تُبنى أطر التّقييم بالاستناد إلى معطيات مشاورات عامة وتخضع لمراجعة مُحكَّمة، لضمان تمثيلها لوجهات نظر متعدّدة ولآخر ما وقفت عليه البحوث. كذلك يجب ائتمان عِدّة فرق مستقلّة بالتّحقّق من صحة النّتائج قبل نشرها، وتوثيق منهجيّة وإجراءات ونتائج عمليّة التّحقّق ونشر. يتيح هذا النّهج الوصول إلى تصوّرات وفهم يعوَّل عليه حيال التَّأثيرات المجتمعيّة لأنظمة الذّكاء الاصطناعي، مع الحفاظ على حدود واضحة بين المُلاحظة والإلزام.
- ضمانات الحؤول دون تجاوز الرّسالة وتركيز السّلطة
لمنع تحوّل النّظام إلى جهة رقابيّة بحُكم الواقع أو جهاز قضائي موازٍ، ينصُّ ميثاقه بوضوح على حظر صلاحيات تعديل المحتوى، مع قصر نطاق عمله على القضايا المنهجيّة العامّة بدلًا من الحالات الفردية. كما ستُجرى مراجعات خارجيّة منتظمة لتقييم التزام النّظام بهذه الحدود، وستوفر تقارير الشّفافية الإلزامية تفاصيل كاملة عن أنشطته وعملياته على صعيد اتخاذ القرارات، فضلًا عن وجود نظام قوي لحماية المبلغين عن المخالفات لتعزيز المساءلة الدّاخلية وضمان بقاء النّظام أمينًا على رسالته.
- الرّقابة بنهجٍ تعاوني
بدلًا من العمل كلّ على حدة وبانعزال، يتعاون النّظام تعاونًا ديناميًّا مع المؤسّسات القائمة مع احترام أدوارها المختلفة، بحيث يقدّم الأدلّة والبيانات الإغنائيّة للمحاكم والجهات التّنظيمية دون محاولة تكرار وظائفها. كذلك ستُثري تقييماته إعداد السّياسات والنّقاشات العامّة دون فرض حلول بعينها. سيعزز هذا النهج التّعاوني الرقابة الدّيمقراطيّة على أنظمة الذّكاء الاصطناعي مع الحفاظ على مبدأ الفصل بين السّلطات الضروري للحكم الديمقراطي.
- تمكين الخطاب والوعي العامين
ينبثق الأثر المُطلق لنظام الرّقابة متعدّد الأطراف من قدرته على الإضاءة على القضايا المعقدّة وتيسير فهم الجمهور لها. تحقيقَا لهذه الغاية، سيعقد النّظام اجتماعات عامّة منتظمة، وجلسات مخصّصة لجمع آراء المجتمع وتعقيباته، بالإضافة إلى الإفصاح عن بيانات عملياته للجمهور، ممَّا سيساعد على تعزيز وعي المجتمع بدور الذّكاء الاصطناعي والانخراط بنقاشات فعّالة بشأنه. بعبارة أخرى يهدف النّظام إلى تمكين الجمهور من المشاركة مشاركة واعية في النقاشات المحورية المتعلّقة بكيفية تشكيل الذّكاء الاصطناعي لبيئتنا المعلوماتيّة وعملياتنا الدّيمقراطيّة، بدلًا من اتخاذ القرارات نيابةً عن الجمهور.
يضمن هذا النهج المتوازن تعزيزَ النّظامِ لممارسات الرّقابة الدّيمقراطيّة على أنظمة الذّكاء الاصطناعي دون التّعدّي على أدوار الجهات الرّقابيّة أو القضاء أو أخذ مكانها، بل يدعمها ويرفدها بالرّؤى والأدلّة مُحافظًا على حدودٍ واضحة بين نطاق عمله وعملها.
الخاتمة
- تُجسّدُ مبادرة ”مشاعات الذّكاء الاصطناعي“ رؤيةً لدمقرطة حوكمة الذّكاء الاصطناعي من خلال أربع ركائز متقاطعة تعالج الاحتياجات العاجلة والتّغيرات البنيويّة الآجلة وبعيدة الأمد. يجمع هذا الإطار بين بناء القدرات المحلّية عبر شبكة مراكز بناء قدرات تعزيز المُساواة في أنظمة الذّكاء الاصطناعي، وإدماج المجتمعات وإشراكها من خلال مجلس المواطنين والمواطنات لمراجعة تصميم أنظمة الذّكاء الاصطناعي، وتجريب السّياسات في مختبر ابتكار سياسات الذّكاء الاصطناعي، والرّقابة الشّفّافة عبر نظام الرّقابة متعدّد الأطراف. يخلق هذا النموذج مسارات متعدّدة تتيح مساهمةَ الجمهور مساهمةً فاعلةً في تطوير أنظمة الذّكاء الاصطناعي. والأهم من ذلك، تركيزه على وجهات نظر مجتمعات الجنوب العالمي ومعالجته لاختلالات موازين القوى الأساسيّة في منظومة الذّكاء الاصطناعي الرّاهنة، بالتّوازي مع بناء الخبرات والقدرات المحلّية في اتخاذ القرارات ذات الصِّلة. يُقرّ هذا النّهج الشّامل أنّ حوكمة الذّكاء الاصطناعي الفعّالة لا تستقيم وتكتمل إلَّا بجمع الابتكار التّقني وإحداث التّحوّلات الاجتماعيّة—بدءًا من معالجة أوجه عدم المساواة العرقيَّة والجغرافيَّة، وصولًا إلى ضمان السّيادة الرَّقميَّة وإعادة بناء المساحات الاجتماعيَّة المشتركة. يعتمد نجاح هذه المبادرة على الالتزام المستدام بالحوكمة الشاملة، والعمليَّات الشَّفَّافة، وإعادة توزيع موازين القوى بما يضمن خِدمة أنظمة الذّكاء الاصطناعي لقيم الدّيمقراطية وحقوق الإنسان بدلاً من تقويضها.
4. الأفراد الجهات الموقّعة على المُقترح (باب الانضمام للمقترح متاح حتّى شباط/فبراير 2025).