رأي

هل يستطيع العالم صياغة تشريعات ومبادئ أخلاقية تحكم تقنيات الذكاء الاصطناعي؟

كتب : محمد عبد الظاهر

 “هل تعلم أن هناك دائمًا أشباح في عقول “الروبوت”، تمثل مجموعة من الأكواد والمقاطع العشوائية، تتجمع سويًا لتشكل بروتوكولات غير متناسقة، تثير التساؤلات حول إرادتهم الحرة، وقدرتهم على الإبداع، وحتى ما يمكن أن نُسَمّية بالروح البشرية داخل تلك الآلات، لا يمكن السيطرة عليها بشكل كامل”

هذه المعلومة ليست حقيقة علمية، لكنها مقطع من فيلم “”Rogue Robot للنجم ويل سميث. وإذا كنت قد شاهدت من قبل أحد أفلام سلسلة Robocop”” أو سلسلة أفلام ” Transforms” الأمريكية، فلا بد أنك شعرت فعلًا أن هناك خوفًا شديدًا من تنامي قوة الــ”روبوت” مقارنة بقوة البشر.

وبالتأكيد دارت في ذهنك العديد من التساؤلات، فماذا لو حلت الآلات محل الإنسان في كل حياته اليومية؟، هل هناك قواعد تحكم تلك التقنيات الحديثة؟، وما هي طبيعة التشريعات التي يمكن أن تحد من القوة المفرطة سواء “ذهنية أو عضلية لو صح تسميتها” لتلك الآلات؟. وإذا اعتقد البعض أن أغلب تقنيات الذكاء الاصطناعي هي شر خالص، فكيف يمكن التحكم في هذا الشر بطريقة أخلاقية وتشريعية توجهه لخير البشرية؟

لكن هل تساءلت أيضًا من المسئول عن مقتل “أشخاص” تحت عجلات السيارات ذاتية القيادة؟، أو كيف نُحاسب الروبوت المتسبب في خطأ طبي أثناء العمليات الجراحية؟، وماذا لو تم القبض على “روبوت” أثناء عملية سطو مسلح على أحد البنوك؟.

وفقا لتقريرٍ صدر مؤخرًا عن “القمة العالمية للحكومات” بالتعاون مع “ديلويت”، حول تأثير أخلاقيات الذكاء الاصطناعي داخل القطاع الحكومي، أكد التقرير “أنه على الرغم من الإنجازات الكبيرة التي حققتها تقنيات الذكاء الاصطناعي إلا أن الحكومات تواجه بعض التحديات حول كيفية تطبيق تكنولوجيا الذكاء الاصطناعي في القطاع العام وفي استراتيجيات الحوكمة، وتساءل التقرير عن مدى إمكانية وضع قواعد أخلاقية أو تشريعية يمكن أن تضبط تلك التقنيات”.

التطور طويل الأمد “خطر”

أشار التقرير أيضًا إلى أنه على الرغم من الإنجازات الكبيرة التي حققها الذكاء الاصطناعي إلا أنه أثار بعض القلق الذي تحدثت عنه وسائل الإعلام، فهل يمكن للتطوير طويل الأمد للذكاء الاصطناعي أن يؤدي إلى نهاية البشرية كما توقع إيلون ماسك، وبيل غيتس، وكما يرى بعض خبراء التكنولوجيا؟

وما هو دور الأخلاقيات في تصميم وتطوير وتطبيق الذكاء الاصطناعي؟، وكيف يمكن لهذه الأخلاقيات أن تساعد في تحقيق أكبر استفادة ممكنة من الذكاء الاصطناعي؛ لتعزيز جودة حياة المواطنين والصالح العام؟

وأشار التقرير إلى أن ظهور الذكاء الاصطناعي أثار مجموعة القضايا الأخلاقية المتعلقة بالجوانب المعنوية والقانونية والاقتصادية والاجتماعية لمجتمعاتنا، حيث يواجه المسئولون الحكوميون تحديات وخيارات متعلقة بكيفية تطبيق تكنولوجيا الذكاء الاصطناعي في القطاع العام، وفي إستراتيجية الحوكمة، بداية من حالات الوفيات الناجمة عن سيارات ” أوبر” ذاتية القيادة، وصولاً إلى أداة التوظيف المتحيزة جنسيًا التابعة لــ” أمازون”.

ولهذا فإننا نجد أنفسنا أمام عدد وفير من الأمثلة حول المخاوف الأخلاقية التي تُعزز ضرورة أخذ هذه المخاوف بعين الاعتبار قبل نشر أنظمة الذكاء الاصطناعي.

ويتضمن ذلك ضرورة أن تفهم الحكومات وقيادات الشركات ما هو المقصود بالـــ” القيم الجيدة” بالنسبة للذكاء الاصطناعي، والوصول إلى إجماع مجتمعي حول أخلاقيات الذكاء الاصطناعي الذي يمثل أحد المهام الرئيسية للحكومات.

الفجوة كبيرة 

التقرير أشار إلى أن هناك فجوة كبيرة بين كيفية استخدامنا الفعلي للذكاء الاصطناعي؟ وبين ما يجب أن يُستخدم من أجله؟. لذا يجب على الحكومات أن تطور البيئة التنظيمية بما يواكب تطور الذكاء الاصطناعي الذي يُحدِث تغييرات جذرية سريعة في عالمنا.

وفي هذا الإطار يتوجب على الحكومات والمؤسسات العامة البدء بتحديد القضايا الأخلاقية والتداعيات المجتمعية للذكاء الاصطناعي، وغيره من التكنولوجيا ذات الصلة قبل استخدامها، وذلك لتحقيق هدفين:

أولا: إدارة مخاطر الذكاء الاصطناعي بشكل مناسب ضمن الحكومة للوصول إلى قطاع يعززه الذكاء الاصطناعي.

ثانيًا: تطوير سياسات ذكية لتنظيم الذكاء الاصطناعي بطرق ذكية، وضمان أن يعود بالفائدة على المجتمع والاقتصاد. 

حيث يجب أن يعكس سلوك تقنيات الذكاء الاصطناعي القيم المجتمعية. ويمثل تحقيق الإجماع المجتمعي حول أخلاقيات الذكاء الاصطناعي أحد المهام الرئيسية للحكومات. 

كان استبيان أجرته “ديلويت” في الولايات المتحدة مؤخرًا، على عدد 1,400  من المسئولين التنفيذيين واسعي الاطلاع على شؤون الذكاء الاصطناعي، قد كشف أن أحد أكبر التحديات التي تواجه الذكاء الاصطناعي تكمن في المجال الأخلاقي.

حيث صنف 32% من المشاركين القضايا الأخلاقية على أنها أحد أهم ثلاثة مخاطر يُمثلها الذكاء الاصطناعي، في حين لا تمتلك معظم المؤسسات مقاربات محددة للتعامل مع موضوع أخلاقيات الذكاء الاصطناعي حتى الآن.

على سبيل المثال، كيف يمكننا ضمان أن تقوم أنظمة الذكاء الاصطناعي بخدمة الصالح العام عوضًا عن خدمة مصالح الأفراد؟ 

الاعتبارات الأخلاقية

هل يمكن وضع اعتبارات وقيم أخلاقية ثابتة تُؤخذ بعين الاعتبار عند عمل تقنيات الذكاء الاصطناعي في القطاع الحكومي، أو التعامل المباشر مع الجمهور؟

حدد التقرير خمسة اعتبارات أخلاقية يجب التعامل معها عند انخراط تقنيات الذكاء الاصطناعي في القطاع الحكومي وهي: 

أولاً: الجوانب التنظيمية والحوكمة: ما هي مبادئ الحوكمة التي يجب على الحكومات اعتمادها كجزء من اللوائح الاستباقية؟، كيف يمكننا إتاحة تطوير تطبيقات الذكاء الاصطناعي لخدمة الصالح العام؟، ما هو الوضع الأخلاقي لآلات الذكاء الاصطناعي؟، ما هي الخصائص التي يجب توافرها في الآلة؟، كيف يمكننا إضفاء الشفافية على عمليات نشر نظم خوارزميات الذكاء الاصطناعي؟

ثانيًا: الشرعية وعدم التنصل: فكيف يمكننا ضمان شرعية تقنيات الذكاء الاصطناعي الذي نتفاعل معه؟، وكيف يتم التأكد من ما إذا كانت بيانات التدريب شرعية أم لا؟

ثالثًا: السلامة والأمن: هل يضمن الذكاء الاصطناعي علمًا لهندسة السلامة لوكلاء الذكاء الاصطناعي؟، وكيف نضمن أن الآلات لا تضر البشر؟ ومن سيقوم بتغطية الأضرار التي تُسببها الآلات؟.

رابعًا: الأثر الاجتماعي- الاقتصادي: كيف يمكننا الحد من خسارة الوظائف الناجمة عن الذكاء الاصطناعي في بيئة العمل؟، وهل هي المخاطر الاجتماعية والأخلاقية للتصنيف التنبؤي؟، وهل تصل البشرية إلى مرحلة لا يوجد فيها عمل نتيجة الذكاء الاصطناعي؟

خامسًا: الأخلاق: هل نمتلك الحق في تدمير الروبوتات؟، وهل نعتبرها ملكًا للأفراد أم هي جزء من الثروة العامة؟، وماذا لو طورت الروبوتات/الذكاء الاصطناعي آراءها الخاصة حول المشكلات؟

مبادرات أخلاقية

جميع تلك التساؤلات، والمخاوف، والمعتقدات أثارت التفكير في العديد من المبادرات حول العالم، لوضع إطار أخلاقي ضابط لتقنيات الذكاء الاصطناعي، وما قد ينجم عنها من أضرار للبشر، ومنها:

المؤسسات الأكاديمية

هناك مبادرة بعنوان “أخلاقيات وحوكمة الذكاء الاصطناعي” (  Ethics and Governance of AI) أطلقها مركز “بيركمان كلاين” التابع لكلية هارفرد للقانون، بالتعاون مع مختبر الوسائط التابع لمعهد  ماساتشوستس للتكنولوجيا، بقيمة 27 مليون دولار أمريكي، تهدف إلى وضع قواعد قانونية وأخلاقية جديدة للذكاء الاصطناعي وغيره من أنواع التكنولوجيا القائمة على الخوارزميات المعقدة.

القطاع الخاص

صممت عدة شركات تكنولوجية برامج تدعم الذكاء الاصطناعي كأداة لإيجاد مجتمع أفضل. على سبيل المثال، تهدف مبادرة الذكاء الاصطناعي للصالح الاجتماعي ” AI for Social  ” من جوجل، ومنحة “الذكاء الاصطناعي للصالح العام ” AI for Good” بقيمة 110 مليون دولار من ميكروسوفت، إلى تمويل برامج الذكاء الاصطناعي التي تدعم المشاريع الإنسانية وإمكانية الوصول والبيئة.

وخصصت “مايكروسوفت” مؤخرًا 50 مليون دولار لبرنامج “الذكاء الاصطناعي من أجل الأرض” لمواجهة التغير المناخي.

القطاع العام

أعلن عدد متزايد من الدول عن إطلاق إرشادات أخلاقية للذكاء الاصطناعي خلال فترة قصيرة من الوقت.  وفي ديسمبر 2018 أطلقت المفوضية الأوروبية، مدعومة من مجموعة من الخبراء رفيعي المستوى، المسودة الأولي من الإرشادات الأخلاقية ”  Ethics Guidelines ”  لتطوير واستخدام الذكاء الاصطناعي.

وفي الوقت ذاته أطلقت كندا  “إعلان مونتريـال للذكاء الاصطناعي”،  وهي وثيقة تهدف إلى توجيه الأفراد والمؤسسات والحكومات فيما يخص اتخاذ خيارات مسئولة وأخلاقية عند إنشاء واستخدام تكنولوجيا الذكاء الاصطناعي.

الإمارات رائدة

وضمن الجهود العالمية لوضع تشريعات وقيم أخلاقية تضبط تقنيات الذكاء الاصطناعي والثورة الصناعية الرابعة، أطلقت دولة الإمارات “مختبر التشريعات” الأول من نوعه عالميًا، ويعد من أكبر مختبرات تخطيط المستقبل بشكل استباقي، من خلال تطوير آليات وتشريعات المستقبل كالذكاء الاصطناعي والتنقل الذكي ذاتي القيادة، وغيرها، وله منصة للتعاون مع مؤسسة دبي للمستقبل تجمع بين العاملين في القطاع التشريعي في الجهات الاتحادية والمحلية والخاصة لمراجعة التشريعات واقتراح الجديد منها.

Twitter: @mohamabdulzaher

Linkedin: @Mohamed Abdulzaher


الآراء الواردة في المقال تعبر عن وجهة نظر الكاتب ولا تعكس وجهة نظر الموقع


تعليق

إقرأ أيضاً

زر الذهاب إلى الأعلى