أخبارأخبار أميركا

استطلاع: معظم الأمريكيين يريدون تنظيمًا فيدراليًا للذكاء الاصطناعي

على الرغم من وجود الذكاء الاصطناعي منذ عقود، إلا أن شعبية “ChatGPT” نقلت التكنولوجيا إلى مستوى جديد، ونتيجة لذلك تتطور أبحاث وتطبيقات الذكاء الاصطناعي بسرعة رهيبة، ونظرًا لأن النمو واسع النطاق حديث جدًا، فلا يوجد الكثير من التنظيمات حوله حتى الآن، لكن الناس يرغبون في وجود هذا التنظيم، وفقًا لما ذكره موقع “ZDnet“.

استطلع معهد سياسة الذكاء الاصطناعي 1001 مواطنًا مسجلاً في قوائم الانتخابات بالبلاد، فيما يتعلق بأفكارهم حول الذكاء الاصطناعي، وأظهرت النتائج خوفًا عامًا بين الجمهور.

من بين المشاركين الذين شملهم الاستطلاع، أفاد 62٪ بأنهم “قلقون” إلى حد ما أو في الغالب بشأن الذكاء الاصطناعي، بينما يعتقد 86٪ أن الذكاء الاصطناعي يمكن أن يتسبب عن طريق الخطأ في وقوع حدث كارثي.

أدى هذا القلق الواسع الانتشار إلى الدعوة إلى اتخاذ تدابير السلامة مثل إبطاء التطورات ووضع اللوائح، وعلى الرغم من رغبتهم في التنظيم إلا أنهم مختلفون في الكيفية؛ فهنا 56٪ من الناس يرغبون في أن تقوم وكالة فيدرالية بتنظيم الذكاء الاصطناعي، ويقول 82٪ إنهم لا يثقون في المديرين التنفيذيين لشركات التكنولوجيا لتنظيم الذكاء الاصطناعي بأنفسهم.

يرى الخبراء أنه من الضروري وجود تنظيم وقوانين للتحكم في مجال الذكاء الاصطناعي، ويعود ذلك إلى العديد من الأسباب:

* السلامة:

يمكن للذكاء الاصطناعي أن يتطور إلى مستويات تفوق القدرات البشرية، وقد يكون لديه قدرة على التأثير في العالم الحقيقي بطرق غير متوقعة، وبالتالي يجب وضع قوانين واضحة لضمان سلامة البشرية ومنع أي استخدام ضار للتكنولوجيا الذكاء الاصطناعي.

* الأخلاق:

يتطلب الاستخدام الأخلاقي للذكاء الاصطناعي توجيهات وضوابط واضحة، كما يجب وضع معايير وقواعد تحكم سلوك الأنظمة الذكاء الاصطناعي لضمان التعامل الأخلاقي مع البيانات والخصوصية وتجنب العنصرية والتحيز والتمييز.

* الشفافية:

يجب أن يكون للأفراد القدرة على فهم كيفية عمل نظم الذكاء الاصطناعي واتخاذ قرارات مستنيرة بشأن استخدامها. ينبغي وضع متطلبات للشفافية والإفصاح بشأن الخوارزميات والبيانات المستخدمة في تدريب النظم الذكاء الاصطناعي.

* المسؤولية:

يجب تحديد المسؤولية القانونية في حالة حدوث أضرار جراء استخدام الذكاء الاصطناعي، ويجب أن تكون هناك آليات لتحديد المسؤولية وتعويض المتضررين في حالة وقوع أخطاء أو ضرر ناتج عن تقنيات الذكاء الاصطناعي.

* التنافس العادل:

يمكن أن يؤثر الذكاء الاصطناعي على سوق العمل والاقتصاد بشكل كبير، ويجب وضع قواعد تنظم منافسة الشركات وحماية حقوق المستهلكين في ظل التطورات التكنولوجية المرتبطة بالذكاء الاصطناعي.

بشكل عام، فإن وجود تنظيم وقوانين يساهم في ضمان تطوير واستخدام الذكاء الاصطناعي بطرق مسؤولة وآمنة وأخلاقية، وسيعمل هذا الإطار التنظيمي على حماية المجتمع وضمان استفادته من فوائد التكنولوجيا دون تهديد أو خطر.

تعليق

إقرأ أيضاً

زر الذهاب إلى الأعلى