شركات الذكاء الاصطناعي توافق على التزامات السلامة الطوعية

وافقت شركات الذكاء الاصطناعي على مجموعة من المبادئ التوجيهية الطوعية للسلامة وأكدت من جديد التزامها بتطوير تكنولوجيا الذكاء الاصطناعي الخاصة بها بطريقة تحفز أمن منصاتها والجمهور، بحسب ما نشرته صحيفة “The Hill“.

وفي قمة الذكاء الاصطناعي في سيول ــ التي استضافتها حكومتا كوريا الجنوبية والمملكة المتحدة ــ وقعت 16 شركة رائدة على التزامات سلامة الذكاء الاصطناعي غير الملزمة، والتي تهدف إلى التخفيف من مخاطر الذكاء الاصطناعي مع زيادة المساءلة والشفافية.

ومن بين الشركات التي وافقت على الالتزامات، OpenAI، وGoogle، وIBM، وAmazon، وMeta، وxAI.

واتفقت الشركات على تقييم مخاطر التكنولوجيا في كل خطوة من خطوات تطوير نظام جديد للذكاء الاصطناعي، مع التركيز على تقليل المخاطر المرتبطة باحتمال إساءة استخدام التكنولوجيا أيضًا.

واتفقوا على النظر في نتائج التقييمات الداخلية والخارجية “حسب الاقتضاء” لتحديد مدى سلامة النظام. ويمكن إجراء التقييمات الخارجية من قبل أطراف ثالثة مستقلة، أو حكوماتها المحلية، أو “هيئات أخرى تراها حكوماتها مناسبة”.

واتفقت الشركات أيضًا على وضع عتبة محددة مسبقًا للحد الأقصى لمستوى المخاطرة التي يشكلها نظام معين للذكاء الاصطناعي والتي ستكون على استعداد لتحملها. واتفقوا على أن يذكروا بوضوح كيف سيضمنون إبقاء المخاطر تحت هذا الحد وماذا سيفعلون إذا تجاوز نظام الذكاء الاصطناعي الخاص بهم هذا الحد، بما في ذلك “عمليات مواصلة تطوير ونشر أنظمتهم ونماذجهم فقط إذا قيموا أن المخاطر المتبقية ستبقى تحت العتبات.”

كما جاء في جزء من الاتفاقية غير الملزمة: “في أقصى الحالات، تلتزم المنظمات بعدم تطوير أو نشر نموذج أو نظام على الإطلاق، إذا لم يكن من الممكن تطبيق إجراءات التخفيف لإبقاء المخاطر أقل من العتبات”.

جاءت القمة التي استمرت يومين في أعقاب أول تجمع من نوعه في نوفمبر، وشارك فيه العديد من قادة العالم الذين تعهدوا بالمثل ببناء حواجز حماية مناسبة لتطوير الذكاء الاصطناعي بأمان ومشاركة الموارد من أجل “صياغة فهم مشترك لسلامة الذكاء الاصطناعي ومواءمة عملهم في أبحاث الذكاء الاصطناعي”.

تعليق
Exit mobile version