آليات تنظيم الذكاء الإصطناعي وأهميتها

57

مرة أخرى, أصبح الذكاء الإصطناعي (AI) مصطلحًا عصريًا يجلب الذعر أو الإلهام, يخشى الناس من أن يؤدي تقدم الذكاء الإصطناعي إلى استيلاء الآلات على حياتنا. على الجانب الآخر, يعتقد الناس أن الذكاء الإصطناعي هو الحل لكل شيء.
الخطوة الأولى هي تقييم ما إذا كان الذكاء الإصطناعي اليوم يمكن أن يتغلب على مشاكل البشرية كما نعرفها. لا يزال الذكاء الإصطناعي العام بعيدًا عن تحقيق ذلك – حيث أن وجود نظام ذكاء إصطناعي قادر على حل جميع أنواع المهام على المستوى البشري وببراعة متساوية هو مشكلة صعبة للغاية. ما لدينا حاليا هو الذكاء الإصطناعي المحدود وهو النظام المصمم لحل المهام في مجال ضيق.
تاريخياً, تم تطوير أنظمة الذكاء الإصطناعي من خلال مجموعة من القواعد المحددة جيداً. نظرا للبيانات المراد معالجتها, سيطبق القواعد ويقدم الإجابات وفقا لذلك. في الوقت الحاضر, مع ظهور التعليم الآلي, نقوم بتغذية البيانات والإجابات المثالية للخوارزميات, وتستنبط الأنماط والقواعد التي تربط النقاط بين البيانات والإجابات.
واحدة من المشاكل الرئيسية في تعلم الآلة هي أننا في بعض الأحيان لا نعرف ما هي نقاط الربط – فالخوارزميات لا تخرج قواعد محددة يمكن إستخدامها في المستقبل لتتبع عملية صنع القرار. مشكلة أخرى هي التحيز. تتعلم الخوارزمية من البيانات المقدمة, لذلك يمكن أن يأخذ بالتحيز, عن علم أو غير علم, كجزء من آلية صنع القرار.
خطر الذكاء الإصطناعي ليس هو أنه يمكن أن يتفوق على البشر. وقد أدى وجود برامج تفوق أداء البشر إلى إنجازات عظيمة للبشرية, من هبوط الإنسان على سطح القمر إلى الكشف عن الأورام بدقة أكبر. الخطر الرئيسي الذي نواجهه أكثر أخلاقية في طبيعته.

ومن الأمثلة على ذلك فضيحة Facebook التي تسببت بها Cambridge Analytica وخروقات البيانات الأخرى. قبل الفضيحة, كان العديد من الناس مهتمين بجمع البيانات التي قام بها Facebook. ومع ذلك, لم تصل شدته إلى المستخدم إلا عندما أصبح معروفًا أنه تم إستخدام البيانات دون معرفة المستخدمين, مما أدى إلى تسريع إدخال إطار عمل لجنة  حماية البيانات العامة (GDRP)  في الإتحاد الأوروبي. نقوم بتوقعات واقعية على المدى القصير عن مدى تقدم الذكاء الإصطناعي وسرعته. من الصعب أن نفهم تماما التداعيات التي يمكن أن تسببها أنظمة الذكاء الإصطناعي المستقبلية. على سبيل المثال, نحن نعلم بالفعل أننا بحاجة إلى تنظيم السيارات ذاتية القيادة – من هو المسؤول في حالة وقوع حادث يتعلق بسيارة ذاتية القيادة؟
والصعوبة الثانية هي أن الشركات الكبرى هي المحرك الرئيسي للتقدم في مجال الذكاء الإصطناعي, وبالتالي يبقى جزء كبير من مكونات الذكاء الإصطناعي في أنظمتها مختفية ومجهولة بالنسبة للمستخدم. باستخدام المثال السابق, عند تحديد مستوى مسؤولية سيارة ذاتية القيادة, نحتاج إلى فهم ما أدى إلى وقوع الحادث والوصول إلى مكونات الذكاء الإصطناعي لسيارة ذاتية القيادة.
من الواضح أن التنظيم على المستوى المحلي لا يكفي لحماية المستخدمين. تعتبر أنظمة الذكاء الإصطناعي ظاهرة عالمية, ويلزم بذل جهد على المستوى العالمي لضمان أن مستقبل الذكاء الإصطناعي يمكن أن يكون ذا فائدة حقيقية للمجتمع ككل, مع ضمان الحفاظ على حقوق الإنسان الخاصة بنا.

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://www.timesofmalta.com/articles/view/20181028/life-features/regulating-artificial-intelligence.692797

 

تعليقات