يقول الخبراء إن أنظمة الذكاء الإصطناعي بحاجة ماسة إلى التنظيم والمساءلة العامة

30

إن أنظمة الذكاء الإصطناعي في حاجة ماسة للتدخل المباشر من قبل الحكومات ومراقبي حقوق الإنسان, وفقا لتقرير جديد من باحثين في Google وMicrosoft  وآخرين في مجال الذكاء الإصطناعي.
قائلين أن الأدوات المستندة إلى الذكاء الإصطناعي قد تم نشرها مع القليل من الإهتمام بالآثار الضارة المحتملة أو حتى توثيق جيد لها. أن هذا من شأنه أن يكون تجاهلا صارخاً للنتائج المترتبة علي الإستخدام الغير مسؤول لأنظمة الذكاء الإصطناعي. وإن هذه النظم غير المسموح بها, غير الموثقة, يجري العمل بها في أماكن يمكن أن تؤثر بشدة على الآلاف أو الملايين من الناس.

لن نخوض في الأمثلة هنا, لكن مثل هذه الأنظمة الغير مراقبة تتسبب في ضرر حقيقي, وليس هناك أنظمة لمنعها, ولكن ليس هناك سوى القليل لتتبع وتسجيل هذا الضرر.

وكتب الباحثون: “إن الأطر التي تحكم الآن أنظمة الذكاء الإصطناعي غير قادرة على ضمان المساءلة. مع تنامي إنتشار هذه الأنظمة وتعقيدها وحجمها, فإن عدم وجود مساءلة وإشراف حقيقيين – بما في ذلك الضمانات الأساسية للمسؤولية, والمسؤولية والإجراءات القانونية – يمثلان مصدر قلق متزايدًا.”

في الوقت الحالي, تقوم الشركات بإنشاء حلول مبنية على الذكاء الإصطناعي لكل شيء بداية من تصنيف الطلاب إلى تقييم المهاجرين للإجرام. والشركات المرتبطة بإنشاء هذه البرامج مرتبطة بأكثر من مجرد القليل من البيانات الأخلاقية التي أقروها بأنفسهم.

على سبيل المثال, قامت وGoogle, بوضع بعض “مبادئ الذكاء الإصطناعي” بعد هذه الضجة حول عملها في وزارة الدفاع. وقالت إن أدوات الذكاء الإصطناعي ستكون مفيدة إجتماعياً ولا تتعارض مع مبادئ حقوق الإنسان المقبولة على نطاق واسع.

وبطبيعة الحال, إتضح أن الشركة تعمل طوال الوقت على محرك بحث نموذجي خاضع للرقابة في الصين. يجب أن نلاحظ الإزدواجية في المعايير هنا. حتى الآن نحن نعرف بالضبط إلى أي مدى يمكن الوثوق بتلك الشركة لتحديد حدودها الخاصة. قد نفترض كذلك أن الأمر ينطبق على أمثال Facebook, التي تستخدم أدوات تستند إلى الذكاء الإصطناعي للإعتدال. Amazon  التي تسعى علنا ​​لتطويرأدوات الذكاء الإصطناعي لأغراض المراقبة, Microsoft  نشرت مقالة جيدة عن أخلاقيات الذكاء الإصطناعي – ولكن كما يبدو من نواياها, فإن “مدونة الأخلاق” ليست سوى وعد بأن الشركة حرة في خرقها في أي وقت.

يحتوي تقرير AI Now على عدد من التوصيات, التي لخصتُها أدناه ولكن حقاً يستحق القراءة في مجمله. إنه سهل القراءة ومراجعة جيدة, فضلاً عن التحليل الذكي.

هناك حاجة ماسة لمراجعة تلك الأنظمة. لكن “هيئة السلامة الوطنية لأنظمة الذكاء الإصطناعي” أو شيء من هذا القبيل أمر غير عملي. وبدلاً من ذلك, ينبغي على خبراء أنظمة الذكاء الإصطناعي في صناعات مثل الصحة أو النقل أن يبحثوا في تحديث القواعد الخاصة بمجال معين لتشمل الأحكام التي تحد من دور أدوات التعلم الآلي وتحددها.

إن التعرف على الوجه, ولا سيما تطبيقاته المشكوك فيها, مثل الكشف عن المشاعر والإجرام, يجب أن يخضع لفحص دقيق ويخضع لنوع من القيود مثل الإعلان الخاطئ والطب الإحتيالي.
يجب أن تكون المساءلة والوثائق العامة هي القاعدة, بما في ذلك العمليات الداخلية للنظام, من مجموعات البيانات إلى عمليات صنع القرار. هذه ضرورية ليس فقط للمراجعة الأساسية والمبررات لإستخدام نظام معين, ولكن لأغراض قانونية في حالة تحدي هذا القرار من قبل شخص صنفه النظام أو تأثر به. تحتاج الشركات إلى وضع كبريائهم جانباً وتوثيق هذه الأمور حتى لو كانوا يفضلون الاحتفاظ بها كأسراراً تجارية.
هناك حاجة إلى المزيد من التمويل والمزيد من السوابق في عملية مساءلة أنظمة الذكاء الإصطناعي, لا يكفي أن يكتب إتحاد الحريات المدنية الأمريكي مشاركة حول “نظام صنع القرار الآلي” البلدي الذي يحرم فئات معينة من الناس من حقوقهم. يجب أخذ هذه الأمور إلى المحكمة ويحتاج الأشخاص المتضررون إلى آليات لتوثيق عمليات المراجعة.
وينبغي النظر في البحوث ليس فقط من الجانب التقني. “إن توسيع التوجه التأديبي لأبحاث الذكاء الإصطناعي سوف يضمن إهتمامًا أعمق بالسياقات الإجتماعية, والمزيد من التركيز على المخاطر المحتملة عند تطبيق هذه الأنظمة على البشر”, كما كتب الباحثون.
إنها توصيات جيدة, ولكن ليس من النوع الذي يمكن إجراؤه في غضون مهلة قصيرة, لذلك توقع أن يكون 2019 عاما آخر علي التستر علي المزيد من الأخطاء والتزييفات. وكالعادة, لا تثق أبدًا بما تقوله الشركة, وثق بما تفعله فقط – وحتى ذلك الحين, لا تثق بها لتقول ما تفعله.

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://techcrunch.com/2018/12/07/ai-desperately-needs-regulation-and-public-accountability-experts-say/

تعليقات