IBM تطلق أداة للكشف عن تحيز الذكاء الإصطناعي وشرح القرارات الآلية

253

أطلقت شركة IBM خدمة برمجيات تفحص أنظمة الذكاء الإصطناعي أثناء عملها من أجل الكشف عن التحيز وتقديم التفسيرات للقرارات الآلية التي يتم اتخاذها. وتوفر درجة من الشفافية قد تكون ضرورية لأغراض المراجعة علي النظام وليس فقط لخدمة مصالح الشركة نفسها. (تحيز الذكاء الإصطناعي هو ظاهرة يأخذ الذكاء الإصطناعي عن طريقها قرارات قد تكون متحيزة ضد فئة ما لأننا كبشر نفكر بهذه الطريقة أحياناً ونحن من نقوم ببرمجة الذكاء الإصطناعي نفسه ولذلك الأداة الجديدة ستكون بمثابة صمام أمان للعديد من المستخدمين) يعمل نظام الثقة والشفافية الجديد على سحابة IBM ويعمل مع موديلات مبنية من ما تقوم شركة IBM بإصداره من مجموعة واسعة من أطر تعلم الماكينات المعروفة والبيئات الصناعية – بما في ذلك تقنية Watson الخاصة بها ، وكذلك Tensorflow و SparkML و AWS SageMaker و AzureML.

وتقول إنه يمكن تخصيص الخدمة  لخدمة إحتياجات تنظيمية محددة عبر البرمجة لمراعاة عوامل إتخاذ القرار اللازمة لسير أي عمل تجاري. يشرح البرنامج الآلي الكامل “SaaS” عملية اتخاذ القرار ويكشف التحيز في نماذج الذكاء الإصطناعي في وقت التشغيل الفعلي مما يعني أنه يتم إلتقاط نتائج محتملة غير منصفة عند حدوثها في نفس الوقت وسوف يوصي أيضًا تلقائيًا بإضافة البيانات إلى النموذج للمساعدة في تجنب أي تحيز تم اكتشافه.

تشمل تفسيرات قرارات الذكاء الإصطناعي إظهار العوامل التي ترجح القرار في إتجاه معين مقابل إتجاه آخر. ومدى التأكد من القرار المقترح وكذلك العوامل المؤدية الى هذا التأكد.

كما تقول IBM أن البرنامج يحتفظ بسجلات لدقة نموذج الذكاء الإصطناعي وأدائه ونزاهته, بمعنى أنه يمكن تتبعها بسهولة وإستدعاءها لخدمة العملاء أو في حالة الإحتياج للقيام بأعمال مراجعة علي النظام.

تعتزم IBM أيضًا بالإستعانة بموظفي الخدمات المهنية للعمل مع الشركات لإستخدام هذا البرنامج الجديد, وتعيين الخبراء للمساعدة في تقييم الأداء. وهذا يؤكد صحة التقارير التي تؤشر علي أن الذكاء الإصطناعي سيولد وظائف جديدة.
ولا تعتبر IBM أول شركة خدمات مهنية تبحث في مجال تحيز الذكاء الإصطناعي. قبل بضعة أشهر طورت شركة Accenture أداة للتدقيق في قرارات الذكاء الإصطناعي غير العادلة. لذلك، مع وجود دفعة كبيرة نحو التحول الى التشغيل الألي عبر صناعات متعددة, يبدو أن هناك نوعًا من التدافع إلى حد كبير لإعداد الخدمات وبيعها لتصحيح أي مشكلات تنشأ نتيجة للتزايد في إستخدام الذكاء الإصطناعي.

وفي الواقع, هناك توجه عالمي نحو الأتمتة”Automation”, الأمر الذي يؤدي إلي تشجيع المزيد من الشركات على التشغيل التلقائي.

في هذا السياق, تستشهد IBM بالبحث الذي أجرته والتي وجدت أنه في الوقت الذي تدرس فيه 82٪ من الشركات عمليات التوسع في إستخدام الذكاء الإصطناعي,  فإن 60٪ يخافون من قضايا المسؤولية الناتجة عن جعل الذكاء الإصطناعي مسؤول عن القرارات ويفتقر 63٪ إلى المواهب الداخلية لإدارة التكنولوجيا بثقة.

بالإضافة إلى إطلاق أداة التدقيق الخاصة بها,  تقول IBM إن قسم الأبحاث الخاص بها سيكون مفتوح أمام الجميع  وستكون الأداة الجديدة مفتوحة المصدر لتمكين المهتمين بالحصول على أدوات تكشف تحيز الذكاء الإصطناعي بهدف تشجيع التعاون العالمي لمعالجة تحيز الذكاء الإصطناعي.

قال “David Kenny”نائب الرئيس الأول للحلول المعرفية في IBM في تعليق في بيان له”قامت شركة IBM بتطوير هذه الأداة من أجل تأسيس مبادئ الثقة والشفافية اللازمة لتطوير تكنولوجيات الذكاء الإصطناعي الجديدة. لقد حان الوقت لترجمة المبادئ التي يعتمدها الإنسان إلى ممارسات فعلية للذكاء الإصطناع نحن نعطي شفافية وتحكمًا جديدًا للشركات التي تستخدم الذكاء الإصطناعي وتواجه أكثر المخاطر المحتملة من أي عملية صنع قرار معيبة”

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://techcrunch.com/2018/09/19/ibm-launches-cloud-tool-to-detect-ai-bias-and-explain-automated-decisions/

 

تعليقات