تحيز جنسي وعرقي في تقنية التعرف على الوجه من Amazon

277

مع إزدياد شيوع نظام التعرف على الوجوه, برزت شركة Amazon كمرشح متقدم في هذا المجال, مما أدى إلى جذب الزبائن في جميع أنحاء الولايات المتحدة, بما في ذلك إدارات الشرطة وإدارة الهجرة والجمارك (ICE). لكن الخبراء يقولون إن الشركة لا تفعل ما يكفي لتهدئة المخاوف من التحيز في خوارزمياتها, خاصة عندما يتعلق الأمر بأداء خوارزمية التعرف على الوجوه لأصحاب البشرة الداكنة.

وأحدث سبب للقلق هو الدراسة التي نشرها مختبر معهد ماساتشوستس للتكنولوجيا هذا الأسبوع, والتي وجدت أن خوارزمية Rekognition الخاصة بشركة Amazon كان أداؤها أسوأ عند تحديد جنس الفرد إذا كانت أنثى أو ذات بشرة داكنة. في الإختبارات التي أجرتها Joy Buolamwini من معهد ماساتشوستس للتكنولوجيا, لم تخطئ Rekognition عند تحديد جنس الرجال ذوي البشرة الفاتحة, لكنه أخطأ الرجال بالنساء 19 في المئة من الوقت وأخطأ النساء ذوات البشرة الداكنة 31 في المئة من الوقت.

وتتبع الدراسة أبحاث Buolamwini التي أجريت في فبراير الماضي, والتي حددت تحيزات عرقية ونفسية مماثلة في برمجيات تحليل الوجه التي بنتها Microsoft, IBM, وشركة Megvii الصينية. بعد وقت قصير من مشاركة Buolamwini لنتائجها, قالت كل من Microsoft و IBM إنهما ستحسنان برمجياتهما. وكما  جدت هذه الدراسة الأخيرة, فقد فعلوا ذلك.

منذ فبراير الماضي, أعرب عدد من شركات التكنولوجيا عن قلقهم إزاء المشاكل المتعلقة بالتعرف علي الوجه. نظرًا لأن التحيز في الخوارزميات غالبًا ما يكون نتيجة لبيانات التدريب المنحازة, فقد نشرت شركة IBM مجموعة بيانات منظمة قالت إنها ستعزز الدقة. ذهبت Microsoft إلى أبعد من ذلك, داعية إلى تنظيم التكنولوجيا لضمان أعلى المعايير بحيث لا تصبح السوق سباقاً للتنافس دون الإهتمام بالجودة.

أما شركة Amazon, على سبيل المقارنة, فلم تفعل سوى القليل للمشاركة في هذا النقاش. ونفت الشركة أيضا أن هذا البحث الأخير إقترح أي شيء عن دقة تقنيتها. وأشار إلى أن الباحثين لم يختبروا أحدث نسخة من خوارزمية التعرف علي الوجه, وكان إختبار تحديد الجنس هو تحليل الوجه (الذي يميز التعبيرات والخصائص مثل شعر الوجه), وليس تحديد الوجه (الذي يتطابق مع الوجوه الممسوحة ضوئيًا).

هذان برنامجان منفصلان, بحسب Amazon. “ليس من الممكن التوصل إلى إستنتاج حول دقة التعرف على الوجه لأي حالة إستخدام – بما في ذلك وكالات إنفاذ القانون – إستنادًا إلى النتائج التي تم الحصول عليها بإستخدام تحليل الوجه”, قال Matt Wood, المدير العام للتعلم العميق و الذكاء الإصطناعي في Amazon Web Services, في بيان صحفي.

ومع ذلك, فقد وجدت الأبحاث السابقة مشاكل مماثلة في برنامج تحديد الوجه في شركة Amazon. وقد أظهر اختبار أجري في العام الماضي من قبل إتحاد الحريات المدنية الأمريكي أنه أثناء فحص صور لأعضاء الكونجرس, فإن تقنية التعرف علي الوجه طابقت صورهم بشكل خاطئ مع 28 شخصًا من المجرمين. وألقت شركة Amazon اللوم على المعايرة الرديئة للخوارزمية.

على الرغم من أن التحيز في أنظمة التعرف على الوجه أصبح نقطة تجمع للخبراء والباحثين الذين يشعرون بالقلق بشأن التحيز في الخوارزمية, يحذر الكثيرون من أنه لا ينبغي أن يحجب التفكير في القضايا الأكبر. كما لاحظت Buolamwini والمؤلف المشارك Inioluwa Deborah Raji في ورقتهما الأخيرة, لمجرد أن نظام التعرف على الوجه يعمل بشكل جيد على ألوان البشرة المختلفة, وهذا لا يمنعه من أن يكون أداة للظلم أو القمع.  “لا يمكن تجاهل إمكانات التسلح وإساءة إستخدام تقنيات تحليل الوجه, كما أن التهديدات التي تتعرض لها الخصوصية أو إنتهاكات الحريات المدنية تتضاءل حتى مع إنخفاض الفوارق الدقيقة وزيادة دقة الخورازمية”.

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://www.theverge.com/2019/1/25/18197137/amazon-rekognition-facial-recognition-bias-race-gender

 

 

تعليقات