شركة Amazon تلغي أداة ذكاء إصطناعي للتوظيف كانت منحازة ضد المرأة

310

يمكن أن يكون التحيز في تعلم الآلة مشكلة حتى بالنسبة للشركات التي تتمتع بخبرة كبيرة في مجال الذكاء الإصطناعي, مثل Amazon. ووفقا لتقرير من رويترز, فإن شركة التجارة الإلكترونية العملاقة إضطرت إلى إلغاء مشروع داخلي كان يحاول إستخدام الذكاء الإصطناعي لفحص طلبات العمل بعد أن خفضت البرمجيات بإستمرار من عدد النساء المرشحات.

لأن أنظمة الذكاء الإصطناعي تتعلم إتخاذ القرارات من خلال النظر إلى البيانات التاريخية, فإنها غالباً ما تديم التحيزات القائمة. في هذه الحالة, كان هذا التحيز هو بيئة العمل التي يهيمن عليها الذكور في عالم التكنولوجيا. وطبقا لرويترز, فإن برنامج Amazon يعاقب المتقدمين الذين تحتوي سيرتهم الذاتية على كلمة “نساء” .
يقال أن الفريق صاحب المشروع يهدف إلى تسريع عملية التوظيف. عندما أدركت الشركة أن البرمجيات لم تكن تنتج نتائج محايدة, تم تعديلها لإزالة هذا التحيز. ومع ذلك, لا يمكن أن يكون المتورطون متأكدين من أن هناك تحيزات أخرى لم تتسلل إلى البرنامج, ونتيجة لذلك ألغيت بالكامل في العام الماضي.

على الرغم من أن تقرير رويتر يقول إن البرنامج كان مجرد تجربة, فإنه ليس من الواضح ما إذا كان قد إعتاد على فحص المرشحين لوظائف حقيقية في Amazon.

على مدى السنوات القليلة الماضية, ومع إنتشار الذكاء الاصطناعي في سياقات متزايدة, أصبح الباحثون أكثر صراحة حول مخاطر التحيز. يمكن للتحيز حول الجنس والعرق أن تتسلل بسهولة إلى مجموعة من برامج الذكاء الإصطناعي في كل شيء من خوارزميات التعرف على الوجه إلى تلك المستخدمة من قبل المحاكم والمستشفيات.

في معظم الحالات, تعمل هذه البرامج ببساطة على إدامة التحيزات القائمة. فنحن من خلال تمرير هذه التحيزات إلى برنامج الكمبيوتر, فإننا نجعلها أقل وضوحا وأقل عرضة للتصحيح. هذا لأننا نميل إلى الثقة في القرارات من الآلات ولأن برامج الذكاء الإصطناعي لا يمكنها تفسير طريقة تفكيرهم.

وعلى الرغم من ذلك, فإن العديد من الشركات الناشئة التي تعمل في مجال أدوات توظيف الذكاء الإصطناعي تبيع خدماتها بشكل صريح كطريقة لتجنب التحيز, لأن, على سبيل المثال, يمكن أن يتم ترميز تفضيلات مرشحين معينين. يبدو أن Amazon تفكر على هذا المنوال أيضًا, كما تفيد رويترز بأن الشركة ستشرع في بناء أداة توظيف بإستخدام الذكاء الإصطناعي, هذه المرة مع التركيز على التنوع.

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://www.theverge.com/2018/10/10/17958784/ai-recruiting-tool-bias-amazon-report

 

تعليقات