شركة Google تلغي الضمائر الجنسية من Smart Compose في Gmail

256

تعد ميزة “Smart Compose” في Gmail واحدة من أكثر ميزات الذكاء الإصطناعي إثارة للإهتمام في Google على مدار الأعوام, حيث تتنبأ بما يكتبه المستخدمون في رسائل البريد الإلكتروني وتعرض عليهم إنهاء جملهم من أجلهم. ولكن مثل العديد من منتجات الذكاء الإصطناعى, فإنه لا يتعدى ذكاء البيانات التي تدرب عليها, وعرضة لإرتكاب الأخطاء. ولهذا السبب حظرت Google Smart Compose من إقتراح ضمائر قائمة على النوع الإجتماعي مثل “him” و “her” في رسائل البريد الإلكتروني – تشعر Google بالقلق من أنها ستخمن الجنس الخطأ.

تقارير رويترز أن هذا القيد تم تقديمه بعد أن إكتشف أحد علماء الأبحاث في الشركة المشكلة في يناير من هذا العام. كان الباحث يكتب “سألتقي مستثمرًا الأسبوع المقبل” في رسالة عندما اقترح Gmail سؤال متابعة, “هل تريد مقابلته”.

وقال مدير منتج Gmail Paul Lambert لصحيفة Reuters إن فريقه حاول إصلاح هذه المشكلة بعدة طرق ولكن لم يكن أي منها موثوقًا بدرجة كافية. في النهاية, يقول Lambert, إن الحل الأسهل هو ببساطة إزالة هذه الأنواع من الردود, وهو التغيير الذي تقوله Google إنه يؤثر على أقل من واحد بالمائة من توقعات Smart Compose. وقال Lambert لصحيفة Reuters إنه من الأجدى الحذر في مثل هذه الحالات لأن النوع هو “كينونة كبيرة ومهمة للغاية”.

هذا الخطأ الصغير هو مثال جيد على الكيفية التي يمكن بها للبرامج التي بنيت باستخدام التعلم الآلي أن تعكس وتعزز التحيزات المجتمعية. مثل العديد من أنظمة الذكاء الإصطناعي, يتعلم Smart Compose من خلال دراسة البيانات السابقة, والتمشيط من خلال رسائل البريد الإلكتروني القديمة للعثور على الكلمات والعبارات التي يجب أن توحي بها. (ميزة Smart Reply, وهي ميزة مماثلة, تفعل الشيء ذاته لإقتراح الردود ذات الحجم الصغير في رسائل البريد الإلكتروني.)

في مثال Lambert, يبدو أن أداة Smart Compose قد تعلمت من البيانات السابقة أن المستثمرين كانوا أكثر إحتمالاً لأن يكونوا ذكوراً من الإناث, لذلك تنبأ خطأً بأن هذا الشخص كان أيضا ذكراً.

إنها مشكلة صغيرة نسبيًا, ولكنها تشير إلى مشكلة أكبر بكثير. إذا كنا نثق في التنبؤات التي تم إجراؤها بواسطة الخوارزميات المدربة بإستخدام البيانات السابقة, فمن المحتمل أن نكرر أخطاء الماضي. إن تخمين الجنس الخطأ في البريد الإلكتروني ليس له عواقب وخيمة, ولكن ماذا عن أنظمة الذكاء الإصطناعي التي تتخذ قرارات في مجالات مثل الرعاية الصحية والتوظيف والمحاكم؟ في الشهر الماضي فقط, أفيد أن Amazon اضطر إلى إلغاء أداة توظيف داخلية تم تدريبها بإستخدام التعلم الآلي لأنها كانت منحازة ضد المرشحات الإناث. لمراجعة هذا الخبر برجاء الضغط علي هذا الرابط

قد يكلفك تحيز الذكاء الإصطناعي عملك, أو ما هو أسوأ من ذلك.

بالنسبة إلى Google, قد تكون هذه المشكلة ضخمة. تقوم الشركة بدمج الأحكام الخوارزمية في المزيد من منتجاتها وتبيع أدوات التعلم الآلي في جميع أنحاء العالم. إذا كان أحد أكثر سمات الذكاء الإصطناعي ظهوراً هو إرتكاب مثل هذه الأخطاء التافهة, فلماذا يثق المستهلكون في خدمات الشركة الأخرى؟

من الواضح أن الشركة قد تنبأت بقدوم هذه القضايا. في صفحة المساعدة لـ Smart Compose, تُحذر المستخدمين من أن نماذج الذكاء الإصطناعي التي تستخدمها “يمكن أن تعكس أيضًا التحيزات المعرفية البشرية. إن إدراك هذا هو بداية جيدة, والحديث حول كيفية التعامل معها مستمر “. وفي هذه الحالة, لم يتم إصلاح الشركة كثيرًا – فقط أزالت الفرصة لأن يقوم النظام بخطأ ما.

تمت ترجمة المقال الاصلي والموجود بالرابط أدناه

https://www.theverge.com/2018/11/27/18114127/google-gmail-smart-compose-ai-gender-bias-prounouns-removed

تعليقات