الصين طورت خوارزمية ذكاء إصطناعي لتتبع الأقلية المسلمة

55

تستخدم الحكومة الصينية برنامج التعرف على الوجه “لتتبع والسيطرة” على الأقلية المسلمة, وفقًا لتقرير جديد مثير للقلق نشرته صحيفة The New York Times. وبحسب ما ورد قامت الحكومة الصينية بدمج الذكاء الإصطناعي في كاميراتها الأمنية للتعرف على طائفة Uighurs المسلمة ويبدو أنها تستخدم المعلومات لمراقبتهم. يشير التقرير, استنادًا إلى معلومات من الذين هم على دراية بالأنظمة وقاموا بمراجعة قواعد البيانات التي تستخدمها الحكومة الصينية وسلطات إنفاذ القانون, إلى أن الصين قد فتحت حدودًا جديدة في استخدام الذكاء الإصطناعي للسيطرة الاجتماعية العنصرية, وذلك يثير احتمالية أن تقوم الحكومات الأخرى باعتماد ممارسات مماثلة.

وقال شخصان على دراية بالأمر للصحيفة إن الشرطة في مدينة Sanmenxia الصينية راقبت مواطنين صينين من طائفة Uighurs المسلمة 500,000 مرة في شهر واحد. تشير الوثائق المقدمة إلى الصحيفة إلى أن الطلب على التكنولوجيا يتزايد بنسق سريع. فقد سعت أكثر من 20 إدارة في 16 مقاطعة إلى استخدام نظام المراقبة الجديد, في إحدى حالات الاستخدام تم اشتراط أنها “يجب أن تدعم التعرف على الوجه لتحديد سمات طائفة Uighurs من غيرها من الطوائف”., كما يقول الخبراء,ذلك كافي ليعتبر استهداف عنصري. “لا أعتقد أنه من المبالغة التعامل مع هذا باعتباره تهديدًا وجوديًا للديمقراطية”, وفقًا لما قاله Jonathan Frankle, أحد باحثي الذكاء الإصطناعي في MIT, لصحيفة Times. “بمجرد أن تتبنى دولة ما نموذجًا في هذا الوضع العنصري, وتستخدم البيانات لفرض الفكر والقواعد بطريقة أكثر عمقًا مما كان يمكن تحقيقه قبل 70 عامًا في الاتحاد السوفيتي. هذه أزمة ملحة, ونحن نسير ببطء في اتجاه تفاقمها. ”

التحيز العنصري كان منذ فترة طويلة مصدر قلق في مجالات استخدام الذكاء الإصطناعي. ولكن في الولايات المتحدة ودول غربية أخرى, يهتم الكثير بالتدقيق في التحيزات الموجودة في أنظمة الذكاء الإصطناعي. قام عالِم الكمبيوتر Aylin Caliskan بإيجاز الموضوع في مقابلة أجريت معه عام 2017 مع Vox: “يعتقد كثير من الناس أن الآلات غير منحازة. لكن يتم تدريب الآلات على البيانات البشرية. والبشر متحيزون”. لقد أظهرت الدراسات بالفعل أن هذا هو الحال. وجد تحقيق أجرته شركة ProPublica في عام 2016 أن برامج التعلم الآلي قد صنّفت أن اصحاب البشرة الداكنة أكثر عرضة لارتكاب جريمة أخرى بعد عملية اعتقال أولي. (استندت استنتاجات البرنامج إلى معدلات الحبس الحالية). وقد سلط المشرعون الأمريكيون الضوء على هذه المخاوف باعتبارها مخاوف مشروعة.

“لا يزال الإنسان يصنع الخوارزميات, ولا تزال هذه الخوارزميات مرتبطة بالافتراضات الإنسانية الأساسية”, قالت النائبة Alexandria Ocasio-Cortez في حدث في يناير. “إنها مجرد افتراضات تلقائية. وإذا لم تقم بإصلاح الانحياز, فأنت بذلك تقوم فقط بتحويل هذا التحيز إلي أمر تلقائي في الآلة.”

في الصين, يبدو أن الحكومة تستغل هذا التحيز, وتستخدم التكنولوجيا عن قصد لاستهداف مجموعة فرعية من سكانها. واجهت الصين انتقادات متزايدة من جماعات حقوق الإنسان بسبب معاملتها لطائفة Uighurs البالغ عددهم 11 مليون نسمة, ويعتقد أن حوالي مليون منهم محتجزون في معسكرات صينية, والتي وصفتها الحكومة لصحيفة Times بأنها “مراكز تدريب مهني تحد من التطرف”. لكن الاستخدام السري للذكاء الإصطناعي كجزء من حملتها على الأقلية المسلمة من المرجح أن يؤدي إلى تفاقم المخاوف بشأن نهج الحكومة العدواني المتزايد تجاه الجماعة, وحول قدرات الحكومات في جميع أنحاء العالم على استخدام التكنولوجيا لأغراض سيئة. يبدو أن الصين هي أول دولة تستخدم الأنظمة بشكل صريح في التحيز العنصري, لكن الخبراء يشعرون بالقلق من أن يتبعها آخرون. وقالت Clare Garvie, وهي زميلة في مركز الخصوصية والتكنولوجيا Georgetown Law, لصحيفة Times:

“عند التفكير في التطبيق الأكثر خطورة لهذه التكنولوجيا, هناك فرص جيدة أن يقوم شخص ما بتجربته”. “إذا صنعت تقنية يمكنها تصنيف الناس حسب العرق, فسيستخدمها حتماً شخص ما لقمع تلك الفئة العرقية”.

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://www.vanityfair.com/news/2019/04/china-created-a-racist-artificial-intelligence-to-track-muslims

 

تعليقات