عام 2018 هو الذي قام فيه صناع التكنولوجيا بتقييد أنظمة الذكاء الإصطناعي

100

خلال السنوات العديدة الماضية, سارعت شركات التكنولوجيا العملاقة إلى زيادة الإستثمارات في مجال الذكاء الإصطناعي والتعلم الآلي. لقد تنافسوا بشكل مكثف لتوظيف المزيد من الباحثين في الذكاء الإصطناعي وإستخدموا تلك الموهبة لتطويرالمساعدين الإفتراضيين الأذكياء وتقنيات التعرف علي الوجه المتميزة. في عام 2018, إنتقلت بعض تلك الشركات لوضع بعض الحواجز حول تقنية الذكاء الإصطناعي.

وأبرز مثال على ذلك هو شركة Google, التي أعلنت عن قيود على إستخدامها للذكاء الإصطناعي بعد أن تسبب مشروعان في إثارة غضب الجمهور وتمرد الموظفين لديها.

بدأ الإنشقاق الداخلي بعد أن أصبح عمل شركة البحث في برنامج البنتاجون المسمى Maven معلوما للناس. ساهمت Google في جزء من مشروع Maven الذي يستخدم خوارزميات لإبراز أشياء مثل السيارات في صور المراقبة بدون طيار, مما يخفف العبء على المحللين العسكريين. وتقول Google إن تقنيتها تقتصر على الاستخدامات “غير المباشرة”, ولكن أكثر من 4500 موظف وقعوا على رسالة تدعو الشركة إلى الانسحاب.

في يونيو / حزيران, قالت Google إنها ستكمل لكن لن تجدد عقد Maven, الذي من المقرر أن ينتهي في عام 2019. كما أصدرت مجموعة واسعة من المبادئ لاستخدام الذكاء الإصطناعي, بما في ذلك التعهد بعدم نشر أنظمة الذكاء الإصطناعي لاستخدامها في الأسلحة أو “التقنيات الأخرى التي يكون هدفها الأساسي أو تنفيذها هو التسبب في إصابة الأشخاص أو تسهيلها بشكل مباشر”. وبناءً على هذه المبادئ, أنسحبت Google في أكتوبر من تقديم العطاءات على عقد سحاب في البنتاجون يسمى JEDI.

كما واجهت Google إنتقادات بعد أن قام الرئيس التنفيذي للشركة Sundar Pichai بتدشين تقنية bot تسمى Duplex قامت بإتصال بصوت بشري إلي مطعم وصالون شعر، الأمر الذي أدي إلي إبداء تحفظات. يبدو أن مستلمو المكالمات لم يعرفوا أنهم كانوا يتحدثون مع أحد البرامج, وأن لم يكشف عن طبيعته الرقمية. أعلنت Google في وقت لاحق أنها ستضيف خاصية تعريف في البداية حتي يعلم متلقي المكالمة أنه يتحدث مع Duplex. عندما إختبرت موقع WIRED نظام Duplex قبل ظهوره الأخير على هواتف Pixel من Google, بدأ ال bot المحادثة “أنا خدمة الحجز التلقائي من Google”.

نمو الأسئلة الأخلاقية حول إستخدام الذكاء الإصطناعي تسلط الضوء على النجاح السريع والحالي في هذا المجال. منذ وقت ليس ببعيد, كان الباحثون في الذكاء الإصطناعي يركزون في الغالب على محاولة جعل تكنولوجيتهم تعمل بشكل جيد بما فيه الكفاية ليكونوا عمليين. الآن صنعوا تقنية التعرف علي الصور والتعرف على الصوت, و التمييز بين الأصوات المركبة, والصور المزيفة, والروبوتات و السيارات بدون سائق, أصبحت هذا التقنيات عملية بما فيه الكفاية ليتم نشرها في الأماكن العامة. المهندسون والباحثون الذين كانوا مكرسين فقط لتطوير التكنولوجيا في أسرع وقت ممكن أصبحوا أكثر تأملاً.

وقال Joaquin Candela, مدير التعلم الآلي التطبيقي في Facebook في وقت سابق من هذا العام: “خلال السنوات القليلة الماضية, كنت مهووس بالتأكد من أن الجميع يستطيعون إستخدام التطبيق أسرع بألف مرة من النظم الحالية”. ومع إستخدام المزيد من الفرق داخل Facebook “بدأت أكون مدركاً لوعينا بشأن نقاطنا العمياء المحتملة”, على حد قوله.

هذا الإدراك هو أحد الأسباب التي جعلت Facebook ينشئ مجموعة داخلية تعمل على جعل تكنولوجيا الذكاء الإصطناعي أخلاقية وعادلة. واحدة من مشاريعها هي أداة تدعى “Fairness Flow” والتي تساعد المهندسين على التحقق من كيفية أداء كودهم لمجموعات ديموغرافية مختلفة, كما يقول الرجال والنساء. وقد تم إستخدامه لضبط نظام الشركة للتوصية بإعلانات الوظائف للأشخاص.

توضح دراسة أجريت في فبراير للعديد من الخدمات التي تستخدم الذكاء الإصطناعي لتحليل صور الوجوه ما يمكن أن يحدث إذا لم تراقب الشركات أداء تقنيتها. أظهرت دراسة قادها Joy Buolamwini و Timnit Gebru أن خدمات تحليل الوجه التي تقدمها أقسام Microsoft و IBM السحابة كانت أقل دقة بشكل ملحوظ بالنسبة للنساء ذوات البشرة الداكنة. كان من الممكن أن ينتشر هذا التحيز على نطاق واسع لأن العديد من الشركات تقوم بتوظيف التكنولوجيا لمقدمي الخدمات السحابية. وقد سارع كل من Microsoft و IBM إلى تحسين خدماتهما, على سبيل المثال عن طريق زيادة تنوع بيانات التدريب الخاصة بهما.

ربما يرجع ذلك جزئيا بسبب هذه الدراسة, أصبحت تقنية التعرف على الوجه والتي هي مجال من مجالات تطبيق الذكاء الإصطناعي تتعرض للمراجعات من قبل شركات التكنولوجيا الي أصبحت حريصة على وضع حدود لأستخدامها. وقالت Axon التي تصنع المسدسات وكاميرات تثبت علي الجسم انها لا تعتزم نشر تقنية التعرف علي الوجه على الكاميرات التي يرتديها أفراد الشرطة خشية أن يشجع ذلك على إتخاذ قرارات متسرعة. في وقت سابق من هذا الشهر, طلب  Brad Smith رئيس Microsoft من الحكومات تنظيم إستخدام تقنية التعرف على الوجه. (كنا قد نشرنا هذا الخبر سابقاً, لمراجعته برجاء الضغط علي هذا الرابط) بعد فترة وجيزة, كشفت Google بهدوء أنها لا تقدم ميزة “التعرف على الوجه” على وجه العموم لعملاء السحابة, ويرجع ذلك جزئيًا إلى المشكلات الفنية والسياسة التي لم يتم حلها بشأن إساءة الإستخدام والآثار الضارة. هذه الإعلانات حددت الشركتين بمعزل عن منافسهما Amazon الذي يقدم تقنية التعرف على الوجه بجودة غير مؤكدة لدوائر الشرطة الأمريكية. لم تقم الشركة حتى الآن بإصدار مبادئ توجيهية محددة بشأن ما تعتبره إستخدامات ملائمة للذكاء الإصطناعي, على الرغم من كونها عضوًا في إتحاد الشركات في شراكة الذكاء الإصطناعي, والتي تعمل على الأخلاقيات والأثر المجتمعي لهذه التكنولوجيا.

لا تعني المبادئ التوجيهية الناشئة أن الشركات تقلل إلى حد كبير من إستخداماتها المقصودة للذكاء الإصطناعي. على الرغم من تعهدها بعدم تجديد عقد Maven وإنسحابها من مناقصة JEDI, إلا أن قواعد Google لا تزال تسمح للشركة بالعمل مع الجيش, الأماكن التي لا تنطبق فيها أنظمة الذكاء الإصطناعي مفتوحة للتأويل. وفي ديسمبر قالت Google إنها ستنشئ فريقًا إستشاريًا خارجيًا خبيراً للنظر في كيفية تنفيذ الشركة لمبادئها في مجال الذكاء الإصطناعي, ولكنها لم تقل متى سيتم إنشاء الهيئة, أو كيف ستعمل.

قد يتم تحديد حدود الذكاء الإصطناعي من قبل المنظمين, وليس شركات التكنولوجيا, وسط مؤشرات على أن المشرعين أصبحوا أكثر إنفتاحًا على الفكرة. في شهر مايو الماضي، أعطت قواعد الإتحاد الأوروبي الجديدة بشأن حماية البيانات, المعروفة باسم GDPR, للمستهلكين حقوقًا جديدة للتحكم في إستخدام ومعالجة البيانات والتعرف عليها, الأمر الذي يمكن أن يجعل بعض مشاريع الذكاء الإصطناعي أكثر تعقيدًا. أظهر النشطاء والعلماء وبعض المشرعين إهتمامًا بتنظيم شركات التكنولوجيا الكبرى. وفي شهر ديسمبر من العام الماضي، قالت فرنسا وكندا إنهما سيدشنان مجموعة دراسات دولية حول التحديات التي أثارتها تقنيات الذكاء الإصطناعي على غرار هيئة مراقبة المناخ التابعة للأمم المتحدة, الهيئة الحكومية الدولية المعنية بتغير المناخ. (لمراجعة هذا الخبر برجاء الضغط علي هذا الرابط)

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://www.wired.com/story/2018-was-year-tech-put-limits-on-ai/

تعليقات