مسؤول من شركة Google يناقش تحديات ومسؤوليات الذكاء الإصطناعي

338

تقوم أنظمة الذكاء الإصطناعي بتغيير العالم, سواء كنا مستعدين لذلك أم لا. لقد رأينا بالفعل أمثلة على خوارزميات الذكاء الإصطناعي التي يتم تطبيقها لتقليل أعباء عمل الأطباء من خلال ترقيم المرضى بذكاء, ,تفاعل الصحفيين مع أي جمهور أجنبي عن طريق الترجمة اللغوية الدقيقة, وتقليل وقت إنتظار خدمة العملاء, وفقًا لـ Google. ولكن حتى عندما نبدأ في الإستفادة من أنظمة الذكاء الإصطناعي, لا يزال هناك جو من عدم اليقين وعدم الإرتياح بشأن هذه التكنولوجيا.

على سبيل المثال, تراجعت شركة Google مؤخرًا عن عقد عسكري مثير للجدل باستخدام الذكاء الإصطناعي بعد تلقي رد فعل عنيف. لمراجعة الخبر برجاء الضغط علي هذا الرابط

Google تنسحب من سباق للفوز بعقد قيمته 10 مليارات دولار من وزارة الدفاع الأمريكية

الآن, تأخذ الشركة مستقبل أنظمة الذكاء الإصطناعي المسؤولة على نحو أكثر جدية. في يونيو, وضعت Google مبادئها لأنظمة الذكاء الإصطناعي, وبدأت هذا الأسبوع في فتح نقاش حول المخاوف التي يواجهها العملاء في معظم الأحيان حول أنظمة الذكاء الإصطناعي. يتم تقسيم المخاوف إلى أربعة مجالات: التحيز غير العادل, التفسير, تغيير مستقبل القوى العاملة, وفعل الخير.

التحيز غير العادل: كيف يمكن التأكد من أن نماذج التعلم الآلي الخاصة به تعامل جميع المستخدمين بطريقة عادلة ومنصفة؟
تحظي نماذج التعلم الآلي بنفس الثقة التي تحصل عليها مثل البيانات التي تم تدريبها عليها. بما أن البشر يعدون تلك البيانات, يمكن أن يؤدي التحيز الخفيف إلى إحداث فرق ملموس في النتائج. بسبب السرعة التي تعمل بها الخوارزميات, يتم تضخيم التحيز غير العادل, أوضحت Google.

إن التحيز غير العادل هو دائما نتيجة للتحامل المتعمد – فنحن بطبيعة الحال ننجذب نحو الناس والأفكار التي تؤكد معتقداتنا, بينما ترفض أولئك الذين يتحدونهم.

من أجل معالجة قضايا التحيز, أنشأت Google موارد تعليمية مثل الممارسات الموصى بها بشأن الإنصاف ووحدة الإنصاف في مسار التعثر للتعلم الآلي الخاص بها. كما تركز الشركة على التوثيق والتوعية المجتمعية.

“أنا فخور بالخطوات التي نتخذها, وأعتقد أن المعرفة والأدوات التي نطورها ستقطع شوطًا طويلاً نحو جعل أنظمة الذكاء الإصطناعي أكثر عدلاً. لكن لا توجد شركة واحدة تستطيع حل مثل هذه المشكلة المعقدة وحدها. ستكون مكافحة التحيز غير العادل جهداً جماعياً, يتشكل من خلال مدخلات من مجموعة من أصحاب المصلحة, ونحن ملتزمون بالإستماع. بينما يستمر عالمنا في التغيير, سنستمر في التعلم “، كتب Rajen Sheth، مدير إدارة المنتجات في Cloud AI for Google.

التفسير: كيف يمكن أن تجعل أنظمة الذكاء الإصطناعي أكثر شفافية, حتى نتمكن من فهم التوصيات بشكل أفضل؟
لكي نثق بأنظمة الذكاء الإصطناعي, يجب أن نفهم سبب إتخاذ القرارات التي يتخذها. ويمكن توضيح منطق البرمجيات التقليدية من خلال فحص مصدر الكود نفسه, لكن ذلك غير ممكن مع الشبكات العصبية, حسبما أوضحت الشركة.

وفقًا لـ Google, يتم إحراز تقدم نتيجة لإنشاء أفضل الممارسات ومجموعة متزايدة من الأدوات والجهد الجماعي لتحقيق نتائج قابلة للتفسير.

تغيير القوى العاملة: كيف يمكن لها أن تسخر بشكل مسؤول من قوة الأتمتة مع ضمان إعداد القوى العاملة اليوم للغد؟
تغيّر علاقتنا بالعمل, وتحاول العديد من المؤسسات موازنة إمكانات الأتمتة وقيمة القوى العاملة لديها, حسبما أوضحت Google.

على الرغم من أنه لا يمكن أتمتة كل الوظائف, إلا أنه يجب أن يتم إنجاز شيء ما لتسهيل عملية الانتقال للذين يمكنهم ذلك. أنشأت Google صندوقًا بقيمة 50 مليون دولارًا للمؤسسات غير الربحية التي تستعد لهذا الوقت من خلال توفير التدريب والتعليم, وربط الموظفين المحتملين بفرص عمل مثالية إستنادًا إلى المهارات والخبرات, ودعم العاملين في العمالة منخفضة الأجر.

فعل الخير: كيف يمكن التأكد من أنها تستخدم الذكاء الإصطناعي من أجل الخير؟

النتيجة النهائية هي التأكد من أن أنظمة الذكاء الإصطناعي لها تأثير إيجابي. هناك منطقة رمادية هائلة, لا سيما عند مقارنتها بمجالات أخرى مثل إستخدام أنظمة الذكاء الإصطناعي في الأسلحة.

تعمل Google مع العملاء وفرق المنتجات للعمل من خلال هذه المناطق الرمادية.  “يمكن أن يساعدنا التحليل الأخلاقي الدقيق في فهم الإستخدامات المحتملة لتقنية الرؤية غير الملائمة أو الضارة. يمكن لممارسات صنع القرار الأخلاقية أن تساعدنا على التفكير بشكل أفضل في المعضلات الصعبة مثل ما إذا كان ينبغي إعطاء الأولوية للشفافية أو الخصوصية في تطبيق الذكاء الإصطناعي من أجل مستقبل أفضل”, كما كتب Sheth.

تمت  ترجمة المقال الأصلي والموجود بالرابط أدناه

https://sdtimes.com/ai/google-explores-the-challenges-of-responsible-artificial-intelligence/

تعليقات