الحاجة إلى بناء أنظمة ذكاء إصطناعي يمكننا الوثوق بها تزداد أهمية يوم بعد يوم

262

اليوم يتم استخدام أنظمة الذكاء الإصطناعي بشكل روتيني لدعم صنع القرار البشري في العديد من التطبيقات. يمكن للذكاء الإصطناعي مساعدة الأطباء لفهم ملايين من سجلات المرضى, المزارعين لتحديد كمية المياه التي يحتاجونها على وجه التحديد, وشركات التأمين لتقييم المطالبات بشكل أسرع. يمتلك الذكاء الإصطناعي قدرات علي تحليل كميات كبيرة من البيانات لتقديم رؤى ومعرفة لا تقدر بثمن.

ومع ذلك, فإن الإعتماد الكبير علي أنظمة الذكاء الإصطناعي له جوانب أخري. حيث قد تنتج العديد من التطبيقات الموسعة للذكاء الإصطناعي نتيجة عظيمة للناس أو المجتمعات أو المنظمات, ومن الأهمية أن نكون قادرين على الوثوق بنتائجهم. ما الذي يتطلبه كسب هذه الثقة؟

سيتطلب ذلك التأكد من تطوير أنظمة الذكاء الإصطناعي القادرة علي تحمل مسئولية التعاون بين العديد من أصحاب الأعمال, بما في ذلك صناع السياسات والمشرعين, ولكن يجب أن يبدأ إستخدام الذكاء الإصطناعي في كسب ثقتنا. نحن كمزودي التكنولوجيا لدينا القدرة – والمسؤولية – لتطوير وتطبيق الأدوات التكنولوجية اللازمة لتصنيع أنظمة الذكاء الاصطناعى الموثوق بها. يجب علي الباحثين تحمل مسؤوليتهم وتوجيه الذكاء الإصطناعي إلى الطريق الصحيح.

التصميم الذي يكسب الثقة

كي نثق في نظام الذكاء  الإصطناعي, يجب أن نثق في قراراته. نحتاج أن نعرف أن القرار موثوق به وعادل, وأنه يمكن حسابه, وأنه لن يسبب أي ضرر. نحتاج إلى ضمان أنه لا يمكن العبث به وأن النظام نفسه آمن. الموثوقية والإنصاف والقوة والسلامة هي أسس الذكاء الإصطناعي الموثوق بها. ومع ذلك,ففي الوقت الذي نقوم فيه بتطوير أنظمة وتقنيات جديدة للذكاء الإصطناعي, نقوم في الغالب بتقييمها بإستخدام مقاييس مثل دقة الاختباروالتحقق المتبادل ونسبة التكلفة / الفائدة. نحن نراقب الإستخدام والأداء في الوقت الفعلي, لكننا لا نقوم بتصميم وتقييم ومراقبة الثقة. للقيام بذلك, يجب أن نبدأ بتحديد أبعاد الذكاء  الإصطناعي الموثوق به كأهداف علمية, ومن ثم تطويرأدوات ومنهجيات حرفية لدمجها في عملية تطوير حلول الذكاء الإصطناعي. يجب أن نتعلم أن ننظر إلى ما وراء الدقة وحدها وأن نقيس أداء النظام ونبلغ عنه على في كل من هذه الأبعاد. دعونا نلقي نظرة فاحصة على أربعة أجزاء رئيسية من “مجموعة الأدوات” الهندسية التي لدينا تحت تصرفنا لربط الذكاء الإصطناعي بالثقة.

1-الإنصاف

حظيت مسألة التحيز في أنظمة الذكاء الإصطناعي بإهتمام كبير في الآونة الأخيرة, في كل من المجتمع التقني والجمهور العام. إذا أردنا تشجيع الإعتماد علي الذكاء الإصطناعي, يجب أن نتأكد من أنه لا يتخذ تحيزاتنا وعدم إتساقها, ثم نوسعها بشكل أوسع.
أحرز مجتمع البحث تقدمًا في فهم كيف يؤثر التحيز على إتخاذ قرار الذكاء الإصطناعي وينشئ منهجيات للكشف عن التحيز وتخفيفه عبر دورة حياة تطبيق الذكاء الإصطناعي: نماذج التدريب, فحص البيانات والخوارزميات للتحيز, والتعامل مع التحيز في حالة إكتشافه. في حين أن هناك الكثير مما يجب القيام به, يمكننا أن نبدأ في دمج مبادئ التحيز والتخفيف منها عند تصميم حلول ذكاء إصطناعي وإختبارها وتقييمها ونشرها.

2-المتانة

عندما يتعلق الأمر بمجموعات البيانات الكبيرة, فإن الشبكات العصبية هي الأداة المفضلة لمطوري الذكاء الإصطناعي وعلماء البيانات. في حين أن نماذج التعلم العميقة يمكن أن تظهر قدرات التصنيف والقدرة على التمييز بين البشر, فيمكن بسهولة خداعهم لإتخاذ قرارات محرجة وغير صحيحة عن طريق إضافة مقدار ضئيل من المعلومات المضلة, وهو أمر غير مألوف بالنسبة إلي الإنسان. إن كشف وتثبيت نقاط الضعف في أنظمة البرمجيات هو شيء تعامل معه المجتمع الفني لفترة من الزمن, ومعروف في مجال الذكاء  الإصطناعي. في الآونة الأخيرة, كان هناك إنفجار في البحوث في هذا المجال: يتم تحديد الهجمات والدفاعات الجديدة بإستمرار, ويجري تطوير أساليب جديدة لتدريبات الخصوم من أجل مكافحة الهجمات ومقاييس جديدة لتقييم المتانة. نحن نقترب من نقطة يمكننا أن نبدأ دمجها في عمليات تطويرالذكاء الإصطناعي العامة لحماية وتأمين الشبكات والتطبيقات العصبية الواقعية للإنتاجية المبنية من حولها.

3-شرح القرارات الخوارزمية

هناك قضية أخرى كانت في مقدمة النقاش في الآونة الأخيرة هي الخوف من أن أنظمة التعلم الآلي ستصبح غير مفهمومة لنا, وأن العديد من الخوارزميات الحديثة تنتج قرارات يصعب تفسيرها. إقترحت مجموعة كبيرة من الأعمال البحثية الجديدة تقنيات لتقديم تفسيرات قابلة للتفسير لنماذج الصندوق الأسود دون المساس بالدقة. -مفهوم الصندوق الأسود هو كناية عن صندوق الطائرة الأسود الذي يحتوي علي تسجيلات صوتية لكابينة الطائرة ويستخدم هنا للتعبير عن قرارات يتخذها الذكاء الإصطناعي بصورة غير مفهومة- يشمل ذلك تقنيات التفسير المحلية والعالمية للنماذج وتوقعاتها, وإستخدام تقنيات التدريب التي تنتج نماذج قابلة للتفسير, وتصور تدفق المعلومات في الشبكات العصبية, وحتى تدريس التفسيرات.
يجب علينا دمج هذه التقنيات في تطوير نموذج وعمليات سير عمل تطوير الذكاء الإصطناعي لتقديم تفسيرات متنوعة للمطورين ومهندسي المؤسسات والمستخدمين وخبراء المجال.

 4-السلامة

تستند الثقة البشرية في التكنولوجيا على فهمنا لكيفية عملها وتقييمنا لسلامتها وموثوقيتها. نحن نقود السيارات التي نثق بالفرامل الخاصة بها عندما تعمل الدواسة. نحن نخضع لجراحة بالليزر للعين لأننا نثق في النظام لإتخاذ القرارات الصائبة.
في كلتا الحالتين, تأتي الثقة من أن النظام لن يرتكب خطأ, وذلك بفضل تدريب النظام, والإختبار الشامل والخبرة وتدابير ومعايير السلامة, وأفضل الممارسات. تنطبق العديد من مبادئ تصميم السلامة هذه على تصميم أنظمة الذكاء الإصطناعي, سيؤدي ذلك إلى التكيف, وسيتعين تحديد أساليب جديدة.

على سبيل المثال, يمكننا تصميم الذكاء الإصطناعي ليطلب تدخل بشري إذا واجه حالات جديدة تمامًا في بيئات معقدة. وكما نستخدم ملصقات السلامة الخاصة بالمستحضرات الصيدلانية والأطعمة, أو أوراق بيانات السلامة في أجهزة الكمبيوتر, فقد نبدأ في رؤية نُهج مشابهة لتوصيل القدرات والقيود الخاصة بخدمات أو حلول الذكاء الإصطناعي.

تطور الذكاء الإصطناعي بطريقة سلسة وغير محدودة

في كل مرة يتم تقديم تقنية جديدة, يخلق ذلك تحديات جديدة مثل قضايا السلامة والمخاطر المحتملة. مع تطور التكنولوجيا ونضوجها, يتم فهم هذه المشكلات بشكل أفضل ومعالجتها تدريجيًا.
على سبيل المثال, عندما تم تقديم المستحضرات الصيدلانية لأول مرة, لم تكن هناك إختبارات السلامة, ومعايير الجودة, وأغطية حماية الأطفال. الذكاء الإصطناعي بالمثل هو تقنية جديدة وسيخضع لتطور مماثل.
جلبت السنوات الأخيرة تقدمًا غير عادي من حيث القدرات التقنية للذكاء الإصطناعي. السباق لتطوير ذكاء الاصطناعى أفضل وأكثر قوة جاري علي قدم وساق. ومع ذلك لا يمكن توجيه جهودنا فقط نحو تقديم عروض مثيرة للإعجاب من الذكاء الإصطناعي . يجب أن نستثمر في القدرات التي ستجعل الذكاء الإصطناعي  ليست ذكياً فحسب, بل مسؤول أيضًا.
بينما نمضي قدمًا, يجب علي الباحثين والمهندسين والمصممين لتقنيات الذكاء الإصطناعي أن يعملوا مع المستخدمين وأصحاب الأعمال والخبراء من مجموعة من التخصصات لفهم إحتياجاتهم, وللتقييم المتواصل لتأثيرات وآثار إتخاذ القرار الخوارزمي ,تبادل النتائج والأفكار, ومعالجة القضايا بشكل إستباقي بطريقة سلسة. معا,يمكننا إنشاء حلول الذكاء الإصطناعي التي تمكنها كسب ثقتنا.

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://thenextweb.com/contributors/2018/10/06/we-need-to-build-ai-systems-we-can-trust/

 

تعليقات