طفرة جديدة: خوارزمية ذكاء إصطناعي تشرح قراراتها باستخدام مفردات اللغة اليومية

81

طور باحثو معهد Georgia للتكنولوجيا, بالتعاون مع جامعة Cornell وجامعة Kentucky, خوارزمية ذكاء اصطناعي (AI) يمكنها توليد تفسيرات بمفردات اللغة اليومية تلقائيًا في الوقت الفعلي لشرح الدوافع الكامنة وراء تصرفاتها. تم تصميم العمل لإعطاء البشر الذين يتعاملون مع خوارزميات الذكاء الإصطناعي أو الروبوتات فرصة للتأكد بان الخورازمية تعمل بشكل صحيح ويمكن تحديد وجود خطأ أو سلوك خاطئ.

تستخدم الخوارزمية أيضًا اللغة اليومية التي يمكن لغير الخبراء فهمها. التفسيرات, أو “الأسس المنطقية” كما يسميها الباحثون, مصممة لتكون منطقية وذات صلة وتقوم ببث الثقة في الناس الذين يعملون في مكان يتم العمل به باستخدام آلات الذكاء الإصطناعي أو يتم التفاعل معهم في المواقف الاجتماعية.

وقال Upol Ehsan طالب في كلية الحوسبة التفاعلية في Georgia Tech وباحث رئيسي في الدراسة.

 “إذا أردنا ضمان إنتشار الذكاء الإصطناعي في كل مكان, فيجب أن يكون فهمه في متناول أي شخص بغض النظر عن قدراته الفنية”.

“بما أن الذكاء الإصطناعي ينتشر في جميع جوانب حياتنا, فهناك حاجة واضحة لتصميم الذكاء الإصطناعي الذي يركز على الإنسان والذي يجعل الصندوق الأسود لأنظمة الذكاء الإصطناعي – مصطلح مستخدم ليبين ان قرارات الذكاء الإصطناعي سابقاً كانت لا يوجد لها شرح – قابلة للفهم من قبل المستخدمين العاديين. يأخذ عملنا خطوة مهمة لتقديم التفسيرات التي تستخدم اللغة اليومية التي سيقوم البشر بفهمها بسهولة”.

طور الباحثون دراسة للمشاركين لتحديد ما إذا كانت خوارزمية الذكاء الإصطناعى الخاصة بهم يمكنها تقديم مبررات تحاكي الاستجابات البشرية. شاهد مجموعة من الناس خوارزمية ذكاء إصطناعي وهي تلعب لعبة Frogger – احدي ألعاب الفيديو الشهيرة – ثم قيموا القرارات التي اختارتها الخوارزمية من حيث ترتيب كيفية وصف كل حركة قامت بها الخوارزمية.

تم تقديم القرارات لكل حركة عن طريق ثلاث جهات: استجابة من قِبل الإنسان, استجابة من قِبل الذكاء الإصطناعي, واستجابة مولدة عشوائيًا – فضل المشاركون الأسباب المنطقية المولدة من قِبل الإنسان أولاً, لكن القرارات التي تم إنشاؤها من قِبل الذكاء الإصطناعي كانت في المرتبة الثانية.

قدمت لعبة Frogger للباحثين فرصة لتدريب الذكاء الإصطناعي في “بيئة متتالية لصنع القرار”, وهو تحدٍ بحثي كبير لأن القرارات التي اتخذتها الخوارزمية بالفعل تؤثر على القرارات المستقبلية. لذلك, فإن شرح سلسلة إتخاذ القرارات المستقبلية بناء علي القرارات السابقة  للخبراء أمر صعب, وأكثر صعوبة عند التواصل مع غير الخبراء, وفقًا للباحثين.

لقد أدرك المشاهدون البشريون هدف لعبة Frogger في إيصال الضفدع بأمان إلى المنزل دون أن تصطدم به المركبات المتحركة أو يغرق في النهر. أتاحت آليات اللعبة البسيطة المتمثلة في الانتقال لأعلى أو لأسفل أو لليسار أو لليمين للمشاركين رؤية ما تقوم به الخوارزمية وتقييم ما إذا كانت المبررات على الشاشة تبرر هذه الخطوة بوضوح.

حكم المشاهدين كان على أساس هذه العوامل:

  • الثقة – الشخص واثق من قدرة الذكاء الاصطناعى علي أداء المهمة
  • تشبه الإنسان – تبدو أنها صنع من قبل الإنسان وليس آلي
  • مبررات كافية – يبرر بشكل كاف الإجراء المتخذ
  • الفهم – يساعد الشخص على فهم سلوك الذكاء الإصطناعي

كانت الأسباب المنطقية المولدة من الذكاء الاصطناعى والتي اختارها المشاركون في المرتبة الثانية هي تلك التي أظهرت التعرف علي الظروف البيئية واظهرت القدرة على التكيف, وكذلك تلك التي تعرفت علي المخاطر القادمة والمخطط لها.

وقال Ehsan: “هذا المشروع يدور حول فهم التصورات والتفضيلات البشرية لأنظمة الذكاء الإصطناعي أكثر مما يتعلق ببناء تقنيات جديدة”.

 

الخوارزمية تقدم تبرير للقرارات التي اتخذتها في لعبة الفيديو هذه

تم تقديم البحث في مارس في مؤتمر Computing Machinery’s Intelligent User Interfaces لعام 2019. الورقة بعنوان “الجيل المنطقي الآلي: تقنية الذكاء الإصطناعى القابل للتفسير وآثاره على تصورات الإنسان”. سيقدم Ehsan ورقة تسلط الضوء على تحديات التصميم والتقييم لأنظمة الذكاء الإصطناعي المتمحورة حول الإنسان والتي تركز على منظور ناشئ في ورشة “التعلم الآلي الذي محوره الإنسان” في مؤتمر ACM CHI 2019, الذي يعقد في الفترة 4-9 مايو, في Glasgow, Scotland

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://www.sciencedaily.com/releases/2019/04/190411172526.htm

تعليقات