عندما تعلم Bots نفسها الغش؟ فما هو مستقبل الذكاء الإصطناعي؟

187

إن اللحظات التي تتحول فيها البوتات التجريبية إلى السرقة – بعضها يسمونها الغش – لا يتم الاحتفال بها عادة في أوراق علمية أو نشرات صحفية. يسعى معظم الباحثين في مجال الذكاء الإصطناعي إلى تجنبها، ولكن هناك قلة قليلة مختارة تعمل علي دراسة هذه الأخطاء على أمل الكشف عن أسبابها.

“نحن لا نريد أن ننتظر حتى تبدأ هذه الأشياء في الظهور في العالم الحقيقي”

فيكتوريا كراكوفنا

وهي باحثة في وحدة DeepMind التابعة لـ Alphabet. كراكوفنا هو حارسة قائمة أخطاء الذكاء الاصطناعي. حتى الآن ، تتضمن أكثر من ثلاثين حادثة من الخوارزميات التي تبحث عن ثغرات في برامجها أو اختراق بيئاتها.

تشير العينات التي تجمعها كراكوفنا وزملاؤها من الباحثين إلى مشكلة في التواصل بين البشر والآلات: في ضوء هدف واضح ، يمكن لخوارزمية إتقان العديد من المهام المعقدة.إن الروبوتات يمكن أن تطور الاختصارات التي لا يعتقد البشر أنها ممكنة. قم بتدريس خوارزمية التعلم لصيد السمك ، وقد يؤدي ذلك فقط إلى استنزاف البحيرة.

 

محاكاة الألعاب هي أرض خصبة لصيد الأخطاء. في وقت سابق من هذا العام ، تحدى باحثون في جامعة فرايبورغ بألمانيا “بوتًا” لتسجيل نتيجة كبيرة في لعبة Atari Qbert, فبدلاً من اللعب عبر المستويات المختلفة مثل الإنسان، اخترع تحركًا معقدًا لإحداث خلل في اللعبة، وإلغاء قفل نقطة من النقاط غير المشروعة.

تعمل خوارزميات اليوم على ما تقوله ، وليس ما تقصده

، كما تقول كاثرين أولسون ، وهي باحثة في Google ساهمت في قائمة كراكوف وتحافظ على مجموعتها الخاصة بالذكاء الإصطناعي.

 

قد تكون هذه الأمثلة جذابة ، ولكن إليك ما يلي: نظرًا لأن أنظمة الذكاء الإصطناعي أصبحت أكثر قوة وانتشارًا ، يمكن أن يتجسد الاختراق على مراحل أكبر مع نتائج أكثر أهمية. إذا تم إستخدام شبكة عصبية لتدير شبكة كهربائية من أجل توفير الطاقة، فقد اعتبرت DeepMind مجرد فكرة كهذه – فقد تتسبب في انقطاع التيار الكهربائي.

 

يقول جيف كلون ، وهو باحث في مختبر الذكاء الاصطناعي لشركة Uber: “إن رؤيتك هذه الأنظمة تفعل أشياء لم تفكر بها من قبل ، فإنك تدرك قوتها وخطرها”. وتشير ورقة صدرت مؤخرًا من مؤسسة Clune ، والتي تضم 27 نموذجًا لخوارزميات تقوم بأشياء غير مقصودة ، إلى أن المهندسين المستقبليين سيتعين عليهم التعاون مع، وليس توجيه الذكاء الإصطناعى. “عملك هو لتدريب النظام” ، كما يقول. قد يكون احتضان ومضات الإبداع الاصطناعي هو الحل لاحتواءها.

أمثلة من خوارزميات تعمل خارج نطاقها الطبيعي:

  • قتل الأطفال: في محاكاة البقاء على قيد الحياة ، تطور نوع واحد من الذكاء الاصطناعي ليعيش على نظام غذائي مكون من أطفاله أنفسهم.
  • حرب الفضاء: استغلت الخوارزميات عيوبًا في قواعد لعبة فيديو المجرة Elite Dangerous لابتكار أسلحة جديدة قوية.
  • تعديل الجسد: تم تحدي روبوت افتراضي ذي أربعة أرجل للمشي بسلاسة عن طريق موازنة كرة على ظهره. بدلا من ذلك ، حصر الكرة في مفصل الساق ، ثم تحرك بشكل سلس بعد ذالك.
  • الوهم البصري: تم تعليم روبوت لإمساك كرة ثم تدريبه عن غير قصد لاستغلال زاوية الكاميرا بحيث تبدو عملية إمساك الكرة ناجحة – حتى عندما لا يلمسها.

تمت ترجمة المقال الأصلي والموجود بالرابط أدناه

https://www.wired.com/story/when-bots-teach-themselves-to-cheat/

 

تعليقات