منوعات

علماء يبحثون تعليم "الذكاء الاصطناعي" العدالة اتجاه البشر

8 كانون الأول 2019 08:28

بدأت تقنيات "الذكاء الاصطناعي" غزو عالمنا، فهي قادرةٌ على حل مكعب الروبيك في ثوانٍ معدودة، وهو ما لا يستطيع فعله معظم البشر، كما انها قادرة على محاكاة الكون أو حتى تقليد العادات البشرية لتتصرف كإنسانٍ

بدأت تقنيات "الذكاء الاصطناعي" غزو عالمنا، فهي قادرةٌ على حل مكعب الروبيك في ثوانٍ معدودة، وهو ما لا يستطيع فعله معظم البشر، كما انها قادرة على محاكاة الكون أو حتى تقليد العادات البشرية لتتصرف كإنسانٍ حقيقي، على الرغم من كونه مجرد آلة .

بالطبع ، كل هذه الأشياء صُنعت لمنفعة الجنس البشري دون شك ، لأن هذا هو الهدف الحقيقي و الأساسي للثورة التكنولوجية في المقام الأول . و لكن ماذا لو تحقق العكس تماماً ؟.

باحثون من جامعة ماساتشوستس الأميركية أجروا مؤخراً دراسةً للتوصل إلى إجابةٍ مقنعة و منطقية على هذا السؤال، و جاء ذلك في شكل إطارٍ يساعد على منع ما يسميه الفريق بأنه "سلوك غير مرغوب فيه" لدى الآلات الذكية، و في الأساس لجعل الآلات تعرف معنى العدل، وأن تكون عادلةً تجاه البشر.

وقال البروفيسور فيليب توماس ، أحد الباحثين في مجال التعلم الآلي : " عندما يُطبق شخصٌ ما خوارزمية للتعلم الآلي ، من الصعب التحكم في سلوكه، حيث يصبح تسهيل ضمان الإنصاف و تجنب الأذى أكثر أهميةً، لأن خوارزميات التعلم الآلي تؤثر على حياتنا أكثر و أكثر مع مرور الزمن ".

و وفقاً له، فقد تم تصميم الإطار الخوارزمي لمنع الذكاء الاصطناعي من تطوير أي فهمٍ متأصل للأخلاق أو الإنصاف أو غيرها من المصطلحات الشعورية الأخرى ، ليسهل على باحثي التعلم الآلي تحديد أي سلوك يعتبر غير مرغوبٍ فيه و تنظيمه .

و قد أوضح توماس أن معظم الخوارزميات لا تمنح طريقةً لوضع هذا النوع من القيود على السلوك ، لذلك يتم تضمينه في التصميمات المبكرة ، حيث قال : " إذا استخدمت خوارزمية Seldonian لعلاج مرض السكري ، فيمكنني تحديد أن السلوك غير المرغوب فيه يعني انخفاض السكر في الدم بشكلٍ خطير، أو نقص السكر في الدم بشكلٍ عام، مما يمكنني القول للآلة : بينما كنت تحاول تحسين جهاز التحكم في مضخة الأنسولين ، لا تفعل ذلك ، بل قم بإجراء تغييراتٍ من شأنها أن تزيد وتيرة نقص السكر في الدم " .