يشهد العالم منافسةٌ قوية بين الصين وأمريكا التي تعتبران القوتين العظيمتين في العالم، والتي لها أبعاد عديدة ومختلفة من المناوشات ابتداءً من الشحنات الفولاذية وصولاً إلى الخلافات حول تأشيرات الطلبة، ولكن أكثر تلك الخلافات إثارةً للقلق هوا سباق التسلح المدعوم بالذكاء الاصطناعي، والذي يعتبر الأكثر تعقيداً وتكلفةً على الإطلاق، حيث يستثمر كلا البلدين مبالغ كبيرة في الذكاء الاصطناعي العسكري (الجانب الحربي من الذكاء الاصطناعي)، حيث يتنوع من الروبوتات المستقلة إلى البرامج التي تعطي الجنرالات نصائح تكتيكية سريعة في خضم المعركة. 

وتخشى الصين من أن أمريكا لديها ميزة بفضل الإنجازات الكبيرة للشركات الغربية، مثل نجاحاتها في الألعاب الاستراتيجية المتطورة التي تعطي رؤية محاكيه لماهية الحرب.

وتخشى أمريكا من أن تتمتع الصين بحرية الوصول إلى البيانات الغزيرة والتي تمكنهم من تجنيد شركات التكنولوجيا المحلية في الخدمة الوطنية، فلا أحد يريد أن يخسر مثل هذا السباق.

وبدوره، قال جاك شاناهان، وهو الجنرال المسؤول عن الذكاء الاصطناعي في البنتاغون الأمريكي الشهر الماضي: " ما لا أريد أن أراه هو مستقبل يتمتع فيه أعداؤنا المحتملون بقوات مكتملة بالكامل ولا نفعل نحن ذلك ".

وتوفر الأسلحة المعتمدة على الذكاء الاصطناعي السرعة والدقة الفائقة، لكن لديها أيضًا القدرة على زعزعة توازن القوى في الميدان، ومن أجل الحصول على ميزة عسكرية أخرى، سيكون الذكاء الاصطناعي إغراءً للجيوش ، حيث أنه سيسمح لهم بإعطاء الأوامر و ليس تلقيها وتنفيذها فحسب .

ويمكن أن يكون للذكاء الاصطناعي عواقب مثيرة للقلق أيضاً ، لأنه قادر على التفكير بشكل أسرع من البشر، فإن نظام القيادة الذي يُملكه قد يخلق ضربات صاروخية على حاملات الطائرات والقواعد الجوية بوتيرة لا تترك مجالاً للدبلوماسية، وبطرق لا يفهمها مشغلوها تماماً. 

ويمكن اختراق أنظمة الذكاء الاصطناعي والتحكم بها باستخدام البيانات المعالجة من قبل العدو.

ووجد العالم في نهاية المطاف طريقة لإدارة تحول نموذجي في التكنولوجيا العسكرية، وخاصةً بعدما ظهرت القنبلة النووية، حيث تم تجنب وقوع كارثة عالمية من خلال مزح ثلاثة سياسات اتبعتها أغلب الدول العظمى في العالم وهي: الردع، وتحديد الأسلحة، وتدابير السلامة.

ويبحث الكثيرون في هذا القالب عن كيفية استخدام الذكاء الاصطناعي وتوظيفه، ولكن لسوء الحظ، سيكون استخدامه محدوداً في الوقت الحالي لأسباب عدة، وليس فقط لكونها تكنولوجيا حديثة. 

ويعتمد الردع على الإجماع على أنه إذا تم استخدام القنابل النووية، فإنها ستشكل مخاطر كارثية على كلا الجانبين، لكن التهديد الذي يمثله الذكاء الاصطناعي أقل ضرراً وأقل وضوحاً حتى الآن، وقد يساعد في إحداث هجمات مفاجئة أو ارباك العدو، وقد يتراوح عدد القتلى من لا شيء إلى الملايين في نفس الوقت، وكان تحديد الأسلحة في الحرب الباردة يعتمد على الشفافية، والقدرة على التعاطي مع بعض الثقة مع الجانب الآخر، وعلى عكس صوامع الصواريخ، لا يمكنك التجسس على البرمجيات من الأقمار الصناعية، وفي حين أن الرؤوس الحربية يمكن أن تفقد من قبل الأعداء دون أن تقلل من فعاليتها، وإنها تُظهر للعالم الخارجي خوارزمية يمكنها من خلالها أن تعرض فعاليتها للخطر، وحينها يكون الحافز لكلا الجانبين هو تضليل الطرف الآخر. يقول هنري كيسنجر، الذي قاد جهود أمريكا في مجال الحد من الأسلحة أثناء الحرب الباردة مع الاتحاد السوفيتي: "جهل الخصوم بتكوينات الذكاء الاصطناعي سيصبح ميزة استراتيجية لنا ".

في العام الماضي، كان هناك العديد من النظم التي تتحكم في السلامة والردع الدولي، حيث كانت تنطوي الترسانات النووية على أنظمة معقدة يكون فيها خطر الحوادث كبيراً، ولقد تم تطوير بروتوكولات لضمان عدم استخدام الأسلحة دون ترخيص، مثل الآليات الآمنة من الفشل و التي تعني أن القنابل لا تنفجر إذا تم إسقاطها قبل الأوان، والمطلوب هو المزيد من التفكير في كيفية تطبيق تدابير مماثلة على أنظمة الذكاء الاصطناعي، وخاصةً تلك المكلفة بتنسيق القوات العسكرية عبر ساحة معركة فوضوية وغامضة.

كما أن المبادئ التي يجب أن تجسدها هذه القواعد واضحة ومباشرة، وسيتعين على الذكاء الاصطناعي أن يعكس القيم الإنسانية مثل الإنصاف، وأن يكون مرناً و يقظاً في محاولات خداعه، ومن المهم حقاً كي تكون الأسلحة المعتمدة على الذكاء الاصطناعي آمنة، يجب أن تكون قابلة للفهم والتفسير قدر الإمكان، حتى يتمكن البشر من فهم كيفية اتخاذ القرارات المناسبة.

وتقوم العديد من الشركات الغربية بتطوير الذكاء الاصطناعي لأغراض تجارية، بما في ذلك السيارات ذاتية القيادة وبرامج التعرف على الوجه، باختبار أنظمة الذكاء الاصطناعي بالفعل للتأكد من أنها تعرض بعضاً من هذه الخصائص، والرهانات أعلى في المجال العسكري ، حيث الخداع روتين طبيعي و الهيجان وتيرة محكمة، ووسط مواجهة بين القوتين العظمتين في العالم، سيكون الإغراء هو قطع الزاوية لتحقيق ميزة مؤقتة، ولا توجد حتى الآن علامة تذكر على أن المخاطر قد تم أخذها على محمل الجد بما فيه الكفاية، على الرغم من أن مركز البنتاغون للذكاء الاصطناعي يستأجر خبراءً في علم الأخلاقيات و السلوك، وترك الحرب بين أيدي أجهزة الكمبيوتر سيجعل العالم مكانًا أكثر خطورة ودماراً .

المصدر: ترجمة النهضة نيوز