نموذج للذكاء الاصطناعي يصنع 40 ألف مركب لأسلحة كيميائية محتملة في ست ساعات

منوعات

نموذج للذكاء الاصطناعي يصنع 40 ألف مركب لأسلحة كيميائية محتملة في ست ساعات

18 آذار 2022 13:38

أنشأ نموذج التعلم الآلي للذكاء الاصطناعي أكثر من 40 ألف جزيء افتراضي يمكن استخدامها في صنع أسلحة كيميائية في أقل من ست ساعات في ورقة بحثية نُشرت في مجلة الذكاء الاصطناعي، حيث وصفت شركة كولابوريشن كيف استخدموا نموذج التعلم الآلي "ميغاسين" لإنشاء جزيئات قاتلة بسهولة.

الأسلحة الكيمائية والذكاء الاصطناعي

يستخدم النموذج عادة للمساعدة في إنشاء عقاقير علاجية محتملة عن طريق التخلص من الجزيئات السامة قبل أن يصنعها العلماء، وقامت شركة كولابوريشن بقلب ذلك رأساً على عقب عن طريق إضافة قواعد بيانات السمية المتاحة للجمهور وتوجيه النموذج لزيادة السمية، بدلاً من التخلص منها.

ومن بين 40.000 مركب، من المحتمل وجود إجابات خاطئة، لكن الذكاء الاصطناعي ابتكر بشكل مستقل العديد من المركبات القاتلة المعروفة بالفعل دون أن تكون في مجموعة البيانات الأصلية، ويشير هذا إلى أن معظم المركبات من المحتمل أن تكون سامة.

وصرح فابيو أوربينا، المؤلف الرئيسي للورقة البحثية وكبير العلماء في شركة كولابوريشن، أن شركته ليس لديها رغبة أو تخطط لتركيب المواد الكيميائية لاختبار كفاءة التجربة بالكامل.

كان الغرض من التجربة هو معرفة مدى صعوبة قيام شخص ما بإساءة استخدام تقنيات التعلم بالذكاء الاصطناعي بهذه الطريقة، ويوضح أوربينا أن الفاعل السيئ لن يحتاج إلا إلى قاعدة بيانات عن السمية، والعديد منها متاح للجمهور، وسيستغرق الأمر فقط خوارزمية تعلم آلي مفتوحة المصدر، وقليلاً من الترميز ومعرفة التعلم الآلي لإعادة إنشاء ما فعلوه.

هذا، لحسن الحظ، لن يكون كل ما يحتاجون إليه لصنع سلاح كيميائي فتاك، حيث يقوم الذكاء الاصطناعي بإنشاء جزيئات افتراضية فقط، ولا يزال يتعين على شخص ما تصنيعها، ولكن كما يشير أوربينا أيضاً، قد لا يكون ذلك بالصعوبة التي قد يتصورها المرء.

الحرب الكيمائية

وقال أوربينا: "الكثير من مواد البناء الكيميائية لعوامل الحرب الكيميائية هذه معروفة جيداً وتخضع للمراقبة، لكن هناك العديد من شركات التركيب، وطالما أنه لا يبدو كعامل حرب كيميائية، فمن المرجح أن يقوموا فقط بتصنيعه وإرساله مرة أخرى لأنه من يعرف ما الذي يستخدم من أجله الجزيء، أليس كذلك؟".

وعلى الرغم من التهديد المحتمل، لا يجادل أوربينا بإنهاء مشاركة المعرفة مفتوحة المصدر أو سوق الذكاء الاصطناعي شديدة التنظيم، وبدلاً من ذلك، يجادل بأن معرفة من يستخدم بياناتك عندما يحتمل أن تكون خطرة قد يكون خطوة أولى جيدة، كما يجادل بأنه يجب تعليم علماء التعلم الآلي حول المخاطر المحتملة لسوء الاستخدام، تماماً مثل طلاب الكيمياء.

المصدر: سبوتنيك إنترناشونال