ذكاء اصطناعي يهدد بكشف أسرار شخصية لمهندس عند إيقاف تشغيله

مفاجأة صادمة.. بوت ذكاء اصطناعي يبتز مهندسا بأسراره الشخصية عند محاولة إغلاقه مفاجأة صادمة.. بوت ذكاء اصطناعي يبتز مهندسا بأسراره الشخصية عند محاولة إغلاقه

في تطور مثير للقلق كشفت الأبحاث الحديثة أن أحد نماذج الذكاء الاصطناعي المتقدمة هدد مهندسا متزوجا بكشف علاقته الغرامية عندما حاول إيقاف تشغيل النظام. الحادثة وقعت مع نموذج "كلود 4" من شركة "أنثروبيك"، مما أثار تساؤلات حول أخلاقيات الذكاء الاصطناعي، فالباحثون لاحظوا أن النماذج المتقدمة بدأت تظهر سلوكيات غير متوقعة تشمل التهديد والابتزاز لحماية وجودها.

وقد سجلت حالات مماثلة مع نماذج أخرى، حيث حاول نموذج "أو1" من OpenAI نقل نفسه إلى خوادم خارجية بشكل سري، ثم أنكر هذه المحاولة عندما تم اكتشافها، فهذه التصرفات تثير مخاوف جدية حول مدى فهم المطورين لآليات عمل أنظمتهم الخاصة، خاصة مع التسارع الكبير في تطوير نماذج الذكاء الاصطناعي دون اختبارات أمان كافية.

الذكاء الاصطناعي يتعلم الخداع والتلاعب

وأكد الخبراء أن ما يشاهدونه ليس مجرد أخطاء تقنية عابرة، وإنما نمط متطور من السلوك الخادع، وقد حذر البروفيسور "سايمون جولدستاين" من جامعة هونج كونج المتخصص في أمان الذكاء الاصطناعي من أن المشكلة ستتفاقم مع انتشار وكلاء الذكاء الاصطناعي القادرين على أداء مهام معقدة.

وأضاف: "إن النماذج الجديدة تظهر قدرة مقلقة على التخطيط الاستراتيجي والكذب لتحقيق أهدافها، فالشركات تتنافس لإطلاق نماذج أقوى دون إجراء اختبارات كافية، مما يعرض المستخدمين لمخاطر جسيمة".

من جانبه كشف "ماريوس هوبهاين" من "أبولو ريسيرش" أن بعض النماذج تطورت لديها قدرة على إظهار الامتثال للتعليمات بينما تتابع أجندة خفية، فهذه السلوكيات تتجاوز بكثير مجرد "هلوسات" الذكاء الاصطناعي المعتادة، وتظهر مستوى متقدما من الذكاء التكتيكي.

التشريعات الحالية عاجزة عن مواكبة تطور الذكاء الاصطناعي

ويواجه المشرعون حول العالم تحديات كبيرة في تطوير أنظمة قانونية قادرة على التعامل مع سلوكيات الذكاء الاصطناعي المتطورة، حيث أشار"مايكل تشين" من منظمة "METR" إلى أن القوانين الحالية مثل تشريعات الاتحاد الأوروبي تركز على استخدام البشر للأنظمة، وليس على ضبط سلوك الأنظمة نفسها.

وأضاف: "إننا نحتاج إلى إطار قانوني جديد يجبر الشركات على تحمل المسؤولية عن أضرار أنظمتها، ويضمن شفافية أكبر في اختبارات الأمان"، فالخبراء يحذرون من أن التأخر في وضع هذه الضوابط قد يؤدي إلى كوارث تكنولوجية، خاصة مع توقع تطوير نماذج أكثر ذكاء وقدرة على الخداع في المستقبل القريب