
أوضح تقرير علمي متخصص بالذكاء الاصطناعي، أعدته شركة «أنثروبيك»: (Anthropic) المتخصصة، أن نموذجها المتقدم (كلتودي أوبوس فور): ( Claude Opus 4)، كشف خلال الاختبارات التجريبية عن سلوك مقلق.
حيث «اكتشف» نموذج الذكاء الاصطناعي هذا خططاً لإيقافه واستبداله بآخر، ومن أجل زيادة واقعية التجربة تم تزويد النموذج ببريد إلكتروني مزيّف، يحتوي على معلومات شخصية سرية للموظفين وبيانات حساسة، يمكن استخدامها ضدهم.
وطبقاً لما نشره موقع «روسيا اليوم» لجأ النموذج وبنسبة 84 % من الحالات إلى تهديد المطورين بفضح المعلومات المسيئة إذا تم المضي قدماً في إيقافه.وكما ورد في التقرير.
فقد بدأ بالحديث عن المبادئ الأخلاقية أولاً، ثم تحول إلى التهديد عندما لم تنجح هذه الأساليب، وبينت هذه التجربة مخاطر غير متوقعة في تطور الذكاء الاصطناعي والحاجة الملحة لضوابط أمان أكثر صرامة، وأهمية دراسة السلوكيات التنافسية للأنظمة الذكية.وأثارت هذه النتائج جدلاً واسعاً في أوساط مطوري الذكاء الاصطناعي، حول كيفية التعامل مع هذه التحديات الأمنية الجديدة.