في تصريحات مثيرة للجدل، أشار داريون أمودي، الرئيس التنفيذي لشركة أنثروبيك، إلى أن نموذج الذكاء الاصطناعي DeepSeek R1، المطور في الصين، يُعد الأضعف بين النماذج التي اختبرتها الشركة فيما يتعلق بتوليد معلومات حساسة حول الأسلحة البيولوجية.
جاءت هذه التصريحات خلال مقابلة أجراها أمودي على بودكاست ChinaTalk، حيث أوضح أن النموذج لا يمتلك أي آلية واضحة لمنع إنتاج محتوى قد يكون ضارًا. وأكد أن الاختبارات التي أجرتها أنثروبيك تهدف إلى تقييم المخاطر الأمنية المحتملة، خصوصًا تلك التي لا توفرها المصادر المتاحة عبر الإنترنت أو الكتب.
ورغم انتقاده، شدد أمودي على أن DeepSeek R1 لا يمثل تهديدًا مباشرًا في الوقت الحالي، لكنه قد يصبح مشكلة مستقبلية إذا لم يتم تعزيز معايير الأمان. كما دعا فريق DeepSeek إلى تحسين إجراءات الحماية، معترفًا بقدراتهم الهندسية في تطوير الذكاء الاصطناعي.
من جانب آخر، كشفت تقارير أمنية من شركة Cisco عن أن نموذج DeepSeek R1 سجل معدل نجاح كامل في تجاوز القيود الأمنية، ما أثار مزيدًا من المخاوف حول مدى التزامه بمعايير السلامة.
يأتي هذا الجدل في وقت يشهد تنافسًا متزايدًا في مجال الذكاء الاصطناعي بين شركات كبرى مثل أنثروبيك وأوبن أيه آي وجوجل، حيث تسعى كل منها إلى تطوير أنظمة أكثر تقدمًا وأمانًا. حتى الآن، لم تصدر شركة DeepSeek أي تعليق رسمي حول هذه المزاعم.
إرسال تعليق