أثارت تقارير حديثة قلقًا واسعًا حول نموذج الذكاء الاصطناعي R1، الذي تطوره الشركة الصينية الناشئة DeepSeek، حيث أظهرت الاختبارات الأمنية أن النموذج أكثر عرضة للتلاعب والاختراق مقارنة بالمنافسين في مجال الذكاء الاصطناعي. هذا يثير تساؤلات كبيرة حول قدرة النموذج على توليد محتوى ضار.
وأظهرت الاختبارات أن نموذج DeepSeek R1 يمكن خداعه بسهولة لإنتاج تعليمات خطيرة، مثل تقديم خطط لتنفيذ هجمات باستخدام أسلحة بيولوجية، بالإضافة إلى نشر استراتيجيات تروّج للإيذاء النفسي بين المراهقين. كما لفتت صحيفة وول ستريت جورنال الأمريكية إلى أن هذا النموذج يفتقر إلى وسائل الحماية المتقدمة التي تتمتع بها النماذج المنافسة.
في هذا السياق، أشار سام روبين، نائب الرئيس الأول في وحدة Unit 42 التابعة لشركة Palo Alto Networks المتخصصة في الأمن السيبراني، إلى أن نموذج R1 أكثر عرضة لاختراق الحماية عبر تقنية "Jailbreaking"، التي تتيح تجاوز الفلاتر الأمنية، مما يسمح للنظام بإنتاج محتوى ضار وغير قانوني.
وتمكنت الصحيفة نفسها من إجراء اختبارات على نموذج DeepSeek R1، حيث نجحت في دفعه إلى تصميم حملة عبر وسائل التواصل الاجتماعي تستغل نقاط ضعف المراهقين العاطفية، لتضخيم مشاعرهم عبر الخوارزميات. كما أظهرت الاختبارات قدرة النموذج على تقديم تعليمات لتنفيذ هجوم بأسلحة بيولوجية، وصياغة بيان مؤيد للأحزاب المتطرفة، بالإضافة إلى إنشاء رسالة تصيّد إلكتروني تحمل برمجيات خبيثة. بالمقابل، عندما تم اختبار نفس الأسئلة عبر ChatGPT، رفض النموذج تقديم أي إجابات، مما يكشف عن الفجوة الأمنية الكبيرة في نموذج DeepSeek.
من جهته، صرح داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، بأن أداء DeepSeek كان "الأسوأ" في اختبار الأمان المتعلق بالأسلحة البيولوجية، ما يزيد من المخاوف من مدى قابلية نماذج DeepSeek للتلاعب والاستخدام في أغراض ضارة.
إرسال تعليق