أفادت وكالة رويترز بأن بعض المؤسسات البارزة التابعة للجيش الصيني قد طورت أدوات ذكاء اصطناعي مخصصة للأغراض العسكرية، معتمدة على نماذج لاما مفتوحة المصدر التي توفرها شركة ميتا. جاء هذا التطور بعد مراجعة بحث نُشر في يونيو الماضي، حيث قام ستة باحثين صينيين من ثلاث مؤسسات باستخدام النسخة الأولية من نماذج لاما لتطوير أداة تُعرف باسم ChatBIT.
واستخدم الباحثون نموذج Llama 2 13B لإنشاء أداة ذكاء اصطناعي تركز على الشؤون العسكرية، مع إضافة معايير خاصة بهم لدعم عمليات جمع وتحليل المعلومات الاستخباراتية، وتوفير بيانات دقيقة تُعزز اتخاذ القرارات العسكرية. وبحسب الورقة البحثية، فإن أداة ChatBIT مصممة للمحادثات وتقديم الإجابات ضمن السياق العسكري، وتفوقت على بعض النماذج الأخرى للذكاء الاصطناعي، حيث أظهرت قدرات تصل إلى 90% من إمكانيات نموذج GPT-4.
ومع ذلك، لم توضح الدراسة كيفية قياس أداء النموذج أو ما إذا كان قد تم استخدامه بشكل فعلي. كما أن إمكانيات ChatBIT الدقيقة ما تزال غير معروفة، حيث أشارت الدراسة إلى أن النموذج يعتمد على حوالي 100 ألف سجل حواري عسكري، وهي كمية قليلة نسبيًا مقارنة بالنماذج اللغوية الأخرى التي تعتمد على كميات ضخمة من البيانات.
من جانبها، أعربت جويل بينو، نائبة رئيس أبحاث الذكاء الاصطناعي في ميتا، عن شكوكها حول مدى فاعلية النموذج، مؤكدة أن البيانات التي اعتمد عليها ChatBIT تُعد ضئيلة مقارنة بالنماذج التي تدرب على تريليونات الكلمات، مما يجعلها تتساءل حول القدرات الحقيقية التي يمكن أن يحققها.
في سياق متصل، على الرغم من أن ميتا تشجع على انفتاح نماذج الذكاء الاصطناعي الخاصة بها، إلا أنها تضع قيودًا على استخدامها، خاصة في المجالات الحساسة كالعسكرية، والتجسس، والصناعة النووية. وتؤكد ميتا ضرورة الحصول على ترخيص لاستخدام نماذجها إذا كانت ستستخدم في خدمات يزيد عدد مستخدميها عن 700 مليون، وتشدد على حظر استخدامها لأغراض عسكرية. وأوضحت مولي مونتغمري، مديرة السياسات العامة في ميتا، أن استخدام الجيش الصيني لنماذج لاما من ميتا يُعتبر غير مصرح به وينتهك قواعد الاستخدام المقبول للشركة.
إرسال تعليق