أفادت تقارير حديثة أن شركة "ميتا" تواصل العمل على تقنيات الذكاء الاصطناعي، حيث تعهد الرئيس التنفيذي مارك زوكربيرغ بجعل الذكاء الاصطناعي العام متاحًا للجميع في المستقبل، لكنه حذر من طرح هذه التقنيات المتقدمة في حال وجود سيناريوهات قد تمثل تهديدًا أو ضررًا للمجتمع. وفي هذا السياق، كشفت ميتا عن إطار عمل جديد تحت عنوان "إطار عمل الذكاء الاصطناعي المتقدم" (Frontier AI Framework)، والذي يهدف إلى تحديد الأنظمة التي قد تشكل خطرًا كبيرًا.
يشاع أن الذكاء الاصطناعي العام، المعروف بـ "إيه جي آي" (AGI)، يتمتع بقدرة على التعلم الذاتي وأداء المهام التي يقوم بها البشر. هذه القدرة تميزه عن الذكاء الاصطناعي التقليدي الذي يعمل وفقًا للبرمجيات التي تم تدريبه عليها فقط. وقد أثارت هذه التقنية قلق شركة ميتا، حيث تخشى أن تقع في الأيدي الخاطئة ولا تستطيع السيطرة عليها.
في الوثيقة التي أصدرتها ميتا، صنفت الشركة الأنظمة المتقدمة إلى نوعين: "أنظمة عالية الخطورة" و"أنظمة فائقة الخطورة". وتُعرّف ميتا الأنظمة عالية الخطورة بأنها تلك التي يمكن أن تساهم في تنفيذ هجمات إلكترونية أو كيميائية أو بيولوجية، بينما يُتوقع أن تؤدي الأنظمة فائقة الخطورة إلى نتائج كارثية يصعب السيطرة عليها.
أوضحت ميتا في الوثيقة أن بعض الهجمات المحتملة قد تشمل اختراق نظام التشفير الذي يستخدمه واتساب، وانتشار أسلحة بيولوجية فتاكة. ورغم أن قائمة الكوارث المحتملة ليست شاملة، إلا أن ميتا تشير إلى أن هذه السيناريوهات هي الأكثر احتمالًا في حال إطلاق تقنيات الذكاء الاصطناعي المتقدمة.
ومن جانب آخر، ذكرت ميتا أنها لا تعتمد في تقييم المخاطر على اختبارات تجريبية فقط، بل تستخدم مدخلات من باحثين داخل الشركة وخارجها، مع مراجعة من قبل صناع القرار رفيعي المستوى. وفي حال تصنيف أي نظام على أنه "عالي الخطورة"، فإن ميتا ستقيد الوصول إليه داخليًا وتوقف إطلاقه حتى اتخاذ تدابير لتقليل المخاطر. أما إذا تم تصنيفه "فائق الخطورة"، فسيتم اتخاذ إجراءات أمنية غير محددة لوقف تطويره ومنعه من التسرب.
وفي ضوء هذه الإجراءات، صرحت ميتا أن إطار العمل سيتطور مع تغيرات مشهد الذكاء الاصطناعي، وهو رد على الانتقادات الموجهة لنهج الشركة "المفتوح" في تطوير الأنظمة. إذ تعمد ميتا إلى جعل تقنياتها متاحة للجميع على الرغم من أنها ليست مفتوحة المصدر بشكل كامل، خلافًا لشركات مثل "أوبن إيه آي" التي تحمي أنظمتها خلف واجهة برمجة التطبيقات (API).
ويُعتقد أن نهج ميتا المفتوح قد حقق نجاحات، حيث حققت نماذج الذكاء الاصطناعي التي تحمل اسم "لاما" (Llama) مئات الملايين من التنزيلات. إلا أنه تم تسريب شائعات عن استخدام هذه النماذج من قبل خصوم الولايات المتحدة لتطوير روبوت دردشة دفاعي مخصص لدعم الدفاعات الإلكترونية.
في هذا السياق، سعت ميتا من خلال نشر هذا الإطار الجديد إلى مقارنة استراتيجيتها في الذكاء الاصطناعي المفتوح مع شركة "ديب سيك" الصينية، التي تُعرف بأنها مفتوحة المصدر لكنها تفتقر إلى ضمانات الحماية الكافية.
وأكدت ميتا في وثيقتها أن هدفها هو تحقيق توازن بين فوائد الذكاء الاصطناعي المتقدم والمخاطر المرتبطة به، بحيث يتم تقديم هذه التكنولوجيا بطريقة تحقق أكبر فائدة مع أقل ضرر ممكن.
إرسال تعليق