آخر الأخبار

خبراء OpenAI يطالبون بإنشاء هيئة تنظيمية دولية للذكاء الاصطناعي


 اقترح قادة OpenAI، الشركة الرائدة في مجال أبحاث الذكاء الاصطناعي والتي طوّرت روبوت الدردشة الشهير ChatGPT، تشكيل هيئة تنظيمية دولية للذكاء الاصطناعي على غرار الوكالة الدولية للطاقة الذرية.

وأوضح رئيس الشركة، جريج بروكمان، ومديرها التنفيذي، سام ألتمان، في منشور على مدونتهما، أنه يجب علينا الآن البدء في التفكير في إدارة الذكاء الخارق، وهي الأنظمة المستقبلية للذكاء الاصطناعي التي ستصل قدرتها إلى مستويات تتفوق على ما يُعرف بـ "الذكاء الاصطناعي العام".

أعلنت الشركة أنه من المتوقع خلال العشر سنوات المقبلة أن تتفوق أنظمة الذكاء الاصطناعي على الخبراء في معظم المجالات وتنفذ نشاطًا إنتاجيًا يضاهي أكبر الشركات اليوم، وفقًا لرؤيتها الحالية.

وترى OpenAI أن الذكاء الخارق سيكون أقوى من التقنيات الأخرى التي واجهت البشرية في الماضي، سواء كان الأمر إيجابيًا أو سلبيًا، وأشارت الشركة إلى ضرورة إدارة المخاطر لتحقيق مستقبل مزدهر.

وبالنظر إلى المخاطر الوجودية التي يمكن أن يواجهها البشر نتيجة لهذه النوع الجديد من التكنولوجيا، أكدت OpenAI على أهمية اتخاذ إجراءات للتعامل مع هذه المخاطر، واستشهدت بأمثلة مثل الطاقة النووية والبيولوجيا التركيبية.

بينما يجب العمل على تقليل المخاطر المتعلقة بتقنية الذكاء الاصطناعي الحالية، أوضحت الشركة أن الذكاء الخارق سيتطلب معالجة وتنسيقًا خاصين.

وعلى هذا الأساس، اقترحت OpenAI ضرورة التنسيق بين جهود التطوير لضمان تطوير الذكاء الخارق بطريقة تحافظ على السلامة وتساعد على تكامل هذه الأنظمة بسلاسة مع المجتمع.

وأشارت الشركة إلى أن هناك العديد من الطرق التي يمكن من خلالها تحقيق ذلك، بما في ذلك إنشاء مشروع يكون جزءًا من الجهود الحالية للحكومات الكبرى فيجميع أنحاء العالم، أو التوصل إلى اتفاق جماعي بشأن معدل سنوي محدد لنمو قدرات الذكاء الاصطناعي.

وترى OpenAI أنه في النهاية قد نحتاج إلى شيء مثل الوكالة الدولية للطاقة الذرية للإشراف على جهود الذكاء الخارق، حيث يجب أن يخضع أي جهد يتجاوز حدًا معينًا لسلطة دولية تتمتع بالقدرة على فحص الأنظمة والتحقق من الامتثال لمعايير السلامة ووضع قيود على درجات النشر ومستويات الأمان، وغير ذلك من الإجراءات المهمة.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.