آخر الأخبار

تعرّف على الحل الجديد لـ OpenAI لمحاربة هلوسة الذكاء الاصطناعي


 أعلنت شركة OpenAI يوم الأربعاء عن خطوتها لمواجهة "هلوسة" الذكاء الاصطناعي، وذلك باستخدام أسلوب حديث في تدريب نماذج اللغة الكبيرة. وتأتي هذه الخطوة من الشركة الناشئة الأمريكية في ظل ازدياد النقاشات العالمية حول المعلومات المضللة الناشئة من أنظمة الذكاء الاصطناعي، والمخاوف المتزايدة من تأثيرها في الانتخابات الرئاسية الأمريكية المقررة عام 2024.

ساهمت شركة OpenAI في تعجيل تطور الذكاء الاصطناعي التوليدي العام الماضي، عندما أطلقت روبوت الدردشة ChatGPT. وفي غضون شهرين، جذب الروبوت أكثر من 100 مليون مستخدم شهريًا، ليصبح أسرع تطبيقات الويب نموًا على الإطلاق.

يحدث هلوسة الذكاء الاصطناعي عندما تنشئ روبوتات الدردشة، مثل ChatGPT من OpenAI، أو Meena من Google، وتتصرف كما لو أنها تنشر حقائق لا شك فيها. ووفقًا لتقرير لباحثي OpenAI، "تميل حتى النماذج الحديثة إلى اختلاق الأكاذيب، وتظهر ميلًا نحو اختراع الحقائق في لحظات اليقين المحدودة". وأضاف الباحثون: "تشكل هذه الهلوسات تحديًا خاصًة في المجالات التي تتطلب تفكيرًا متعدد الخطوات، حيث يمكن أن يكون خطأ منطقي واحد كافيًا لعرقلة الوصول إلى الحل النهائي".

تتمثل الاستراتيجية الجديدة لشركة (أوبن أي آي) OpenAI لمحاربة اختلاق الأكاذيب في تدريب نماذج الذكاء الاصطناعي على مكافأة الخطوات الفردية الصحيحة في التفكير المنطقي عند الوصول إلى الإجابة، بدلاً من مكافأتها على النتيجة النهائية الصحيحة. ويُطلق على هذا النهج اسم "مراقبة العملية" بدلاً من "مراقبة النتائج". 

ويعتقد الباحثون أن هذه الاستراتيجية ستؤدي إلى تحسين الذكاء الاصطناعي بشكل يجعله أكثر قدرة على التفسير، حيث تشجع النماذج على اتتمثل الاستراتيجية الجديدة لشركة OpenAI في محاربة اختلاق الأكاذيب عن طريق تدريب نماذج الذكاء الاصطناعي على مكافأة الخطوات الفردية الصحيحة في التفكير المنطقي، بدلاً من مكافأتها على النتيجة النهائية الصحيحة. ويسمى هذا النهج "مراقبة العملية" بدلاً من "مراقبة النتائج". ويعتقد الباحثون أن هذه الاستراتيجية ستؤدي إلى تحسين الذكاء الاصطناعي بشكل يجعله أكثر قدرة على التفسير، حيث تشجع النماذج على اتباع أفكار متسلسلة على غرار البشر.

وفي حديثه لشبكة CNBC الإخبارية الأمريكية، أشار الباحث الرياضياتي في OpenAI، كارل كوبي، إلى أن اكتشاف الأخطاء المنطقية أو الهلوسة في النماذج وتخفيف حدتها يعد خطوة حاسمة نحو بناء الذكاء الاصطناعي العام المتوافق. كما أن هذه الخطوة تأتي بعد يوم واحد من انضمام كبار المسؤولين التنفيذيين في مجال الذكاء الاصطناعي، بما في ذلك المدير التنفيذي لشركة OpenAI، سام ألتمان، إلى الخبراء والأساتذة في إثارة "خطر الانقراض بسبب الذكاء الاصطناعي" وحث صانعي السياسة على مساواة مخاطر التقنية بالمخاطر التي تشكلها الأوبئة والحرب النووية.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.