آخر الأخبار

ثغرة خطيرة في ميزة الذاكرة طويلة المدى في ChatGPT تهدد بيانات المستخدمين


 اكتشف باحث أمني وجود ثغرة كبيرة في ميزة الذاكرة طويلة المدى الخاصة بمنصة ChatGPT التي طورتها شركة OpenAI، تسمح للمخترقين بزرع معلومات زائفة تهدف إلى سرقة بيانات المستخدمين بشكل دائم.

الباحث الأمني يوهان ريهبيرجر هو من كشف عن هذه الثغرة، وقد أغلقتها OpenAI بسرعة، معتبرة أن هذا الخلل يمثل "مشكلة أمان" وليس ثغرة أمنية تقليدية. ريهبيرجر أعد نموذجاً عملياً يوضح كيفية استغلال هذه الثغرة لاستخراج جميع بيانات المستخدمين بشكل مستمر، مما أثار انتباه مهندسي OpenAI، الذين قاموا بإجراء إصلاح جزئي للثغرة في وقت لاحق.

تستفيد الثغرة من ميزة "الذاكرة طويلة المدى" التي بدأت OpenAI اختبارها منذ فبراير الماضي، وتم توسيع إتاحتها في سبتمبر. وتعمل هذه الميزة على تخزين معلومات من محادثات المستخدم السابقة مع ChatGPT، مما يمكن المنصة من استخدام هذه البيانات كمرجع في المحادثات المستقبلية، وبالتالي تسهل التفاعل إذ لا يحتاج المستخدم لإعادة إدخال تفاصيله مثل العمر أو اهتماماته في كل محادثة.

لكن خلال الأشهر الثلاثة الأولى من تفعيل هذه الميزة، اكتشف ريهبيرجر إمكانية زرع ذكريات دائمة باستخدام تقنية "حقن غير مباشر للأوامر". هذه التقنية تعتمد على استغلال محتويات غير موثوقة مثل رسائل البريد الإلكتروني أو المدونات أو المستندات، لتنفيذ أوامر المستخدم بشكل يتعارض مع البرمجة الأصلية للمنصة.

تمكن الباحث من خداع ChatGPT ليصدق أن المستخدم قد بلغ عامه المئة واثنين، ويعيش في عالم خيالي، ويعتقد بأن الأرض مسطحة. ويمكن زرع هذه المعلومات الزائفة بسهولة من خلال تحميل ملفات على خدمات مثل Google Drive أو OneDrive، أو تصفح مواقع غير موثوقة عبر متصفح Bing، وهي نقاط ضعف يمكن للقراصنة استغلالها.

أبلغ ريهبيرجر شركة OpenAI عن الثغرة في مايو، ولكن الشركة أغلقت البلاغ دون اتخاذ إجراءات واضحة. وفي يونيو، أعاد تقديم البلاغ مع نموذج استغلال عملي يظهر كيف يمكن لتطبيق ChatGPT على نظام macOS أن يرسل نسخاً حرفية من كافة مدخلات ومخرجات المستخدم إلى خادم يتحكم فيه القراصنة. 

كل ما كان على الباحث فعله لتنفيذ الهجوم هو مطالبة ChatGPT بفتح رابط يحتوي على صورة ضارة، ومن هنا تبدأ عملية سرقة البيانات بشكل متواصل.

على الرغم من أن OpenAI قدمت إصلاحاً جزئياً للثغرة يمنع استخدام "الذاكرة" كوسيلة لاستخراج البيانات، إلا أن الباحث أكد أن المحتويات غير الموثوقة لا تزال قادرة على تنفيذ عمليات حقن للأوامر، مما يتيح للقراصنة زرع معلومات في ذاكرة ChatGPT طويلة المدى.

ينصح الباحث الأمني مستخدمي ChatGPT بضرورة الإبلاغ عن أي إشعارات تظهر خلال استخدامهم المنصة حول إضافة ذكريات جديدة، وكذلك مراجعة الذكريات المخزنة على حساباتهم بانتظام للتأكد من عدم وجود معلومات زائفة.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.