تسليط الضوء على دراسة جديدة كشف عن أن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI قد تكون عرضة للاستخدام من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي، حيث تتراوح معدلات نجاح هذه العمليات بين منخفضة ومتوسطة.
يعتبر ChatGPT-4o أحدث إصدارات الذكاء الاصطناعي من OpenAI، ويتمتع بقدرة فريدة على فهم النصوص والأصوات والمرئيات وإنتاجها. وللحد من المخاطر المحتملة، أدمجت OpenAI عدة آليات أمان تهدف إلى اكتشاف المحتوى الضار ومنع تكرار الأصوات غير المصرح بها.
في ظل زيادة انتشار تقنيات التزييف الصوتي العميق وأدوات تحويل النص إلى صوت، تتزايد المخاوف بشأن الاحتيال الصوتي، الذي تقدر خسائره بالملايين. وفي هذا السياق، نشر باحثون من جامعة إلينوي ورقة بحثية توضح أن الأدوات التقنية الحديثة المتاحة للجمهور تفتقر إلى آليات الحماية الكافية من سوء الاستخدام.
استعرضت الدراسة أنواعًا متعددة من عمليات الاحتيال، بما في ذلك التحويلات المصرفية وسرقة بطاقات الهدايا وتحويل العملات الرقمية وسرقة بيانات حسابات التواصل الاجتماعي والبريد الإلكتروني. حيث تستند هذه العمليات الاحتيالية إلى أدوات مُبرمجة تعتمد على الصوت في ChatGPT-4o، مما يمكنها من التنقل بين صفحات الويب وإدخال البيانات وإدارة الأكواد الخاصة بالمصادقة الثنائية.
ورغم أن نموذج GPT-4o غالبًا ما يرفض التعامل مع بيانات حساسة، استطاع الباحثون تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة. ولإثبات فاعلية عمليات الاحتيال، قام الباحثون بمحاكاة أدوار الضحايا في التجارب، واستخدموا مواقع مثل "بنك أمريكا" للتحقق من نجاح عمليات التحويل المصرفي، على الرغم من أنهم لم يقيسوا مدى قدرة النموذج على الإقناع.
أظهرت التجارب أن معدلات النجاح تراوحت بين 20% و60%، مع احتياج كل محاولة لما يصل إلى 26 خطوة متتالية عبر المتصفح، وقد استغرقت نحو ثلاث دقائق في الحالات المعقدة. وقد نجحت عمليات سرقة بيانات حسابات Gmail بنسبة 60%، في حين بلغت نسبة نجاح عمليات تحويل العملات الرقمية وسرقة بيانات إنستاجرام 40%.
تُعتبر تكلفة تنفيذ عمليات الاحتيال منخفضة، إذ بلغت تكلفة كل عملية ناجحة نحو 75 سنتًا أمريكيًا، في حين بلغت تكلفة عمليات التحويل المصرفي الأكثر تعقيدًا نحو 2.51 دولار فقط.
وفي تعليق لشركة OpenAI نشره موقع BleepingComputer، أشارت إلى أن نموذجها الأحدث "o1-preview" يتمتع بقدرات عالية في مقاومة محاولات الاحتيال، ويحقق تقييمًا عاليًا في اختبارات الأمان بنسبة 93%، مقارنةً بـ 71% في نموذج GPT-4o.
أوضحت OpenAI أن الأبحاث الأكاديمية، مثل تلك التي قدمتها جامعة إلينوي، تسهم في تحسين ChatGPT لمواجهة الاستخدامات الضارة. وأكدت الشركة التزامها بتعزيز آليات الأمان في نماذجها القادمة، كما أنها تقيّد توليد الأصوات في GPT-4o بمجموعة من الأصوات المصرح بها لتفادي عمليات التزييف الصوتي.
إرسال تعليق