آخر الأخبار

تحذير من عمليات الاحتيال باستخدام الذكاء الاصطناعي


 حذر بنك ستارلينغ البريطاني من مخاطر متزايدة لعمليات الاحتيال التي تستخدم تقنيات الذكاء الاصطناعي لاستنساخ أصوات الأفراد، مما يهدد ملايين الأشخاص حول العالم. وفقًا للبيان الصادر عن البنك، يمكن للمحتالين تقليد صوت الشخص باستخدام ثلاث ثوانٍ فقط من الصوت المتوفر، مثل ما يمكن أن يخرج من مقطع فيديو نشره الشخص عبر الإنترنت.

تشير التقارير إلى أن المحتالين بإمكانهم التعرف على أصدقاء وأفراد أسرة الضحية، ثم إجراء مكالمات هاتفية مستخدمين الصوت المستنسخ لطلب المال. وأكد البنك أن هذه الأنواع من الاحتيال قد تؤدي إلى عمليات نصب ضخمة تستهدف العديد من الأفراد.

استنادًا إلى استطلاع أجرته ستارلينغ بنك بالتعاون مع "مورتار ريسيرش"، أظهر أن أكثر من ربع المشاركين تعرضوا لمحاولات احتيال عبر استنساخ الصوت خلال الأشهر الاثني عشر الماضية. وأشار الاستطلاع أيضًا إلى أن 46% من المشاركين لم يكونوا على دراية بوجود مثل هذه الاحتيالات، وأن نحو 8% منهم قد يرسلون أموالاً وفق طلبات تبدو غريبة، اعتمادًا على المكالمة.

ليزا جراهام، كبيرة مسؤولي أمن المعلومات في بنك ستارلينغ، أكدت أن الكثير من الأشخاص يشاركون محتوى صوتيًا عبر الإنترنت دون إدراكهم أنهم بذلك يعرضون أنفسهم للخطر، مضيفة أن المحتالين يواصلون تحسين تقنياتهم.

ولحماية أنفسهم، يشجع البنك عملاءه على الاتفاق على "عبارة آمنة" مميزة يسهل تذكرها، يمكن استخدامها للتحقق من الهوية أثناء المكالمات الهاتفية. وينصح البنك بعدم مشاركة هذه العبارة عبر الرسائل النصية، حيث يمكن أن تسهل على المحتالين اكتشافها. وفي حال تم تبادلها بهذه الطريقة، يُفضل حذف الرسالة فورًا بعد الاطلاع عليها.

مع تطور الذكاء الاصطناعي وقدرته المتزايدة على تقليد الأصوات البشرية، تتزايد المخاوف بشأن تأثيره السلبي المحتمل. وقد يؤدي ذلك إلى تعريض الأشخاص للخطر، كمنح المجرمين فرصة للوصول إلى حساباتهم المصرفية ونشر المعلومات المضللة.

في سياق مشابه، أعلنت شركة "أوبن آي" المصنعة لروبوت الدردشة "شات جي بي تي" في وقت سابق من هذا العام عن أداة النسخ الصوتي "فويس إنجين"، لكنها لم تجعلها متاحة للجمهور بسبب القلق من احتمال إساءة استخدام التكنولوجيا.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.