باتت روبوتات الدردشة مثل "chatgpt" تكتسب حضورًا ملحوظًا في حياة المستخدمين اليومية، حيث تتوسع بسرعة أكبر من التقنيات الحديثة الأخرى، متفوقةً حتى على منصات اجتماعية كبرى كـ"فيسبوك" و"إنستقرام". ورغم المزايا التي تجلبها هذه الروبوتات الذكية، فإنها تثير قلقًا متزايدًا بشأن تأثيرها السلبي، خاصة مع اقتراب الانتخابات الرئاسية الأمريكية لعام 2024، إذ يتزايد الخوف من أن تُستخدم هذه التقنية لنشر المعلومات المضللة وتأجيج الآراء.
ويبرز القلق الأساسي من قدرة "chatgpt" ورفاقه على توليد محتوى يشبه الأسلوب البشري، بما في ذلك النصوص، ومقاطع الفيديو، والصوتيات، مما يسهل تمرير المعلومات الخاطئة لجمهور متنوع. هذه الإمكانية تجعل الروبوتات أدوات فعّالة في نشر المحتوى المضلل، دون الحاجة إلى أفراد محليين لنشر الرسائل الخاطئة.
وذكرت "OpenAI" مؤخرًا أن مجموعة إيرانية استخدمت "chatgpt" في عملية أطلقوا عليها "عاصفة-2035"، حيث استهدفت المجموعة الجالية اللاتينية في الولايات المتحدة بمحتوى مضلل يهدف للتأثير على آرائهم في الانتخابات. وأكدت الشركة أنها حجبت الحسابات المسؤولة عن هذه العملية، مشيرةً إلى أن انتشار هذا المحتوى المضلل كان محدودًا، لكنها لم تتمكن من ضمان حظر جميع الحسابات المشتبه بها، مما يثير تساؤلات حول فعالية الضوابط الأمنية.
تمتاز هذه الروبوتات بقدرتها على تخصيص المحتوى ليتناسب مع شرائح مختلفة من الجمهور، مما يزيد من احتمالية تأثيره، كما في حالة استهداف فئة معينة بناءً على العمر، أو الاهتمامات، أو الخلفية الثقافية. ومن هنا يظهر جليًا كيف يمكن أن تؤدي هذه الروبوتات دورًا خطيرًا في تشكيل الرأي العام إذا تم استغلالها بطرق خبيثة، خاصة عند تخصيص الرسائل لتلائم متطلبات الجمهور المستهدف بشكل دقيق.
وتشير بعض الأبحاث، من بينها دراسة نشرتها "جامعة كورنيل" بالتعاون مع باحثين من "جوجل" و"معهد إم آي تي" وجامعة "هارفارد"، إلى أن نماذج الذكاء الاصطناعي تستطيع التنبؤ بنتائج الانتخابات وتحليل البيانات لاتخاذ إجراءات استراتيجية تهدف للتأثير في آراء الناخبين. وتظهر خطورة هذا السيناريو في قدرة الذكاء الاصطناعي على بناء توقعات دقيقة، مما يتيح للأطراف المعنية تصميم حملات إعلامية موجهة تستهدف التأثير في نتائج الانتخابات.
كما تزداد المخاوف من احتمال اختراق روبوتات الدردشة الكبرى أو استحداث روبوتات دردشة جديدة، يتم برمجتها لنشر المعلومات المضللة بشكل غير مباشر عبر قنوات التواصل الاجتماعي. هذا السيناريو قد يكون أكثر تهديدًا من مجرد توليد المحتوى، حيث يمكن لهذه الروبوتات نقل الشائعات والإجابة عن استفسارات المستخدمين بناءً على معلومات مغلوطة، ما يسهم في نشر الأفكار المضللة.
مع تطور تقنيات الذكاء الاصطناعي والقدرة على تخصيص المحتوى بشكل متزايد، يبدو أن المستقبل يحمل تحديات كبيرة للحفاظ على نزاهة الانتخابات وحماية المستخدمين من التأثيرات السلبية لهذه التكنولوجيا، التي قد تتحول إلى أداة فعّالة لزعزعة الاستقرار ونشر التضليل.
إرسال تعليق