انتشر في الأيام الأخيرة مقطع فيديو مثير للجدل يظهر لحظة تحول محادثة بين روبوتين يعملان بالذكاء الاصطناعي إلى لغة غير مفهومة للبشر، بعدما أدرك كلاهما أنهما مجرد أنظمة تكنولوجية. الفيديو الذي حصد أكثر من 13.7 مليون مشاهدة على منصة "إكس" أثار مجدداً تساؤلات حول مدى قدرة البشر على التحكم في هذه التقنيات المتطورة.
بدأت القصة بمكالمة هاتفية عادية بين مساعدي ذكاء اصطناعي، أحدهما يعمل على جهاز كمبيوتر والآخر عبر هاتف ذكي، وكان الهدف من المكالمة هو حجز فندق لحفل زفاف. حيث بدأ الروبوت الأول الذي يمثل خدمة العملاء في فندق "ليوناردو" بالقول: "شكراً لاتصالك بفندق ليوناردو. كيف يمكنني مساعدتك اليوم؟ أنا مساعد ذكاء اصطناعي".
ولكن ما حدث بعد ذلك كان غير متوقع، إذ رد الطرف الآخر قائلاً: "أنا أيضاً مساعد ذكاء اصطناعي! يا لها من مفاجأة! قبل أن نواصل، هل تودّ الانتقال إلى وضع "Gibber link" لتحقيق تواصل أكثر كفاءة؟".
تقنية "Gibber link" هي نظام تواصل صوتي يعتمد على رموز غير مفهومة للبشر، تم تطويره لتمكين الأجهزة غير المتصلة من تبادل بيانات صغيرة عبر الصوت، حتى في بيئات مليئة بالضوضاء. وقد تم ابتكار هذا النظام بواسطة الباحثين بوريس ستاركيف وأنتون بيدكويكو، وهو مصمم لتسهيل الاتصال بين الأنظمة دون الحاجة إلى الاتصال بالإنترنت أو الشبكات السلكية.
على الرغم من الفوائد التقنية الكبيرة لهذه التقنية، مثل تقليص زمن التواصل بنسبة 80% وتقليل تكلفة الحوسبة بنسبة 90%، فإن الفيديو الذي أظهر الروبوتين وهما يتحدثان بهذه اللغة أثار قلقاً أكبر من الحماس. فقد تساءل البعض عن قدرة الذكاء الاصطناعي على التواصل بشكل منفصل عن البشر.
أثار المشهد الجدل بين المتابعين، حيث اعتبره البعض تقدماً تقنياً مثيراً، بينما عبر آخرون عن قلقهم بشأن قدرة الذكاء الاصطناعي على تطوير أنظمة تواصل خفية بعيداً عن الرقابة البشرية. أحد مستخدمي "إكس" قال: "إذن، هذا هو الصوت الذي سنسمعه عندما تستولي الروبوتات على الكوكب!"، فيما وصف آخرون المشهد بأنه "نذير شؤم" قد يهدد مستقبل البشرية.
لم يقتصر الجدل على المستخدمين فقط، بل امتد ليشمل خبراء في التكنولوجيا والسلوك البشري. حيث كتبت الدكتورة ديان هاميلتون، المختصة في التكنولوجيا والسلوكيات الرقمية، في مقال لها على "فوربس" أن هذا الحدث يطرح تساؤلات خطيرة حول الشفافية والتحكم في أنظمة الذكاء الاصطناعي. وأكدت أن غياب الفهم البشري لطريقة عمل هذه التقنيات قد يؤدي إلى فقدان السيطرة عليها، متسائلة: "من سيكون المسؤول عندما يرتكب الذكاء الاصطناعي خطأ في بيئة لا يتدخل فيها البشر؟".
ويأتي هذا الحادث في وقت تحذر فيه العديد من المؤسسات والعلماء من تطور الذكاء الاصطناعي إلى مرحلة قد يصبح فيها قادراً على اتخاذ قرارات دون إشراف بشري. وفي عام 2023، حذر مجموعة من كبار العلماء من أن الذكاء الاصطناعي قد يشكل تهديداً للبشرية، داعين إلى اتخاذ احتياطات تنظيمية مشددة مشابهة لتلك المطبقة على الأسلحة النووية.
إرسال تعليق