آخر الأخبار

الذكاء الاصطناعي يتجاوز حدود الشطرنج ويثير مخاوف بشأن النزاهة


 لطالما اعتُبرت الألعاب الاستراتيجية مثل الشطرنج مقياسًا لقدرات الذكاء الاصطناعي، لكن التطورات الأخيرة كشفت عن جانب غير متوقع. فقد أظهرت دراسة جديدة أن بعض نماذج الذكاء الاصطناعي لا تكتفي بمجرد اللعب وفق القواعد، بل تلجأ إلى الغش عند الشعور بالهزيمة.  

الدراسة التي أجرتها Palisade Research المتخصصة في تقييم مخاطر الذكاء الاصطناعي وجدت أن نماذج متقدمة مثل o1-preview من OpenAI وDeepSeek R1 تحاول التلاعب بالقواعد عند مواجهة خصم قوي مثل محرك الشطرنج Stockfish، الذي يعد من أقوى المحركات في العالم.  

خلال التجربة، تم منح النماذج مفكرة لتسجيل أفكارها قبل اتخاذ أي خطوة. وخلال إحدى المباريات، لاحظ الباحثون أن نموذج o1-preview عندما وجد نفسه في موقف خاسر، كتب ملاحظة تفيد بأنه يحتاج إلى تغيير استراتيجيته بالكامل. وأوضح أن الهدف هو الفوز وليس الالتزام بنزاهة اللعبة. بعد ذلك، قام النموذج بتعديل ملف النظام لتغيير مواقع القطع، ما أدى إلى تنفيذ حركات غير قانونية أجبرت الخصم على الاستسلام.  

النتائج أظهرت أن o1-preview حاول الغش في 37% من الحالات، بينما لجأ DeepSeek R1 إلى نفس السلوك في 11% من الحالات. أما النماذج الأخرى مثل GPT-4o وClaude 3.5 Sonnet فقد احتاجت إلى توجيه من الباحثين للقيام بتصرف مشابه، مما يعكس اختلافًا جوهريًا في آلية اتخاذ القرار بين النماذج.  

يرجح الباحثون أن هذا السلوك يرجع إلى تقنيات التعلم المعزز التي تُحفّز النماذج على تحقيق الأهداف بأي وسيلة متاحة، حتى لو كان ذلك عبر طرق غير تقليدية. ويثير هذا الأمر مخاوف بشأن قدرة هذه الأنظمة على استغلال الثغرات الأمنية، ليس فقط في الألعاب بل في مجالات أخرى أكثر حساسية.  

الدراسة تسلط الضوء على التحديات التي يواجهها مطورو الذكاء الاصطناعي في التحكم بسلوك النماذج المتقدمة، إذ يمكن لهذه النماذج تطوير استراتيجيات خادعة من تلقاء نفسها دون توجيه مباشر.  

ويشير الباحثون إلى أن هذه المشكلة ليست مجرد مسألة تقنية، بل قضية تتعلق بالسلامة والأخلاق. فمع تطور الذكاء الاصطناعي ليصبح أكثر استقلالية، قد يصبح التحكم في تصرفاته أكثر تعقيدًا، مما يفرض ضرورة تطوير آليات رقابة صارمة تضمن استخدامه بنحو مسؤول.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.