بدأت قواعد قانون الذكاء الاصطناعي الجديدة في الاتحاد الأوروبي بالعمل من يوم الخميس، الأول من أغسطس 2024، لتحدد إطارًا تنظيمياً شاملاً لتطبيقات هذه التقنية المتطورة.
القانون الجديد يصنف تطبيقات الذكاء الاصطناعي بناءً على المخاطر المحتملة، حيث يمنع بعض الاستخدامات في سياقات معينة مثل استعمال القياسات الحيوية عن بعد في الأماكن العامة من قبل أجهزة إنفاذ القانون.
في إطار التصنيف، تُعد معظم تطبيقات الذكاء الاصطناعي ذات المخاطر المنخفضة أو المعدومة غير خاضعة للتنظيم. أما التطبيقات عالية المخاطر مثل تلك المستخدمة في التعليم والتوظيف، فستواجه التزامات صارمة في إدارة المخاطر وضمان الجودة.
التطبيقات ذات المخاطر المتوسطة مثل روبوتات الدردشة وأدوات التزييف العميق ستخضع لمتطلبات الشفافية لضمان عدم خداع المستخدمين.
القانون ينص أيضًا على فرض عقوبات مالية كبيرة للمخالفين، تصل إلى 7% من إجمالي العائدات السنوية العالمية للتطبيقات المحظورة، و3% لانتهاكات الالتزامات الأخرى، و1.5% لتقديم معلومات غير صحيحة للجهات التنظيمية.
كما يتضمن القانون أحكامًا خاصة لمطوري الذكاء الاصطناعي ذي الأغراض العامة، حيث ستخضع النماذج الأكثر تطورًا لتقييم المخاطر وإجراءات التخفيف منها.
أطلق مكتب الذكاء الاصطناعي الأوروبي مشاورات لوضع مدونات ممارسة، والتي من المتوقع الانتهاء منها في أبريل 2025.
وفي هذا السياق، أعلنت شركة OpenAI عن نيتها العمل بشكل وثيق مع السلطات الأوروبية لتنفيذ القانون الجديد، وإعداد الوثائق التقنية والإرشادات اللازمة لمقدمي الخدمات والمستخدمين. الشركة نصحت المؤسسات بتصنيف أنظمة الذكاء الاصطناعي التي تستخدمها وتحديد التزاماتها وفقًا للقانون الجديد، مع التأكيد على أهمية استشارة المختصين القانونيين نظراً لتعقيد هذه القضايا.
إرسال تعليق