آخر الأخبار

الاتحاد الأوروبي يضع قانوناً جديداً لتنظيم استخدام الذكاء الاصطناعي


 أقر الاتحاد الأوروبي قانوناً جديداً لتنظيم استخدام الذكاء الاصطناعي، ويعتبر الأول من نوعه عالمياً. هذا القانون، الذي دخل حيز التنفيذ الخميس، يحدد مجموعة من المجالات التي يعتبر استخدامها للذكاء الاصطناعي عالي الخطورة.

يتضمن القانون الجديد بنوداً سيتم تطبيقها تدريجياً خلال العامين المقبلين، مما يمنح الشركات فترة سماح لإجراء التغييرات اللازمة والالتزام بالمتطلبات الجديدة. يحدد الملحق الثالث للقانون استخدامات الذكاء الاصطناعي عالية الخطورة في عدة مجالات، تشمل تحليل بيانات المواطنين البيومترية، مثل التعرف على الوجوه عبر أنظمة المراقبة.

يشمل القانون أيضاً استخدام الذكاء الاصطناعي في التصنيف البيومتري وتحليل المشاعر، ولكنه يستثني أنظمة تأكيد الهوية عبر التعرف على الوجوه. كما يشير إلى استخدام الذكاء الاصطناعي في البنية التحتية كأنظمة الأمان والحماية في المرافق الحيوية، مثل إدارة حركة المرور وأنظمة إمداد المياه والكهرباء.

ركز القانون على تقنين استخدام الذكاء الاصطناعي في بيئات العمل والتعليم، معتبراً أن استخدامه في هذه المجالات "عالي الخطورة". يشمل ذلك قبول الأفراد في البرامج التعليمية والتدريبية، ومراقبة سلوكهم وتقييم أدائهم، وصولاً إلى مراحل التوظيف وإعداد إعلانات الوظائف وفرز السير الذاتية.

أيضاً، أشار القانون إلى خطورة استخدام الذكاء الاصطناعي في تحديد أحقية الأشخاص للحصول على الخدمات العامة والخاصة، مثل الرعاية الصحية والمساعدات الاجتماعية، وتقييم جدارتهم للحصول على التأمين والائتمان.

لم يغفل المشرعون الأوروبيون عن سلطات إنفاذ القانون، حيث صنفوا استخدام الذكاء الاصطناعي في هذا المجال كعالي الخطورة. يشمل ذلك تقييم خطر أن يصبح شخص ما ضحية للجرائم أو استخدامه كأدوات في التحقيقات والبحث وكشف الكذب.

شمل القانون أيضاً تنظيم دخول المهاجرين واللاجئين، باستخدام الأنظمة الذكية لفحص طلبات اللجوء والتأشيرات، ومراقبة الهجرة غير النظامية. كما تضمن القانون استخدام الذكاء الاصطناعي في مساعدة القضاة وتفسير القوانين وتأثيره على نتائج الانتخابات.

تشمل المادة السادسة من القانون تحديد حالات الاستخدام "عالي الخطورة" للذكاء الاصطناعي وإجراء تقييم من جهة خارجية قبل طرح النظام في السوق. وتقدم المفوضية الأوروبية إرشادات وأمثلة على الأنظمة ذات المخاطر العالية قبل فبراير 2026، لضمان التزام الشركات والمؤسسات بالمعايير الجديدة وتعزيز الأمان والثقة في استخدام الذكاء الاصطناعي.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.