intelligence artificielle" />
المفوضية الأوروبية تطلق مشاورة عامة حول أنظمة الذكاء الاصطناعي عالية المخاطر

المفوضية الأوروبية تطلق مشاورة عامة حول أنظمة الذكاء الاصطناعي عالية المخاطر

TLDR : المفوضية الأوروبية يجب أن تنشر بحلول فبراير 2026 توجيهات لتطبيق AI Act، الذي ينظم أنظمة الذكاء الاصطناعي عالية المخاطر. فتحت مشاورة عامة لتوضيح تصنيف هذه الأنظمة ومسؤوليات الجهات المعنية بتطويرها ونشرها.

بحلول 2 فبراير 2026، يجب على المفوضية الأوروبية إصدار توجيهات حول تنفيذ المادة 6 من AI Act، التي تنظم تصنيف أنظمة الذكاء الاصطناعي (SIA) عالية المخاطر. لرفد هذه الدراسة، فتحت المفوضية، في 6 يونيو الماضي، مشاورة عامة لتوضيح معايير التصنيف، وكذلك الالتزامات والمسؤوليات الملقاة على عاتق الجهات الفاعلة المعنية بتطوير ونشر هذه الأنظمة.
رغم دخول AI Act حيز التنفيذ في 1 أغسطس 2024، فإن تطبيقه سيتم تدريجياً حتى أغسطس 2027. أما المتطلبات المرتبطة بأنظمة الذكاء الاصطناعي عالية المخاطر فستصبح فعالة تمامًا في أغسطس 2026. تشير المادة 6 من AI Act إلى نوعين من أنظمة الذكاء الاصطناعي عالية المخاطر:
  • أنظمة الذكاء الاصطناعي المعدة للاستخدام كمكون أمني لمنتج مشمول بتشريع التوحيد للاتحاد المذكور في الملحق الأول من AI Act أو أنظمة الذكاء الاصطناعي التي تشكل بحد ذاتها منتجًا كهذا (المادة 6(1)) 
  • أنظمة الذكاء الاصطناعي المذكورة في الملحق الثالث من اللائحة التي، بسبب غايتها، تشكل خطرًا كبيرًا على الصحة أو الأمن أو الحقوق الأساسية (المادة 6(2)).
 جميع الأطراف المعنية، من الموردين والمطورين لأنظمة الذكاء الاصطناعي عالية المخاطر إلى المستخدمين العامين والخاصين، مروراً بالمؤسسات الأكاديمية ومراكز الأبحاث والمجتمع المدني والسلطات الرقابية والمواطنين، مدعوون للمساهمة في هذه المشاورة التي ستظل مفتوحة حتى 18 يوليو القادم. ستسمح للمفوضية بجمع أمثلة استخدام واقعية وتحديد الاحتياجات التشغيلية للجهات الفاعلة في القطاع.