TLDR : قانون AI، التنظيم الأوروبي للذكاء الاصطناعي، ساري المفعول منذ فبراير 2024، رغم معارضة بعض الشركات. يفرض التزامات تتعلق بالنماذج العامة للاستخدام العام للذكاء الاصطناعي، بما في ذلك وثائق تقنية شاملة، سياسة احترام حقوق الطبع والنشر وملخص للبيانات التدريبية. تواجه الشركات غير الملتزمة غرامات تصل إلى 15 مليون يورو أو 3٪ من إيراداتها العالمية.
المحتوى
بدأت أولى أحكام AI Act، التي دخلت حيز التنفيذ في أغسطس 2024، والمتعلقة بأنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة في التطبيق منذ فبراير الماضي. ورغم مطالبة حوالي خمسين شركة من مبادرة EU AI Champions Initiative بوقف تنفيذ القانون، إلا أن الالتزامات المتعلقة بالنماذج العامة للاستخدام العام للذكاء الاصطناعي أصبحت سارية المفعول اعتبارًا من السبت الماضي.
كانت UE رائدة في وضع إطار تنظيمي يهدف إلى تنظيم الذكاء الاصطناعي وفقًا لإمكانية تسببه في أضرار. يهدف AI Act أو RIA إلى ضمان استخدام الأنظمة والنماذج الذكاء الاصطناعي المسوقة داخل UE بشكل أخلاقي وآمن ومع احترام الحقوق الأساسية للاتحاد الأوروبي.
توضح الإرشادات التي نشرتها المفوضية الأوروبية في 18 يوليو الماضي تطبيق نطاق التنظيم للنماذج العامة للاستخدام العام للذكاء الاصطناعي. أي نموذج ذكاء اصطناعي يعرض قدرة حسابية تزيد عن 10^23 FLOPs (أي حجم العمليات الحسابية العائمة المستخدمة أثناء التدريب)، مصمم بدون غرض محدد (توقعات الطقس، الألعاب...) ولكن يمكن إعادة استخدامه في مجموعة متنوعة من السياقات، سيعتبر ضمن هذه الفئة.
تشمل الالتزامات جميع مراحل دورة حياة النماذج، من ما قبل التدريب إلى التوافر، مرورًا بالتحديثات والتعديلات اللاحقة على طرح السوق. يجب على مورديها تقديم:
- وثائق تقنية شاملة، موجهة للموردين في المصب الذين يدمجون النموذج في نظام الذكاء الاصطناعي الخاص بهم، وإذا طلب، إلى مكتب الذكاء الاصطناعي الأوروبي (AI Office) أو السلطات الوطنية المختصة.
- ملخص للبيانات التدريبية، وفقًا للنموذج الموحد الذي سيقدمه لهم AI Office
- وضع سياسة لاحترام حقوق الطبع والنشر، متوافقة مع القانون الأوروبي.
يبقى المبدأ الأساسي للتنظيم دون تغيير: كلما زادت المخاطر، كلما زادت المتطلبات. يتم تعزيز هذه الالتزامات للنماذج العامة للاستخدام العام للذكاء الاصطناعي التي تعتبر ذات مخاطر نظامية، وهي النماذج التي تتجاوز عتبة 10^25 FLOPs المتراكمة. يتعين على هذه النماذج الخضوع لإجراءات إدارة مخاطر معززة، بما في ذلك في مجال الأمن السيبراني، والإبلاغ عن الحوادث الخطيرة، أو حتى الاختبارات المستمرة. تحدي تنظيمي يعتبر صعب التحمل...
ومع ذلك، فإن هذه العتبة ليست جامدة: يمكن لمقدمي الخدمات طلب إعادة تقييم المخاطر الحقيقية.
الموردون، التعديلات والحالة مفتوحة المصدر
أي شركة تطرح نموذجًا في السوق الأوروبية تعتبر موردًا، بغض النظر عن مكان التطوير الأولي. ومع ذلك، فإن جهة فاعلة في المصب قامت بتعديل النموذج باستخدام أكثر من ثلث قدرته الحسابية الأولية، تعتبر أيضًا موردًا وتخضع للالتزامات.
النماذج المنشورة تحت ترخيص حر ومفتوح تستفيد من نظام إعفاء جزئي. بشرط الامتثال لمعايير معينة (عدم تحقيق الربح أو جمع البيانات الشخصية)، لا تخضع هذه النماذج للالتزامات الوثائقية للموردين في المصب أو السلطات. ومع ذلك، عندما تتجاوز مستوى الخطر النظامي، لا ينطبق أي إعفاء.
مدونة الممارسات الجيدة
رغم دخولها حيز التنفيذ في 2 أغسطس الماضي، لن تطبق هذه القواعد حتى أغسطس 2026 للنماذج الجديدة، وفي أغسطس 2027 للنماذج الحالية. تهدف هذه العملية التدريجية، التي يديرها مكتب الذكاء الاصطناعي، إلى منح الشركات الوقت للتكيف.
لمساعدة الموردين على الامتثال، نشرت المفوضية، قبل أيام قليلة من توجيهاتها، مدونة للممارسات الجيدة. أولئك الذين يختارون الالتزام بها سيستفيدون من تقليل العبء الإداري وزيادة الأمان القانوني مقارنةً بمن يثبتون الامتثال بطرق أخرى. Google، OpenAI، Mistral، Microsoft فعلوا ذلك بالفعل بينما رفضت Meta، مشيرة إلى عدم اليقين القانوني وتوسيع غير مبرر للإطار التنظيمي.
يمكن أن تصل الغرامات المقررة لعدم الامتثال لهذه الالتزامات إلى 15 مليون يورو أو 3٪ من الإيرادات العالمية للشركات. يجب على كل دولة عضو في UE إبلاغ المفوضية بالسلطات الرقابية التي ستراقب الشركات. إذا لم يتم تعيين أي منها حتى الآن من قبل فرنسا، فمن المتوقع أن تلعب Cnil دورًا مركزيًا، كما يتم النظر في هيئات قطاعية مثل Arcom أو Anssi.