AI Yasası için Yeni Bir Aşama: Genel Kullanım Amaçlı Yapay Zeka Modelleri İçin Yükümlülükler Yürürlüğe Girdi

AI Yasası için Yeni Bir Aşama: Genel Kullanım Amaçlı Yapay Zeka Modelleri İçin Yükümlülükler Yürürlüğe Girdi

Kısa : AI Yasası, yapay zeka (YZ) üzerine Avrupa düzenlemesi, bazı şirketlerin muhalefetine rağmen Şubat 2024'ten beri yürürlükte. Genel kullanım amaçlı yapay zeka modelleri hakkında, kapsamlı teknik belgeler, telif hakkı saygı politikası ve eğitim verilerinin özeti gibi yükümlülükler getiriyor. Uyum sağlamayan şirketler, 15 milyon euroya veya dünya çapındaki cirolarının %3'üne varan para cezalarıyla karşılaşabilir.

AI Yasası'nın, kabul edilemez risk taşıyan yapay zeka sistemlerine ilişkin ilk hükümleri, geçen şubat ayında uygulanmaya başlandı. EU AI Champions Initiative kapsamında elliye yakın şirketin düzenlemenin ilerleyişinin durdurulmasını talep eden "Zamanı Durdur" çağrısına rağmen, genel kullanım amaçlı yapay zeka modelleri (GPAI) ile ilgili yükümlülükler geçen cumartesi itibarıyla yürürlüğe girdi.
AB, yapay zekanın zarar potansiyeline göre düzenlenmesini hedefleyen bir düzenleyici çerçeve oluşturma konusunda öncülük etti. AI Yasası'nın veya RIA'nın amacı, AB'de ticari olarak sunulan yapay zeka sistemlerinin etik, güvenli ve AB'nin temel haklarına saygılı bir şekilde kullanılmasını sağlamaktır.
Avrupa Komisyonu tarafından 18 Temmuz'da yayımlanan kılavuzlar, GPAI modelleri için düzenlemenin kapsamının uygulanmasını açıklığa kavuşturuyor. Eğitim sırasında kullanılan 10²³ FLOPs'un (yani kayan nokta işlemleri) üzerinde hesaplama kapasitesine sahip, belirli bir amaç için tasarlanmamış (hava tahmini, oyunlar...) ancak çeşitli bağlamlarda yeniden kullanılabilecek her yapay zeka modeli bu kategoriye girmektedir.
Yükümlülükler, modellerin yaşam döngüsünün tamamını kapsar, ön eğitimden piyasaya sunulmasına, güncellemelerden piyasaya sürüldükten sonraki değişikliklere kadar. Sağlayıcılar şunları sağlamalıdır:
  • Aşağı akış sağlayıcılarının sistemlerinde modeli entegre etmeleri için kapsamlı teknik belgeler ve talep edilmesi halinde Avrupa AI Ofisi veya ulusal yetkili makamlara sunulacak belgeler.
  • AI Ofisinin sağlayacağı standart modele göre eğitim verilerinin özeti.
  • Avrupa hukukuna uygun telif hakkı saygısı politikası oluşturulması.
Düzenlemenin temel ilkesi değişmeden kalır: Risk ne kadar yüksekse, gereksinimler o kadar güçlüdür. Sistemik risk olarak kabul edilen ve 10²⁵ FLOPs eşiğini aşan GPAI modelleri için yükümlülükler daha da güçlendirilmiştir, özellikle siber güvenlik, ciddi olay raporlaması veya sürekli testler gibi konularda risk yönetim prosedürlerine tabi tutulmalıdırlar. Bu düzenleyici yükün sürdürülebilir olmadığı düşünülmektedir...
Bununla birlikte, bu eşik katı değildir: Sağlayıcılar gerçek risklerin yeniden değerlendirilmesini talep edebilirler.

Sağlayıcılar, Değişiklikler ve Açık Kaynak Statüsü

Avrupa pazarında bir model sunan her şirket, başlangıçta nerede geliştirildiğinden bağımsız olarak sağlayıcı olarak kabul edilir. Ancak, modelin başlangıçtaki hesaplama gücünün üçte birinden fazlasını kullanarak bir değişiklik yapan aşağı akış aktörü de sağlayıcı olarak kabul edilir ve yükümlülüklere tabi olur.
Açık ve özgür lisans altında yayınlanan modeller kısmi muafiyetten yararlanır. Belirli kriterler karşılandığı sürece (ticarileştirme veya kişisel veri toplama yoksa), bu modeller, aşağı akış sağlayıcılarına veya yetkililere dokümantasyon yükümlülüklerine tabi değildir. Ancak, sistemik risk eşiğini aştıklarında hiçbir muafiyet uygulanmaz.

İyi Uygulamalar Kodu

Bu kurallar 2 Ağustos'ta yürürlüğe girmesine rağmen, yeni modeller için Ağustos 2026'da ve mevcut modeller için Ağustos 2027'de uygulanacaktır. AI Ofisi tarafından yönetilen bu kademeli uygulama, şirketlerin uyum sağlaması için zaman tanımayı amaçlamaktadır.
Sağlayıcıların uyum sağlamalarına yardımcı olmak için, Komisyon, yönergelerinden birkaç gün önce iyi uygulamalar kodu yayımladı. Buna uymayı seçenler, idari yüklerinin azaltılması ve uyumluluklarını başka yollarla kanıtlayanlara kıyasla artan bir yasal güvenlikten yararlanacaktır. Google, OpenAI, Mistral, Microsoft bunu zaten yaptı, Meta ise hukuki belirsizlikler ve düzenleyici çerçevenin haksız genişletilmesini gerekçe göstererek reddetti.
Bu yükümlülüklere uymamanın cezaları, şirketlerin dünya çapındaki cirolarının %3'üne veya 15 milyon avroya kadar çıkabilir. AB'nin her üye devleti, şirketleri denetleyecek gözetim makamlarını Komisyona bildirmelidir. Fransa tarafından henüz hiçbir makam atanmış olmasa da, Cnil'in merkezi bir rol oynaması bekleniyor, sektörel kuruluşlar olarak Arcom veya Anssi de düşünülmektedir.