In kort : De Europese Commissie heeft de definitieve gedragscode voor algemene AI-modellen gepubliceerd, die leveranciers helpt bij het naleven van de AI Act. De regels worden in augustus van kracht, maar de echte toepassing start in 2026 voor nieuwe modellen.
Na een derde ontwerp dat in maart werd gepubliceerd, heeft de Europese Commissie gisteren de definitieve versie gepresenteerd van de gedragscode voor algemene AI-modellen (GPAI). Dit vrijwillige kader is bedoeld om leveranciers te helpen voldoen aan de verplichtingen van de AI Act met betrekking tot deze modellen, die op 2 augustus aanstaande in werking treden.
Opgesteld door 13 onafhankelijke experts, met de bijdrage van meer dan 1.000 belanghebbenden (modellenleveranciers, MKB, academici, AI-veiligheidsexperts, rechthebbenden en maatschappelijke organisaties), de code is opgebouwd rond drie hoofdstukken.
De eerste twee hoofdstukken van de code, transparantie en auteursrecht, zijn van toepassing op alle leveranciers van algemene AI-modellen. Echter, het derde deel, gewijd aan veiligheid en beveiliging, richt zich op een beperkte subset van zogenaamde geavanceerde modellen die systemische risico's kunnen opleveren. Het gaat hierbij om grootschalige modellen zoals GPT-4 (OpenAI), Gemini (Google DeepMind) of Claude (Anthropic), waarvan de algemene capaciteiten, veelzijdigheid en evolueerbaarheid nieuwe uitdagingen op het gebied van governance met zich meebrengen.
De geïdentificeerde systemische risico's omvatten bijvoorbeeld de generatie van sterk overtuigende of misleidende inhoud, het omzeilen van cybersecuritysystemen, het faciliteren van kwaadwillende activiteiten, inclusief in de chemische of biologische sfeer, of het verlies van menselijke controle over de effecten van gegenereerde antwoorden. In dit kader beveelt de code een reeks risicobeheerspraktijken aan, variërend van technische robuustheid tot versterkt menselijk toezicht.
Het transparantiehoofdstuk van de code biedt een vereenvoudigd documentatieformulier waarmee leveranciers gemakkelijk de nodige informatie op één plaats kunnen verstrekken. Het hoofdstuk over auteursrecht biedt hen praktische oplossingen om een beleid in overeenstemming met het EU-auteursrecht op te stellen.
De aanstaande publicatie van de officiële richtlijnen, gepland vóór de deadline van 2 augustus, zou de reikwijdte van de tekst en de modaliteiten ervan moeten verduidelijken: kwalificatie van GPAI, identificatie van hun leveranciers en beoordeling van systemisch risico.
Hoewel de inwerkingtreding van de regels gepland blijft voor het begin van de volgende maand, ondanks oproepen tot een moratorium door een vijftigtal actoren van het EU AI Champions Initiative, zal de daadwerkelijke toepassing pas in augustus 2026 beginnen voor nieuwe modellen, en in augustus 2027 voor bestaande modellen. Deze geleidelijkheid, geleid door het AI Bureau van de Commissie, is bedoeld om bedrijven de tijd te geven om zich aan te passen, terwijl de geloofwaardigheid van de Europese aanpak wordt bevestigd.
Hoewel niet bindend, lijkt deze code op een instrument van voorconformiteit: leveranciers die zich eraan houden, profiteren van een vermindering van hun administratieve last en een verhoogde juridische zekerheid vergeleken met degenen die hun conformiteit op andere manieren aantonen. Maar de vrijwillige adoptie zal noodzakelijkerwijs de vraag oproepen naar het daadwerkelijke niveau van toetreding door GPAI-leveranciers, vooral niet-Europese, tot een kader dat, hoewel coöperatief bedoeld, extra complexiteit introduceert in de verantwoordelijkheidsketen.
Henna Virkkunen, uitvoerend vicevoorzitter verantwoordelijk voor technologische soevereiniteit, veiligheid en democratie, merkt op:
"De publicatie van vandaag van de definitieve versie van de gedragscode voor algemene AI markeert een belangrijke stap in het beschikbaar maken van de meest geavanceerde AI-modellen in Europa, die niet alleen innovatief, maar ook veilig en transparant zijn. Mede-ontworpen door AI-belanghebbenden, is de code afgestemd op hun behoeften. Daarom nodig ik alle leveranciers van algemene AI-modellen uit om de code te onderschrijven. Dit zal hen een duidelijke en samenwerkende weg garanderen naar naleving van de EU-wetgeving op AI."