Op 22 januari 2024 werd de bijna definitieve tekst van de Europese Unie’s Artificial Intelligence Act (“EU AI Act”) gelekt. Het betrof een 892 pagina’s tellend document waarin verschillende voorschriften van de EU AI Act werden vergeleken, gevolgd door een 258 pagina’s lange geconsolideerde tekst. Vervolgens werd de definitieve tekst van de AI-wet op 2 februari door alle 27 EU-lidstaten goedgekeurd.
Deze wet zal de eerste uitgebreide set wereldwijde regels zijn die het gebruik van kunstmatige intelligentie (AI) reguleert, met als doel ervoor te zorgen dat “AI-systemen die op de Europese markt worden gebracht en in de EU worden gebruikt, veilig zijn en de fundamentele rechten en EU-waarden respecteren“.
Dit markeert een belangrijke stap richting de regulering van AI-ontwikkeling en -inzet binnen Europa. Deze blogpost behandelt de belangrijkste inzichten uit de Act, benadrukt wat er nieuw is en vergelijkt het met eerdere concepten.
Belangrijke inzichten rond de gelekte EU AI Act:
Scope en Definities
De Act behoudt de brede aanpak van eerdere concepten en reguleert AI-systemen in de hele EU op basis van een definitie van AI-systemen die in lijn is met de OESO-definitie. Het biedt details over wie de Act moet naleven en welke verplichtingen gelden voor aanbieders en gebruikers van AI-systemen.
Toch verduidelijkt het uitzonderingen voor militaire AI, wetenschappelijk onderzoek en open-source systemen. De definitie van AI-systemen blijft grotendeels ongewijzigd en benadrukt hun autonomie, aanpassingsvermogen en vermogen om omgevingen te beïnvloeden. Een nieuwe toevoeging is de definitie van “GPAI-modellen” (algemeen toepasbare AI-modellen) die in staat zijn verschillende taken uit te voeren.
Verboden AI-systemen en Risicogebaseerde Benadering
Het verbod op biometrische identificatiesystemen voor algemeen gebruik en de beperking op realtime biometrische identificatie op afstand blijven bestaan. Daarnaast verbiedt de Act AI-systemen die kwetsbaarheden uitbuiten op basis van leeftijd, handicap of sociale/economische status.
De risicogebaseerde benadering voor hoogrisico AI-systemen blijft overeind. De classificatiemechanisme combineert nu echter abstracte definities met specifieke lijsten in Bijlagen II en III van de Act.
Algemeen Toepasbare AI-Modellen (GPAI-Modellen)
Een aparte sectie behandelt GPAI-modellen met “systemisch risico” op basis van hoge impact of wanneer ze een drempel voor rekencapaciteit overschrijden. Aanbieders krijgen verplichtingen zoals documentatie, samenwerking en incidentrapportage.
Een GPAI-model wordt gedefinieerd als “een AI-model dat, zelfs als het getraind is met een grote hoeveelheid data en gebruik maakt van grootschalige zelf-supervisie, significante algemeenheid vertoont en in staat is om bekwaam een breed scala aan verschillende taken uit te voeren, ongeacht hoe het model op de EU-markt wordt gebracht en dat kan worden geïntegreerd in een verscheidenheid aan downstream-systemen of -toepassingen” (Art. 3(1)(44b) EU AI Act).
De classificatie van GPAI-modellen met systemisch risico wordt behandeld in Art. 52a EU AI Act. Een GPAI-model wordt beschouwd als een systemisch risico als het hoge impactmogelijkheden heeft of als zodanig wordt geïdentificeerd door de Commissie. Een GPAI-model wordt verondersteld hoge impactmogelijkheden te hebben als de hoeveelheid rekencapaciteit, gemeten in floating point operations (FLOPs), groter is dan 10^25.
De relevante aanbieder van GPAI is verplicht de Commissie onverwijld, en in ieder geval binnen twee weken, op de hoogte te stellen nadat aan die vereisten is voldaan of zodra het weet dat aan die vereisten zal worden voldaan. Een lijst van AI-modellen met systemisch risico zal door de Commissie worden gepubliceerd en regelmatig bijgewerkt, met inachtneming van de noodzaak om intellectuele eigendomsrechten en vertrouwelijke bedrijfsinformatie of bedrijfsgeheimen te respecteren en te beschermen.
Deep Fakes
De definitie van “deep fakes” als gemanipuleerde content die op echte entiteiten of gebeurtenissen lijkt, blijft ongewijzigd.
De tekst stelt echter transparantieverplichtingen vast voor aanbieders en gebruikers van bepaalde AI-systemen en GPAI-modellen die strenger zijn dan enkele van de eerdere concepten van de EU AI Act. Deze verplichtingen omvatten openbaarmakingsverplichtingen voor gebruikers van deep fakes, met uitzondering van gevallen waarin het gebruik wettelijk is toegestaan om strafbare feiten op te sporen, te voorkomen, te onderzoeken en te vervolgen. Wanneer de content deel uitmaakt van een evident artistiek werk, zijn de transparantieverplichtingen beperkt tot de bekendmaking van het bestaan van dergelijke gegenereerde of gemanipuleerde content op een manier die de weergave of het genot van het werk niet belemmert (Art. 52(3) EU AI Act).
Sancties (Art. 71 EU AI Act)
De structuur van de sancties blijft vergelijkbaar, met de maximale boetes licht aangepast. Een apart sanctieregime geldt voor GPAI-modellen, met nadruk op de verantwoordelijkheid van aanbieders.
Maximale Boete | Oudere drafts | Pre-final text |
Algemene overtredingen | €30 miljoen of 5% van jaarlijkse omzet | €35 miljoen of 7% van jaarlijkse omzet |
GPAI overtredingen | €15 miljoen of 3% van jaarlijkse omzet |
Next Steps
De bijna-definitieve tekst is op 2 februari goedgekeurd door alle 27 lidstaten. Het stokje wordt nu overgedragen aan het Europees Parlement voor de goedkeuring van de bijna-definitieve tekst, gevolgd door een plenaire stemming die voorlopig gepland staat voor 10-11 april.
End note
De EU AI Act zal zeker niet het einde zijn van de ontwikkeling van AI-wetgeving in Europa. AI ontwikkelt zich zeer snel en wetgeving zal altijd moeite hebben om bij te blijven.
Er zijn veel kansen voor bedrijven in het adopteren en gebruiken van AI, maar de risico’s die AI met zich meebrengt voor de reputatie van een bedrijf zijn ook groot. Het is dus belangrijk om te voldoen aan de huidige wetgeving, maar ook om een duurzaam gebruik van AI in gedachten te houden, zodat het, als de wetgeving verandert, nog steeds op een legale manier wordt uitgevoerd. CRANIUM kan je partner zijn hierbij en je begeleiden door de veranderende wetgeving.