Blogbericht

Nieuwe richtlijnen van de EU over General-Purpose AI-modellen

GPAI models
Inhoudstafel

De Richtlijnen van de Europese Commissie van juli 2025 over de toepassingsscope van de verplichtingen voor General-Purpose AI-modellen (GPAI) vormen de volgende interpretatieve stap in de uitvoering van Hoofdstuk V van de AI-verordening.

Deze richtlijnen verduidelijken wanneer een model als “general-purpose” wordt beschouwd en onder welke voorwaarden het een systemisch risico vormt, een nieuwe regelgevende categorie die vanaf augustus 2025 geldt voor alle GPAI-modellen.
Voor modellen die vóór 2 augustus 2025 op de markt zijn gebracht, erkent het AI Office de praktische uitdagingen en ondersteunt het stappen richting volledige naleving tegen 2 augustus 2027.

In deze blogpost bespreken we de implicaties en belangrijkste inzichten van deze richtlijnen.

Context

De AI-verordening (Verordening 2024/1689), van kracht sinds augustus 2024, creëerde een gelaagd regelgevingskader voor AI, dat alles omvat van hoog-risico-AI-systemen (zoals wervings- of biometrische systemen) tot de krachtige modellen die eraan ten grondslag liggen.
De GPAI-richtlijnen werden gepubliceerd om Hoofdstuk V te interpreteren, waarin regels voor AI-modellen worden vastgelegd.

De doelstellingen zijn tweeledig:

  • Ontwikkelaars helpen bepalen of hun model kwalificeert als een General-Purpose AI (GPAI); en
  • Verduidelijken wanneer zo’n model de drempel van een ‘systemisch risico’ overschrijdt, wat aanvullende verplichtingen

De richtlijnen belichten het handhavingsperspectief van de Commissie. Ze zijn niet juridisch bindend, maar zullen wel richtinggevend zijn bij nalevingscontroles en onderzoeken door het AI Office.

AI-model versus AI-systeem

AI-modellen: het brein

Een AI-model is de wiskundige motor die voorspellingen doet, inhoud genereert of patronen herkent. Technisch gezien is dit het resultaat van het trainen van een algoritme op data. Dit algoritme bestaat uit de architectuur (het ontwerp), de parameters (de tijdens training geleerde waarden), en de gewichten (de numerieke waarden die bepalen hoe input wordt omgezet in output).

Een model is dus de kern van de intelligentie, vergelijkbaar met de motor van een auto of het brein van een robot. Op zichzelf kan het berekeningen en redeneringen uitvoeren, maar het interageert niet rechtstreeks met gebruikers of de buitenwereld.

AI-systemen: het lichaam

Een AI-systeem ontstaat dan wanneer dat model wordt ingebed in software en infrastructuur die met mensen of omgevingen interageert. Het is de toepassingslaag die de intelligentie van het model koppelt aan een concrete functie, via interfaces, datastromen, API’s en besluitvormingsprocessen.

Artikel 3(1) van de AI-verordening kan als volgt worden samengevat: Een op machines gebaseerd systeem dat, met expliciete of impliciete doelstellingen, uit input afleidt hoe outputs moeten worden gegenereerd, zoals voorspellingen, inhoud, aanbevelingen of beslissingen, die fysieke of virtuele omgevingen beïnvloeden.

Een AI Model als onderdeel van een AI Systeem

Een chatbot die GPT-4 gebruikt, is dus een AI-systeem.
GPT-4 zelf, het getrainde taalmodel, is het AI-model dat erin vervat zit.

Hoe modellen en systemen op elkaar inwerken

De relatie tussen de twee is hiërarchisch maar verweven:

  • Upstream: AI-modellen worden eerst ontwikkeld, vaak door foundation model providers (zoals OpenAI, Anthropic of Mistral). Dit zijn vaak general-purpose modellen die uiteenlopende taken aankunnen.
  • Midstream: Ontwikkelaars integreren deze modellen in toepassingen (AI-systemen) en voegen data, finetuning, veiligheidslagen of gebruikersinterfaces toe.
  • Downstream: De resulterende AI-systemen worden op de markt gebracht voor specifieke toepassingen (klantendienst, werving, beeldgeneratie, enzovoort).

De AI-verordening reguleert beide, maar op verschillende manieren:

  • AI-modellen vallen onder hoofdstuk V (inclusief de verplichtingen verduidelijkt in de GPAI-richtlijnen).
  • AI-systemen vallen onder hoofdstukken II–IV, die systemen indelen volgens risico (verboden, hoog risico, transparantierisico, minimaal risico).

Wanneer wordt een AI-model ‘general-purpose’?

Volgens artikel 3(63) van de AI-verordening is een general-purpose AI-model een model dat werd getraind (vaak self-supervised) met grootschalige data, een significante generaliteit vertoont en in staat is om een breed scala aan verschillende taken uit te voeren in uiteenlopende contexten en toepassingen.

Deze modellen vormen de basis van talloze AI-systemen, van chatbots tot multimodale beeldgeneratoren, en hun brede toepasbaarheid betekent dat ze risico’s kunnen verspreiden over vele usecases.

Daarom legt de AI-verordening transparantie-, documentatie- en auteursrechtverplichtingen op aan GPAI-aanbieders (artikel 53), naast extra maatregelen voor modellen met systemisch risico (artikel 55).

Wanneer is een model een GPAI?

De richtlijnen koppelen de AI-verordening aan een praktische, rekeneenheid-gebaseerde drempel:

Een model wordt beschouwd als GPAI wanneer het is getraind met meer dan 10²³ floating-point operations (FLOP) en in staat is om taal (tekst of audio), tekst-naar-beeld of tekst-naar-video outputs te genereren.

Dit komt overeen met het schaalniveau van modellen met minstens één miljard parameters. In de praktijk voldoen grote taalmodellen, multimodale generatoren en vergelijkbare architecturen aan deze drempel.

Maar context blijft belangrijk:

Een model dat uitsluitend is ontworpen voor één taak (bijvoorbeeld weersimulatie of spraaktranscriptie) is geen GPAI, zelfs niet als het de 10²³ FLOP-drempel overschrijdt.

Een kleiner model kan daarentegen toch GPAI zijn als het blijk geeft van significante generaliteit en diverse taken kan uitvoeren.

De focus ligt dus niet alleen op kwantitatieve schaal, maar op brede capaciteiten en generatieve veelzijdigheid.

Gerelateerde oplossing

Ontdek hoe onze AI Officer juridische expertise en innovatie combineert om compliance om te zetten in waarde.

Wanneer wordt een GPAI een ‘Systemic Risk GPAI’?

De AI-verordening introduceert vervolgens de categorie ‘general-purpose AI model with systemic risk’. Deze status geldt wanneer de capaciteit of schaal van een model kan leiden tot grootschalige maatschappelijke of markteffecten, bijvoorbeeld door invloed op informatiestromen, veiligheid of democratische processen.

Een model valt in deze categorie wanneer:

  • de trainingscompute meer dan 10²⁵ FLOP bedraagt, of
  • de Europese Commissie het model als zodanig aanwijst, op basis van criteria in bijlage XIII (zoals risico op massaal misbruik, centrale positie in het AI-ecosysteem of waargenomen maatschappelijke impact).

Na classificatie moet de aanbieder:

  • doorlopend risicobeoordelingen en mitigatie uitvoeren (artikel 55(1));
  • sterke cybersecurity- en governance-maatregelen implementeren;
  • de Commissie tijdig informeren wanneer de drempel wordt bereikt; en
  • ernstige incidenten rapporteren.

Deze systemische risicobenadering lijkt sterk op de logica van financiële systeemregulering, waarbij enkele grote spelers een onevenredige impact kunnen hebben op de marktdynamiek.

Een gestructureerde aanpak om de risicocategorie te bepalen

De richtlijnen stellen een praktisch beslissingskader voor:

  1. Schat de trainingscompute

Minder dan 10²³ FLOP → Geen GPAI (nauw of taakgericht).

Meer dan 10²³ FLOP + taal-/beeld-/videogeneratie → Waarschijnlijk GPAI.

  1. Evalueer de generaliteit van het model

Kan het model een breed scala aan taken uitvoeren, buiten het oorspronkelijke doel? → GPAI.

Zo niet, dan valt het buiten de GPAI-scope.

  1. Controleer op systemisch-risico-indicatoren

≥10²⁵ FLOP → Verondersteld systemisch risico.

Minder dan 10²⁵ FLOP maar vergelijkbare impact → Kan door de Commissie worden aangewezen.

  1. Meldings- en betwistingsplicht

Aanbieders moeten de Commissie onmiddellijk en uiterlijk binnen twee weken informeren zodra drempels zijn bereikt of redelijkerwijs te voorzien zijn.

Ze kunnen de classificatie aanvechten, maar mitigatiemaatregelen alleen volstaan niet om de status te vermijden.

Wat met open source-modellen?

1. Welke open source-modellen?

Een GPAI geniet enkel van de open source-uitzondering als het model is uitgebracht onder een licentie die effectief toegang, gebruik, wijziging en herdistributie van het model (inclusief gewichten) toestaat en publiek beschikbaar is.

Concreet betekent dit dat:

  • de licentie die vrijheden expliciet verleent;
  • toegang en gebruik niet worden gemonetariseerd; en
  • de parameters en basisarchitectuur openbaar zijn.

Indien één van deze voorwaarden ontbreekt, geldt de uitzondering niet.

2. Waarom is dit relevant?

Bepaalde verplichtingen uit artikel 53(2) en artikel 54(6) kunnen vervallen voor niet-gemonetariseerde open source-modellen (zoals delen van de technische documentatie voor downstream-providers of de vereiste van een gemachtigde vertegenwoordiger buiten de EU). Dit zijn gerichte uitzonderingen, geen algemene vrijstelling.

3. Verplichtingen die blijven gelden voor open source-GPAI

Zelfs met de uitzondering moeten aanbieders voldoen aan de basis-transparantievereisten van artikel 53(1), waaronder:

  • een auteursrechtenbeleid (artikel 53(1)(b)); en
  • een voldoende gedetailleerde samenvatting van de trainingsdata (artikel 53(1)(c)).

Andere verplichtingen van hoofdstuk V blijven gelden, tenzij expliciet uitgesloten.

4. En wat bij systemisch-risico-GPAI?

Als een model verondersteld of aangewezen wordt als systemisch risico (bijvoorbeeld bij ≥10²⁵ FLOP), gelden alle verplichtingen volledig, ongeacht open-source status. Aanbieders moeten de Commissie binnen twee weken informeren zodra de drempel wordt bereikt of voorzienbaar is, en vervolgens risicobeheer, evaluaties, incidentrapportering en cybersecuritymaatregelen uitvoeren.

5. Wat als ik een open source-GPAI aanpas?

Een substantiële wijziging (zoals significante finetuning) kan ertoe leiden dat de bewerker wordt beschouwd als aanbieder van een nieuw GPAI-model, met bijhorende verplichtingen.

De richtlijnen geven een indicatie: Als meer dan één derde van de oorspronkelijke trainingscompute wordt gebruikt, wordt men als nieuwe aanbieder beschouwd.
Indien de oorspronkelijke compute onbekend is, geldt één derde van de GPAI-drempel als referentie.

6. Valstrik bij monetisatie

Het aanrekenen van toegang, gebruik of schaal (of gelijkaardige betalende mechanismen) sluit de open source-uitzondering doorgaans uit.

Conclusie

De GPAI-richtlijnen van de Europese Commissie maken duidelijker waar een model zich bevindt binnen de AI-verordening. Een model wordt general-purpose wanneer het is getraind op grote en gevarieerde datasets (meestal boven 10²³ FLOP) en brede en veelzijdige taken kan uitvoeren. Het gaat dus om generieke capaciteiten, niet enkel om schaal.

Wanneer een GPAI extreme schaal bereikt (meer dan 10²⁵ FLOP) of aanzienlijke maatschappelijke impact heeft, wordt het geclassificeerd als systemisch-risicomodel. Dan gelden zwaardere verplichtingen zoals doorlopende risicobeoordelingen, cybersecuritymaatregelen en incidentrapportage.

Open source-modellen krijgen gedeeltelijke verlichting, maar enkel als ze écht open zijn; met toegankelijke gewichten, architectuur en niet-gemonetariseerd gebruik. Zodra toegang wordt beperkt of commercieel gemaakt, vervallen de vrijstellingen. Wie een bestaand GPAI-model substantieel aanpast, wordt beschouwd als de nieuwe aanbieder, met alle bijhorende verplichtingen.

Deel op:

Geschreven door

Enzo Marquet

Enzo Marquet

Hi! Hoe kunnen we helpen?

Heb je interne privacyhulp nodig of een externe DPO? Neem contact met ons op en we zoeken samen met jou naar de beste oplossing.