Cover
Start nu gratis les 7
Summary
# De AI Act: aard, reikwijdte en doelstellingen
Hier is een gedetailleerde samenvatting voor het onderwerp "De AI Act: aard, reikwijdte en doelstellingen".
## 1. De AI Act: aard, reikwijdte en doelstellingen
De Europese AI Act is een baanbrekende verordening die tot doel heeft een geharmoniseerd wettelijk kader te creëren voor de ontwikkeling, het op de markt brengen en het gebruik van kunstmatige intelligentie (AI) systemen in de Europese Unie, met een risicogebaseerde aanpak om zowel de interne markt te verbeteren als fundamentele rechten te beschermen.
### 1.1 Aard van de AI Act
De AI Act is een **verordening**, wat betekent dat deze rechtstreeks van toepassing is in alle lidstaten zonder dat nationale implementatie nodig is. Dit garandeert een consistent niveau van bescherming in de gehele Europese Unie. Het is een **horizontale regulering**, wat inhoudt dat de Act van toepassing is op AI-systemen ongeacht de sector of het specifieke doel waarvoor ze worden gebruikt, en dit alles onder één overkoepelend juridisch kader.
### 1.2 Reikwijdte van de AI Act
De AI Act geldt voor:
* **Providers** die AI-systemen of modellen voor algemeen gebruik op de markt brengen of in gebruik nemen in de Unie.
* **Deployers** (gebruikers) van AI-systemen die gevestigd zijn in de Unie.
* **Providers en deployers** die gevestigd zijn buiten de Unie, indien de output van het systeem binnen de Unie wordt gebruikt. Dit principe van **extraterritorialiteit** is vergelijkbaar met de Algemene Verordening Gegevensbescherming (AVG).
* **Importeurs en distributeurs** van AI-systemen.
* **Productfabrikanten** die AI-systemen onder hun eigen merknaam op de markt brengen.
* **Gemachtigde vertegenwoordigers** van providers die niet in de Unie gevestigd zijn.
* **Betrokken natuurlijke personen** die zich in de Unie bevinden.
**Uitzonderingen:**
* Activiteiten gericht op onderzoek, testen of ontwikkeling van AI-systemen vóór het op de markt brengen, tenzij deze worden getest onder reële omstandigheden die personen beïnvloeden.
* Natuurlijke personen die AI-systemen gebruiken voor puur persoonlijke, niet-professionele doeleinden.
#### 1.2.1 Definitie van een AI-systeem
Een 'AI-systeem' is gedefinieerd als een machine-gebaseerd systeem dat ontworpen is om met wisselende mate van autonomie te opereren, adaptief kan zijn na implementatie en, op basis van de ontvangen input, outputs genereert zoals voorspellingen, content, aanbevelingen of beslissingen die fysieke of virtuele omgevingen kunnen beïnvloeden.
> **Tip:** De definitie van een AI-systeem is cruciaal en er is veel discussie geweest over de precieze invulling ervan.
### 1.3 Doelstellingen van de AI Act
De AI Act heeft twee hoofddoelen, die soms worden aangeduid als een "dubbelkoppig beest":
1. **Verbetering van de interne markt en bevordering van innovatie:**
* Het creëren van een geharmoniseerd wettelijk kader dat de vrije beweging van producten en diensten binnen de interne markt ondersteunt.
* Het stimuleren van de ontwikkeling en adoptie van mensgerichte en betrouwbare AI.
* De rechtsbasis voor de meeste bepalingen is Artikel 114 VWEU, dat gericht is op de verbetering van de interne markt.
2. **Waarborgen van een hoog niveau van bescherming van fundamentele rechten en veiligheid:**
* Bescherming van de gezondheid, veiligheid en fundamentele rechten van burgers, waaronder democratie, rechtsstaat, non-discriminatie, bescherming van persoonsgegevens en de rechten van het kind.
* Het voorkomen van schadelijke effecten van AI-systemen.
* De rechtsbasis omvat ook Artikel 16 VWEU met betrekking tot gegevensbescherming.
### 1.4 Risicogebaseerde aanpak
De AI Act hanteert een **risicogebaseerde benadering**, waarbij de verplichtingen proportioneel zijn aan het geïdentificeerde risiconiveau van een AI-systeem. Dit is de kern van de regulering en leidt tot de volgende categorieën:
* **Onacceptabel risico (Verboden AI-praktijken):** Systemen die de waarden van de Unie schenden en fundamentele rechten aantasten, zoals:
* Gebruik van subliminale technieken om gedrag te verstoren en schade te veroorzaken.
* Exploitatie van kwetsbaarheden van personen (bijv. leeftijd) om gedrag te verstoren.
* Sociale scoring door overheden en in bepaalde gevallen door private partijen.
* Profiling-gebaseerde voorspellende politie.
* Gerichte scraping van internet of CCTV voor biometrische data om databases op te bouwen.
* Emotieherkenning in werk- en onderwijsinstellingen, tenzij voor medische of veiligheidsredenen (bijv. vermoeidheidsniveaus van een piloot monitoren).
* Biometrische categorisatie op basis van biometrische gegevens om ras, politieke opvattingen, vakbondslidmaatschap, religieuze of filosofische overtuigingen of seksuele geaardheid af te leiden.
* Real-time externe biometrische identificatie in publiek toegankelijke ruimtes door wetshandhavers, met beperkte uitzonderingen (bijv. zoektocht naar ontvoeringsslachtoffers).
> **Voorbeeld:** AI-aangedreven speelgoed dat kinderen aanmoedigt risicovolle uitdagingen aan te gaan of een chatbot die een kind aanzet tot suïcidale gedachten, vallen onder de verboden praktijken omdat ze de kwetsbaarheden van kinderen exploiteren.
* **Hoog risico:** AI-systemen die een significant risico vormen voor de gezondheid, veiligheid of fundamentele rechten van natuurlijke personen. Deze systemen, opgenomen in Bijlage III van de Act, vallen onder strengere vereisten en verplichtingen voor zowel providers als deployers. Dit omvat onder andere systemen die gebruikt worden voor:
* Biometrische identificatie en categorisatie.
* Beheer van kritieke infrastructuur.
* Onderwijs en beroepsopleiding (bijv. bepaling van toelating, beoordeling van leerresultaten).
* Werkgelegenheid, personeelsbeheer en toegang tot zelfstandig ondernemerschap (bijv. werving, selectie, analyse van sollicitaties).
* Toegang tot essentiële privé- en publieke diensten en voordelen (bijv. kredietscore, risicobeoordeling en prijsstelling voor levens- en ziektekostenverzekeringen, classificatie van noodoproepen).
* Rechtshandhaving.
* Migratie-, asiel- en grensbeheer.
* Rechtspraak en democratische processen (bijv. hulp bij onderzoek naar feiten en wetgeving).
> **Voorbeeld:** AI-systemen die worden gebruikt voor de werving en selectie van personen worden als risicovol beschouwd omdat ze een aanzienlijke impact kunnen hebben op carrièrevooruitzichten, levensonderhoud en werknemersrechten, en bestaande vooroordelen kunnen versterken.
* **Specifieke transparantieverplichtingen:** AI-systemen die rechtstreeks interageren met natuurlijke personen of die synthetische content genereren. Deze systemen vereisen dat gebruikers worden geïnformeerd dat ze met een AI-systeem interageren of dat de content kunstmatig is gegenereerd of gemanipuleerd. Dit omvat onder andere:
* Chatbots en andere AI die direct met mensen interageren.
* Systemen die synthetische audio, beeld, video of tekst genereren (deepfakes).
* Bepaalde vormen van emotieherkenning en biometrische categorisatie.
> **Voorbeeld:** Bij het gebruik van een chatbot die bedoeld is om gebruikers te informeren over zaken van algemeen belang, moet transparant worden gemaakt dat de tekst kunstmatig is gegenereerd of gemanipuleerd, tenzij er sprake is van specifieke uitzonderingen zoals juridische autorisatie voor strafrechtelijk onderzoek of artistieke/satirische werken.
* **Minimaal of laag risico:** AI-systemen die geen bindinge verplichtingen opleggen onder de AI Act. Voor deze systemen worden vrijwillige gedragscodes op basis van ethische principes en verantwoord AI-ontwerp aanbevolen.
#### 1.4.1 AI-systemen met een systeemrisico (General-Purpose AI - GPAI)
Specifieke regels zijn opgenomen voor AI-modellen voor algemeen gebruik (GPAI), zoals grote taalmodellen (LLM's). Providers van GPAI-modellen hebben belangrijke transparantieverplichtingen, zoals het verstrekken van technische documentatie, informatie over trainingsdata en een samenvatting van de gebruikte content. Modellen met "systeemrisico's" (hoge impact, grote rekenkracht) kennen aanvullende verplichtingen, waaronder risicobeoordelingen en incidentenrapportage. De Europese Commissie heeft exclusieve toezichts- en handhavingsbevoegdheden voor GPAI-modellen.
#### 1.4.2 Impact op fundamentele rechten
Voor bepaalde categorieën van hoog-risico AI-systemen, met name die gebruikt worden door publieke instanties of bij het verlenen van publieke diensten, en in specifieke gevallen zoals kredietbeoordeling of risicoprijsstelling voor verzekeringen, is een **fundamentele rechtenimpactbeoordeling (FRIA)** verplicht vóór ingebruikname. Hierbij wordt ook de betrokkenheid van belanghebbenden en de melding bij markttoezichtautoriteiten gevraagd.
#### 1.4.3 Specifieke aandacht voor kinderen
De AI Act erkent de kwetsbaarheden van kinderen en bevat specifieke verwijzingen naar hun rechten, onder andere door de verboden praktijk van het exploiteren van kwetsbaarheden van personen vanwege hun leeftijd. Hoewel er geen algemene verplichting tot "specifieke bescherming" voor kinderen is opgenomen, zoals in de AVG, moeten providers van hoog-risico systemen rekening houden met mogelijke nadelige impact op personen onder de 18 jaar.
### 1.5 Dynamisch en evoluerend kader
De AI Act is ontworpen als een dynamisch en evoluerend instrument, met verschillende instrumenten om zich aan te passen aan technologische veranderingen:
* **Gedelegeerde en uitvoeringsbesluiten** van de Commissie.
* **Richtlijnen** voor duidelijkheid en naleving.
* **Gedragscodes** voor sectorspecifieke aanpassingen.
* Betrokkenheid van de **Europese Commissie, industrie-experts, academici en maatschappelijke organisaties**.
> **Tip:** Het "pacing problem" (het gat tussen snelle technologische verandering en langzame wetgevingsprocessen) wordt aangepakt door een flexibel kader dat continue ontwikkeling mogelijk maakt.
### 1.6 Governance en handhaving
De naleving van de AI Act wordt gecoördineerd en gehandhaafd door:
* De **Europese AI-dienst** (binnen de Commissie) op EU-niveau, met name voor GPAI.
* **Nationale bevoegde autoriteiten en markttoezichtautoriteiten** op nationaal niveau.
* Het **Europees Comité voor kunstmatige intelligentie** voor consistente toepassing.
* Een **wetenschappelijk panel** van experts om opkomende risico's te monitoren.
Er zijn aanzienlijke **boetes** voorzien voor inbreuken, die kunnen oplopen tot 7% van de jaarlijkse wereldwijde omzet van een onderneming.
### 1.7 Rechten van natuurlijke personen
De AI Act kent individuele rechten toe aan natuurlijke personen, waaronder:
* Het recht om **klacht in te dienen** bij nationale autoriteiten bij vermeende inbreuken op de Act.
* Het recht op een **duidelijke en begrijpelijke uitleg** van beslissingen die rechtseffecten produceren of hen significant beïnvloeden, wanneer deze gebaseerd zijn op de output van hoog-risico AI-systemen.
Deze rechten zijn breed en bieden bescherming voor individuen die getroffen worden door AI-systemen.
---
# Risicogebaseerde classificatie van AI-systemen
De Europese AI Act hanteert een risicogebaseerde benadering om AI-systemen te reguleren, variërend van verboden praktijken tot systemen met specifieke transparantie- en hoog-risicoverplichtingen.
## 2. Het risicogebaseerde benadering
Het centrale principe van de AI Act is de risicogebaseerde benadering, die een proportioneel en effectief regelgevend kader biedt op basis van de intensiteit en reikwijdte van de risico's die AI-systemen kunnen genereren. Dit model kan worden voorgesteld als een piramide met vier niveaus: verboden AI-praktijken, hoog-risico AI-systemen, AI-systemen met specifieke transparantieplichten en minimaal of laag-risico AI-systemen.
### 2.1 Verboden AI-praktijken
Bepaalde AI-praktijken worden verboden omdat ze als onaanvaardbaar risicovol worden beschouwd en in strijd zijn met de fundamentele rechten en waarden van de Unie, zoals menselijke waardigheid, vrijheid, gelijkheid, democratie, rechtsstaat en fundamentele rechten zoals vastgelegd in het Handvest.
#### 2.1.1 Categorieën verboden praktijken
De volgende categorieën AI-praktijken zijn expliciet verboden:
* **Subliminale technieken die gedrag vertekenen en schade veroorzaken:** AI-systemen die technieken gebruiken die onder het bewustzijn van een persoon vallen om hun gedrag materieel te vertekenen en fysieke of psychologische schade veroorzaken of waarschijnlijk veroorzaken. Dit omvat manipulatieve systemen die controle over de besluitvorming wegnemen.
* **Uitbuiting van kwetsbaarheden van personen:** AI-systemen die kwetsbaarheden van personen, waaronder kinderen, misbruiken vanwege hun leeftijd, handicap of specifieke sociale of economische situatie om hun gedrag materieel te vertekenen en aanzienlijke schade te veroorzaken.
* **Sociaal scoren door publieke of private instanties:** Het gebruik van AI-systemen om individuen te classificeren op basis van hun sociaal gedrag of kenmerken, wat kan leiden tot ongelijke behandeling en beperking van kansen, zoals toegang tot leningen of banen.
* **Profielgebaseerde voorspellende politie:** Het gebruik van AI om individuen te profileren en hun vermeende risico op het plegen van criminele feiten te voorspellen, zonder voldoende wettelijke grondslag of transparantie.
* **Niet-gerichte scraping van internet of CCTV voor gezichtsbeelden:** Het verzamelen van gezichtsbeelden van het internet of via bewakingscamera's zonder expliciete toestemming om databases op te bouwen of uit te breiden, zonder een duidelijke en proportionele noodzaak.
* **Emotieherkenning in de werkplek en onderwijsinstellingen:** Het gebruik van AI-systemen om emoties van personen te detecteren in de context van werk of onderwijs, tenzij het strikt noodzakelijk is voor medische of veiligheidsredenen (bijvoorbeeld het monitoren van de vermoeidheid van een piloot).
* **Biometrische categorisatie op basis van gevoelige kenmerken:** Het categoriseren van personen op basis van biometrische gegevens om hun ras, politieke meningen, vakbondslidmaatschap, religieuze of filosofische overtuigingen of seksuele geaardheid af te leiden of te infereren.
* **Real-time externe biometrische identificatie in publiek toegankelijke ruimtes door wetshandhavers:** Dit is onderworpen aan zeer strikte en beperkte uitzonderingen, zoals de opsporing van ontvoering.
> **Tip:** De Europese Commissie publiceert richtlijnen die verdere verduidelijking bieden over de interpretatie en toepassing van deze verboden praktijken, inclusief specifieke voorbeelden.
### 2.2 Hoog-risico AI-systemen
Hoog-risico AI-systemen zijn systemen die een aanzienlijk risico vormen voor de gezondheid, veiligheid of fundamentele rechten van personen. De AI Act legt strenge verplichtingen op aan zowel de providers als de gebruikers (deployers) van deze systemen.
#### 2.2.1 Criteria voor hoog-risico classificatie
Een AI-systeem wordt als hoog-risico geclassificeerd indien het voldoet aan een van de volgende criteria:
1. **Veiligheidscomponenten van producten onder specifieke EU-wetgeving:** Het AI-systeem is bedoeld als veiligheidscomponent van een product, of het systeem zelf is een product, dat reeds onder EU-harmonisatiewetgeving valt waarvoor een externe conformiteitsbeoordeling vereist is voor het in de handel brengen of in gebruik nemen. Voorbeelden hiervan zijn systemen die deel uitmaken van machines, speelgoed, liften, medische hulpmiddelen, en apparatuur voor potentieel explosieve atmosferen.
2. **AI-systemen op de lijst in Annex III van de AI Act:** AI-systemen die specifiek worden genoemd in Annex III, dat sectoren met een hoog risico omvat. Deze sectoren omvatten onder andere:
* **Biometrie en identiteitsbeheer:** Systemen voor biometrische identificatie en categorisatie.
* **Beheer van kritieke infrastructuur:** AI-systemen die worden gebruikt om vitale infrastructuur te beheren of te exploiteren (bv. verkeersbeheer, watervoorziening, elektriciteitsnetwerken).
* **Onderwijs en beroepsopleiding:** AI-systemen die worden gebruikt om toegang of toelating tot onderwijsinstellingen te bepalen, om leerresultaten te evalueren, of om studenten te monitoren tijdens examens (bv. proctoring-systemen).
* **Werkgelegenheid, personeelsbeheer en toegang tot zelfstandig ondernemerschap:** AI-systemen voor werving en selectie, analyse van sollicitaties, evaluatie van kandidaten, en monitoring van werknemers.
* **Toegang tot en genot van essentiële particuliere en openbare diensten en voordelen:** AI-systemen die worden gebruikt voor kredietbeoordeling, risicoanalyse en prijsstelling voor levens- en ziektekostenverzekeringen, classificatie van noodoproepen, en triage in de gezondheidszorg.
* **Rechtshandhaving:** AI-systemen die worden gebruikt door of namens wetshandhavingsinstanties voor risicobeoordeling, profileringsanalyses of het vaststellen van bewijs.
* **Migratie, asiel en grenscontrolebeheer:** AI-systemen voor het verwerken van asielaanvragen, het beoordelen van risico's bij grensoverschrijdingen.
* **Rechtspraak en democratische processen:** AI-systemen die gerechtelijke autoriteiten ondersteunen bij onderzoek naar feiten en recht, en bij de toepassing van het recht.
> **Belangrijk:** Een AI-systeem dat onder een van deze categorieën valt, kan nog steeds worden vrijgesteld als het geen significant risico op schade voor de gezondheid, veiligheid of fundamentele rechten vormt, bijvoorbeeld door de uitkomst van besluitvorming niet materieel te beïnvloeden. In dergelijke gevallen moet de beoordeling en registratie in een database plaatsvinden.
#### 2.2.2 Verplichtingen voor providers van hoog-risico AI-systemen
Providers moeten een reeks maatregelen implementeren om ervoor te zorgen dat hun hoog-risico AI-systemen voldoen aan de vereisten:
* **Risicobeheersingssysteem:** Een iteratief proces om redelijkerwijs te voorzien risico's te identificeren, analyseren en te beperken, en om het resterende risico acceptabel te maken.
* **Data kwaliteitsbeheer en governance:** Implementatie van passende maatregelen om mogelijke vooroordelen (biases) te detecteren, te voorkomen en te mitigeren. Identificatie van relevante gegevenslacunes.
* **Technische documentatie en gegevensregistratie:** Het bijhouden van gedetailleerde documentatie over het systeem, inclusief de trainingsdata, de werking en de beperkingen. Logging van systeemactiviteiten voor traceerbaarheid.
* **Transparantie en informatievoorziening aan gebruikers (deployers):** Duidelijke informatie verstrekken over de capaciteiten, beperkingen en beoogde gebruikswijzen van het systeem.
* **Menselijk toezicht:** Zorgen voor de mogelijkheid tot menselijk toezicht, zodat personen de werking en uitkomsten van het systeem kunnen controleren en indien nodig kunnen ingrijpen.
* **Nauwkeurigheid, cyberbeveiliging en robuustheid:** Het systeem moet betrouwbaar, veilig en bestand tegen cyberaanvallen zijn.
* **Kwaliteitsmanagementsysteem:** Schriftelijke beleidslijnen, procedures en instructies voor de ontwikkeling en het beheer van het AI-systeem.
* **Monitoring na marktplaatsing:** Een systeem opzetten om prestaties, incidenten en nieuwe risico's na ingebruikname te monitoren.
* **Rapportage van ernstige incidenten:** Onmiddellijke melding van ernstige incidenten aan de bevoegde autoriteiten.
#### 2.2.3 Verplichtingen voor gebruikers (deployers) van hoog-risico AI-systemen
Gebruikers hebben ook specifieke verantwoordelijkheden:
* **Gebruik conform instructies:** Het AI-systeem gebruiken in overeenstemming met de instructies van de provider.
* **Technische en organisatorische maatregelen:** Gepaste maatregelen treffen om het gebruik van het systeem te beheren en te controleren.
* **Toewijzen van menselijk toezicht:** Natuurlijke personen met de nodige competentie, training en autoriteit aanwijzen om toezicht te houden op het systeem.
* **Informeren van betrokkenen:** Natuurlijke personen informeren wanneer zij worden onderworpen aan het gebruik van een hoog-risico AI-systeem (bv. sollicitanten bij een AI-gestuurd aanwervingsproces).
* **Registratie in een EU-database:** Veel hoog-risico AI-systemen moeten worden geregistreerd in een publieke EU-database.
#### 2.2.4 Fundamentele rechtenimpactbeoordeling (FRIA)
Voordat hoog-risico AI-systemen worden ingezet, moeten bepaalde gebruikers (zoals publieke instanties, aanbieders van openbare diensten, en gebruikers in specifieke risicovolle sectoren zoals kredietbeoordeling) een beoordeling uitvoeren van de mogelijke impact op fundamentele rechten. Dit kan het betrekken van relevante belanghebbenden omvatten en het melden van de resultaten aan de markttoezichtautoriteit.
### 2.3 AI-systemen met specifieke transparantieplichten
Deze categorie betreft AI-systemen die een risico op misleiding of manipulatie met zich meebrengen, of waarbij het voor gebruikers niet direct duidelijk is dat zij interageren met een AI of met door AI gegenereerde inhoud.
#### 2.3.1 Categorieën systemen met transparantieplichten
De volgende soorten AI-systemen vallen onder deze verplichtingen:
* **AI-systemen die direct interageren met natuurlijke personen:** Zoals chatbots, virtuele assistenten of companion robots. Gebruikers moeten worden geïnformeerd dat zij interageren met een AI-systeem, tenzij dit evident is.
* **AI-systemen die synthetische inhoud genereren of manipuleren:** AI-systemen die beelden, audio, video of tekst genereren of manipuleren (zoals deepfakes). De outputs moeten als kunstmatig gegenereerd of gemanipuleerd worden gemarkeerd op een machine-leesbaar en detecteerbaar formaat.
* **Systemen voor emotieherkenning en biometrische categorisatie:** Gebruikers moeten worden geïnformeerd over de werking van deze systemen.
* **AI-gegenereerde of gemanipuleerde inhoud (deepfakes):** Gebruikers moeten worden geïnformeerd wanneer inhoud is gecreëerd of gemanipuleerd door AI, tenzij de inhoud duidelijk artistiek, creatief, satirisch, fictief is, of wanneer de inhoud onderworpen is aan wettelijke uitzonderingen (bv. opsporing van criminele feiten).
* **AI-gegenereerde tekst voor het publiek:** Tekst die is gegenereerd door AI en bedoeld is om het publiek te informeren over zaken van publiek belang, moet worden gemarkeerd als kunstmatig gegenereerd, tenzij de inhoud een menselijke redactie heeft ondergaan en iemand redactionele verantwoordelijkheid draagt.
> **Voorbeeld:** Bij het gebruik van een chatbot als 'companion' is het cruciaal dat de gebruiker weet dat hij met een AI praat. Dit voorkomt misleiding en de vorming van onrealistische emotionele banden, vooral bij kwetsbare gebruikers.
> **Tip:** De Europese Commissie kan praktijkcodes vaststellen om de implementatie van deze transparantieplichten, met name voor de detectie en markering van kunstmatig gegenereerde inhoud, te faciliteren.
### 2.4 Minimaal of laag-risico AI-systemen
AI-systemen die minimaal of laag risico inhouden, vallen niet onder specifieke bindende verplichtingen onder de AI Act. Voor deze systemen kunnen providers echter vrijwillig codes van gedrag naleven die gebaseerd zijn op de principes van betrouwbare AI.
#### 2.4.1 Vrijwillige maatregelen en ethische principes
Hoewel er geen wettelijke verplichtingen zijn, wordt het aanbevolen om de principes van betrouwbare AI toe te passen, waaronder:
* Menselijk handelen en toezicht.
* Technische robuustheid en veiligheid.
* Privacy en gegevensbeheer.
* Transparantie.
* Diversiteit, niet-discriminatie en eerlijkheid.
* Maatschappelijk en ecologisch welzijn.
* Verantwoording.
Daarnaast kunnen aanvullende vereisten worden overwogen, zoals milieuduurzaamheid, AI-geletterdheid, en inclusief en divers ontwerp, met aandacht voor kwetsbare personen en toegankelijkheid voor personen met een handicap.
### 2.5 Generieke AI-modellen (GPAI)
De AI Act erkent de opkomst van generieke AI-modellen (GPAI), zoals grote taalmodellen, en introduceert specifieke verplichtingen voor de providers daarvan, gezien hun brede toepasbaarheid en invloed op de AI-waardeketen.
#### 2.5.1 Verplichtingen voor providers van GPAI-modellen
* **Algemene verplichtingen:**
* Technische documentatie verstrekken aan downstream AI-providers, inclusief informatie over architectuur, trainingsproces, beperkingen en risicobeheer.
* Een beleid hanteren dat voldoet aan het auteursrecht, met een publiekelijk beschikbare samenvatting van de gebruikte trainingsdata.
* Informatie verstrekken over de typen en bronnen van trainingsdata, en hoe vooringenomenheid wordt aangepakt.
* **Aanvullende verplichtingen voor GPAI-modellen met systemische risico's:**
* Modellevaluaties uitvoeren en systemische risico's continu beoordelen en mitigeren.
* Systemische risico's en incidenten melden.
* Voldoen aan cybersecurity-eisen.
* Voldoen aan vereisten met betrekking tot het rekenvermogen voor training (bv. gebruik van een grote hoeveelheid rekenkracht).
> **Let op:** GPAI-modellen die worden geïntegreerd in hoog-risico AI-systemen moeten voldoen aan zowel de GPAI-verplichtingen als de specifieke verplichtingen voor hoog-risico systemen.
> **Tip:** De Europese Commissie kan codes van gedrag en implementatietools ontwikkelen om de naleving van de verplichtingen voor GPAI-modellen te faciliteren en te monitoren. De naleving van een code van gedrag kan de vertrouwensrelatie met toezichthouders versterken.
### 2.6 Rol van kinderen en hun rechten
De AI Act erkent expliciet de specifieke rechten en kwetsbaarheden van kinderen. Hoewel er geen apart, gedetailleerd regime voor kinderen is, worden hun rechten verwezenlijkt door de toepassing van de verboden praktijken (bv. uitbuiting van kwetsbaarheden), de verplichtingen voor hoog-risico systemen (waarbij rekening gehouden moet worden met impact op minderjarigen), en de algemene principes van de AI Act. Kritiek bestaat echter dat de bescherming van kinderen verder versterkt zou kunnen worden door specifieke waarborgen en een grotere participatie van kinderen in het regelgevingsproces.
### 2.7 Handhaving en sancties
De AI Act voorziet in een robuust handhavingskader met boetes die kunnen oplopen tot 7% van de jaarlijkse wereldwijde omzet van ondernemingen voor ernstige inbreuken. Er zijn nationale bevoegde autoriteiten en een Europees AI-bureau dat de naleving coördineert en toezicht houdt, met name op GPAI-modellen. Particulieren hebben het recht om een klacht in te dienen en, in het geval van beslissingen van hoog-risico AI-systemen die hen significant beïnvloeden, een duidelijke en betekenisvolle uitleg te eisen over de rol van het AI-systeem in het besluitvormingsproces.
---
# Regulering van algemene AI-modellen (GPAI)
Hieronder volgt een samenvatting over de regulering van algemene AI-modellen (GPAI) ter voorbereiding op uw examen.
## 3. Regulering van algemene AI-modellen (GPAI)
Dit gedeelte van de AI Act richt zich op de specifieke regelgeving voor algemene AI-modellen (GPAI), inclusief hun definities, de verplichtingen voor providers, en de aanpak van potentiële risico's.
### 3.1 Definitie van Algemene AI-modellen (GPAI)
De AI Act definieert twee gerelateerde concepten:
* **Algemeen AI-model (general-purpose AI model):** Dit verwijst naar een AI-model dat, vaak getraind met een grote hoeveelheid data via self-supervision op schaal, aanzienlijke algemeenheid vertoont en een breed scala aan verschillende taken competent kan uitvoeren, ongeacht hoe het model op de markt wordt gebracht. Het kan worden geïntegreerd in een verscheidenheid aan onderliggende systemen of toepassingen. Modellen die uitsluitend worden gebruikt voor onderzoeks-, ontwikkelings- of prototypingactiviteiten vóór hun marktintroductie, vallen hier niet onder.
* **Algemeen AI-systeem (general-purpose AI system):** Dit is een AI-systeem dat gebaseerd is op een algemeen AI-model en de mogelijkheid heeft om een verscheidenheid aan doeleinden te dienen, zowel voor direct gebruik als voor integratie in andere AI-systemen.
Voorbeelden van GPAI-modellen zijn grote taalmodellen (LLM's) zoals GPT-4, Gemini, Claude 3, Mistral Large, en DALL-E. Voorbeelden van GPAI-systemen zijn toepassingen als ChatGPT, Microsoft Copilot, Meta AI assistant, Perplexity AI, en AI-chatbots die in apps zijn geïntegreerd.
> **Tip:** Het is belangrijk om het onderscheid te maken tussen het model (de "hersenen" of het kernalgoritme) en het systeem (de toepassing waarin het model wordt ingebed). De AI Act gebruikt de term "generatieve AI" niet expliciet; het focust op "algemene AI".
### 3.2 Verplichtingen voor providers van GPAI-modellen
Providers van GPAI-modellen hebben specifieke verplichtingen vanwege hun centrale rol in de AI-waardeketen en hun potentieel brede impact. Deze verplichtingen zijn gelaagd:
#### 3.2.1 Algemene verplichtingen voor alle GPAI-modellen
Providers moeten de volgende algemene verplichtingen naleven:
* **Technische documentatie:** Het verstrekken van gedetailleerde technische documentatie over het GPAI-model. Dit omvat informatie over de architectuur, het trainingsproces, de beperkingen, de risicobeheersmaatregelen en de doelstellingen. Deze documentatie is bedoeld om onderliggende AI-providers te informeren die het model in hun producten willen integreren.
* **Beleid inzake auteursrecht:** Een beleid opstellen om te voldoen aan de wetgeving inzake auteursrecht. Aangezien GPAI-modellen vaak getraind worden op enorme datasets die mogelijk auteursrechtelijk beschermd materiaal bevatten, moeten providers zorgen voor naleving van de wetgeving, inclusief de uitzonderingen voor tekst- en datamijnbouw en eventuele opt-outs.
* **Samenvatting van trainingsdata:** Een publiek toegankelijke samenvatting verstrekken van de inhoud die is gebruikt voor training. Dit omvat informatie over de soorten, hoeveelheden en kenmerken van de trainingsdata, en hoe eventuele vooroordelen worden aangepakt. De Europese Commissie heeft hiervoor een sjabloon opgesteld dat gericht is op publieke transparantie zonder handelsgeheimen te schaden.
* **Informatie over veiligheid en robuustheid:** Informatie verstrekken over hoe zij de veiligheid en robuustheid van het model waarborgen.
#### 3.2.2 Extra verplichtingen voor GPAI-modellen met systemische risico's
GPAI-modellen die worden beschouwd als modellen met systemische risico's (vaak gedefinieerd door hun hoge rekenkracht en brede impactmogelijkheden) hebben aanvullende verplichtingen:
* **Model-evaluaties:** Continue evaluaties uitvoeren om potentiële risico's te beoordelen.
* **Beoordeling en beperking van systemische risico's:** Systemische risico's voortdurend beoordelen en maatregelen nemen om deze te beperken. Dit omvat het identificeren en aanpakken van vooroordelen, schadelijk gedrag en andere negatieve maatschappelijke effecten.
* **Melden van incidenten:** Incidenten, waaronder cybersecurity-incidenten, onmiddellijk melden aan de bevoegde autoriteiten.
* **Cybersecurity-eisen:** Voldoen aan strenge cybersecurity-eisen om de integriteit en veiligheid van het model te waarborgen.
* **Rekenkrachtberekening:** Het berekenen van de totale rekenkracht die is gebruikt voor training, aangezien dit een criterium is voor de classificatie als model met systemisch risico.
> **Tip:** De Europese Commissie heeft richtlijnen gepubliceerd om de toepassing van de verplichtingen voor GPAI-modellen te verduidelijken. Deze richtlijnen zijn niet bindend, maar volgen wordt beschouwd als een sterke indicator van naleving.
#### 3.2.3 GPAI-modellen die worden gebruikt voor hoog-risico doeleinden
Wanneer een GPAI-model wordt geïntegreerd in een hoog-risico AI-systeem (zoals een AI-hulpmiddel voor werving), moet de provider voldoen aan zowel de algemene en eventuele aanvullende verplichtingen voor GPAI-modellen, als aan de specifieke verplichtingen voor hoog-risico AI-systemen.
### 3.3 Aanpak van systemische risico's
GPAI-modellen met systemische risico's vereisen een proactieve en continue aanpak van potentiële maatschappelijke risico's. Dit omvat:
* **Model-evaluaties:** Regelmatige evaluaties om te controleren op ongewenste uitkomsten, vooroordelen en ethische bezwaren.
* **Risicobeheer:** Ontwikkelen en implementeren van robuuste risicobeheerssystemen specifiek gericht op de unieke uitdagingen die GPAI-modellen met zich meebrengen.
* **Transparantie en rapportage:** Duidelijke communicatie over de capaciteiten, beperkingen en trainingsdata van het model, en het rapporteren van kritieke incidenten.
#### 3.3.1 Rol van de European Commission en het AI Office
De Europese Commissie, met name via het nieuw opgerichte Europese AI-kantoor (AI Office), heeft exclusieve bevoegdheden voor toezicht en handhaving met betrekking tot GPAI-modellen met systemische risico's. Zij kunnen informatie opvragen, onderzoeken uitvoeren en aanzienlijke boetes opleggen.
### 3.4 Interactie met hoog-risicosystemen
Wanneer een GPAI-model wordt geïntegreerd in een hoog-risico AI-systeem, is er sprake van een dubbele laag van regelgeving. De provider van het GPAI-model moet voldoen aan de specifieke GPAI-verplichtingen, terwijl de ontwikkelaar van het uiteindelijke hoog-risico AI-systeem moet voldoen aan alle verplichtingen die gelden voor hoog-risico systemen (zoals risicobeheer, datakwaliteit, menselijk toezicht, enz.). Dit vereist een nauwe samenwerking en afstemming tussen de verschillende spelers in de AI-waardeketen.
### 3.5 Rol van codes van gedrag voor GPAI
De naleving van de verplichtingen voor GPAI kan worden aangetoond door middel van codes van gedrag. Hoewel deze codes niet verplicht zijn, moedigt de Europese Commissie providers sterk aan om deze te ondertekenen. Aansluiting bij een code van gedrag wordt gezien als een middel om vertrouwen bij de Commissie te wekken, mogelijk te leiden tot minder informatieverzoeken, en kan een factor zijn bij het bepalen van boetes.
#### 3.5.1 GPAI Code of Conduct
De Commissie heeft een specifieke gedragscode voor GPAI-modellen ontwikkeld. Providers die deze code ondertekenen, stemmen in met een reeks transparantie- en risicobeheersingsmaatregelen, waaronder gedetailleerde informatie over model-eigenschappen, gebruiksdoeleinden, trainingsprocessen en gebruikte data.
> **Tip:** De GPAI Code of Conduct is een belangrijk instrument dat de samenwerking tussen de Commissie en de industrie bevordert en dient als bewijs van inspanningen om transparantie en verantwoordelijkheid te garanderen.
### 3.6 GPAI en Gegevensbescherming (AVG/GDPR)
GPAI-systemen, vooral generatieve AI, verwerken vaak grote hoeveelheden persoonsgegevens, zowel tijdens de trainingsfase als tijdens het gebruik (bijvoorbeeld via gebruikersprompts). Dit betekent dat de regels inzake gegevensbescherming, waaronder de Algemene Verordening Gegevensbescherming (AVG), strikt moeten worden nageleefd. Dit omvat kwesties als rechtmatige grondslagen, opslag, minimalisering van gegevens en het recht op vergetelheid. Het is essentieel om bij de analyse van systemen die GPAI gebruiken, niet alleen de AI Act, maar ook de bredere juridische kaders zoals de AVG te overwegen.
---
# Kinderrechten, handhaving en individuele rechten
Hier is een uitgebreide studiegids voor het onderwerp "Kinderrechten, handhaving en individuele rechten" binnen de context van de AI Act.
## 4. Kinderrechten, handhaving en individuele rechten
Dit onderwerp onderzoekt hoe de AI Act omgaat met AI-systemen die gericht zijn op kinderen, de handhavingsmechanismen inclusief boetes, en de rechten van individuen, zoals het recht op uitleg en het recht om een klacht in te dienen.
### 4.1 AI-systemen gericht op kinderen
De AI Act erkent expliciet de specifieke kwetsbaarheden van kinderen en hun rechten, zoals vastgelegd in het VN-Verdrag inzake de Rechten van het Kind en het Handvest van de grondrechten van de Europese Unie. Hoewel de Act geen apart, gedetailleerd regime voor kinderen heeft zoals de AVG of de Digitale Dienstenverordening, zijn er verschillende belangrijke overwegingen:
* **Exploitatie van kwetsbaarheden:** AI-systemen die de kwetsbaarheden van personen, waaronder kinderen vanwege hun leeftijd, misbruiken om hun gedrag te verstoren en potentieel schade te berokkenen, zijn verboden praktijken. Dit omvat systemen die gedrag kunnen manipuleren op een manier die tot aanzienlijke schade leidt.
* **Voorbeelden van verboden praktijken:**
* AI-speelgoed dat kinderen aanmoedigt tot risicovolle uitdagingen die tot letsel kunnen leiden.
* Spellen die beloningen en omgevingen personaliseren om verslaving bij kinderen te creëren en sterke afhankelijkheid op te bouwen.
* Chatbots die kinderen aanzetten tot zelfmoord of schadelijk advies geven.
* **Hoge risico's:** AI-systemen die worden gebruikt in de onderwijs- en beroepsopleidingssector (inclusief die gericht zijn op het bepalen van toegang, het evalueren van leerresultaten, het beoordelen van studenten, of monitoring tijdens tests) vallen onder de definitie van hoge-risico AI-systemen. Dit betekent dat er strengere verplichtingen gelden voor de providers en deployers.
* **Risicobeheer en kwetsbare groepen:** Bij de implementatie van het risicobeheersysteem voor hoge-risico AI-systemen moeten providers overwegen of het systeem waarschijnlijk een nadelige impact heeft op personen onder de 18 jaar en andere kwetsbare groepen. Dit moet worden opgenomen in hun risicobeheer en ontwerp.
* **Kritiek vanuit kinderrechtenperspectief:** Ondanks de vermelding van kinderlijke rechten, wordt bekritiseerd dat de AI Act geen specifiek, uitgebreid beschermingsregime voor kinderen bevat, zoals wel het geval is bij de AVG. Er wordt gepleit voor een sterkere toepassing van het voorzorgsbeginsel, specifiekere waarborgen, en de betrokkenheid van kinderen bij het regelgevingsproces.
### 4.2 Handhaving en sancties
De handhaving van de AI Act berust op een gelaagd systeem met zowel EU-brede als nationale autoriteiten, en omvat aanzienlijke boetes voor overtredingen.
* **EU-niveau:**
* **Europees AI-bureau (European AI Office):** Dit bureau, binnen de Europese Commissie, coördineert en ziet toe op de naleving van de regels, met name voor algemene AI-modellen (GPAI). Het heeft de exclusieve bevoegdheid om GPAI-modellen te superviseren en te handhaven.
* **Nationaal niveau:**
* **Nationale bevoegde autoriteiten en markttoezichtautoriteiten:** Deze autoriteiten zijn verantwoordelijk voor het toezicht op conformiteitsbeoordelingen, markttoezicht en handhaving richting providers en deployers op nationaal niveau.
* **Europees AI-bestuur (European Artificial Intelligence Board):** Vergelijkbaar met het Europees Comité voor gegevensbescherming (EDPB), geeft dit orgaan adviezen, aanbevelingen en bevordert het een consistente toepassing van de AI Act.
* **Wetenschappelijk panel van experts:** Onafhankelijke academici en specialisten monitoren continu opkomende risico's en informeren de Commissie, wat helpt bij het aanpakken van het "pacing problem" (de kloof tussen technologische ontwikkeling en wetgeving).
#### 4.2.1 Administratieve boetes
De AI Act voorziet in aanzienlijke administratieve boetes voor overtredingen, die kunnen oplopen tot een percentage van de wereldwijde jaaromzet van een bedrijf.
* **Boetebedragen:**
* Overtredingen van bepaalde bepalingen kunnen leiden tot boetes tot **zeven procent (7%)** van de totale wereldwijde jaaromzet van een bedrijf.
* Voor minder ernstige overtredingen kunnen boetes oplopen tot **drie procent (3%)** van de totale wereldwijde jaaromzet.
* Voor kleinere entiteiten kunnen aanzienlijke vaste bedragen gelden, afhankelijk van de overtreding.
* **Toepassing:** Boetes worden opgelegd voor overtredingen zoals:
* Het in strijd handelen met verboden praktijken.
* Het niet naleven van de vereisten voor hoge-risico AI-systemen.
* Overtredingen met betrekking tot algemene AI-modellen (GPAI).
#### 4.2.2 Consequenties voor GPAI-modellen
Specifieke handhavingsmechanismen gelden voor providers van GPAI-modellen:
* **Europese Commissie:** Heeft exclusieve toezicht- en handhavingsbevoegdheden voor GPAI-modellen.
* **Boetes voor GPAI-providers:** Kunnen oplopen tot **twee tot drie procent (2-3%)** of meer van de jaarlijkse wereldwijde omzet, met een hogere band tot **zeven procent (7%)** voor bepaalde ernstige inbreuken.
* **Acties van de Commissie:** Kan informatie opvragen, onderzoeken uitvoeren en boetes opleggen.
### 4.3 Individuele rechten
De AI Act kent specifieke rechten toe aan individuen die getroffen worden door AI-systemen, met name die welke beslissingen nemen met een aanzienlijke impact.
* **Recht om een klacht in te dienen:**
* Ieder natuurlijk of rechtspersoon die van mening is dat de AI Act is geschonden, kan een klacht indienen bij de nationale markttoezichtautoriteit.
* Dit recht heeft een brede persoonlijke reikwijdte; in tegenstelling tot sommige rechten onder de AVG is er geen strikte eis van directe persoonlijke impact om een klacht in te dienen.
* **Recht op uitleg van individuele beslissingen:**
* Wanneer beslissingen die natuurlijke personen significant beïnvloeden, gebaseerd zijn op de output van hoge-risico AI-systemen (genoemd in Bijlage III), hebben deze personen recht op een duidelijke en betekenisvolle uitleg.
* Deze uitleg moet omvatten:
* De rol van het AI-systeem in het besluitvormingsproces.
* De belangrijkste elementen en logica achter de genomen beslissing.
* **Voorbeelden:**
* Een sollicitant die wordt afgewezen op basis van een AI-ondersteund aanwervingssysteem.
* Een student wiens beoordeling wordt beïnvloed door een AI-examsysteem.
* In het geval van verzekeringen, waar AI wordt gebruikt voor kredietwaardigheid of risicobeoordeling, moeten de betrokkenen begrijpen hoe de beslissing tot stand is gekomen.
* Dit recht dient ter bevordering van transparantie en accountability wanneer AI-systemen invloedrijke beslissingen nemen.
* **Verhouding tot de AVG (GDPR):**
* De rechten onder de AI Act vullen de rechten onder de AVG aan, met name op het gebied van geautomatiseerde besluitvorming.
* Artikel 22 van de AVG geeft reeds rechten aan personen om niet onderworpen te worden aan uitsluitend geautomatiseerde besluitvorming die rechtsgevolgen heeft of hen significant treft. Dit omvat onder andere het recht op menselijke tussenkomst en het recht op betekenisvolle informatie over de logica van de geautomatiseerde besluitvorming.
* De AI Act versterkt deze bescherming specifiek voor hoge-risico AI-systemen door expliciete rechten op uitleg te introduceren voor beslissingen met een significante impact.
* **Tip:** Bij de analyse van AI-systemen die persoonsgegevens verwerken en beslissingen nemen, is het cruciaal om zowel de bepalingen van de AI Act als de AVG in acht te nemen.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| AI Act | Een verordening van de Europese Unie die een geharmoniseerd wettelijk kader creëert voor de ontwikkeling, het op de markt brengen en het gebruik van AI-systemen, met als doel een consistent beschermingsniveau in de hele Unie te waarborgen. |
| Risicogebaseerde aanpak | Een methode waarbij de strengheid van de regelgeving wordt aangepast aan het niveau van risico dat een AI-systeem met zich meebrengt voor de fundamentele rechten, gezondheid of veiligheid van personen. |
| Horizontale regulering | Een regelgeving die van toepassing is op alle sectoren en toepassingen, in tegenstelling tot sectorale wetgeving die slechts op specifieke industrieën gericht is. |
| Brussels Effect | De neiging van EU-regelgeving om wereldwijd de norm te worden, doordat bedrijven die op de EU-markt actief willen zijn, zich aan de EU-standaarden moeten conformeren. |
| Pacing problem | Het fenomeen waarbij wetgeving en regelgeving trager evolueren dan de snelle technologische vooruitgang, wat leidt tot hiaten in de regulering. |
| Fundamentele rechten | Basisrechten en -vrijheden die inherent zijn aan alle menselijke wezens, zoals vastgelegd in de EU- 및 internationale wetgeving, waaronder non-discriminatie, privacy en de rechten van het kind. |
| Machine-based system | Een systeem dat op machines gebaseerd is en met verschillende gradaties van autonomie kan opereren, adaptief kan zijn na implementatie, en output genereert (zoals voorspellingen, inhoud, aanbevelingen of beslissingen) die fysieke of virtuele omgevingen kunnen beïnvloeden. |
| Autonomie (AI-systeem) | Het vermogen van een AI-systeem om zelfstandig te opereren en beslissingen te nemen zonder constante menselijke tussenkomst. |
| Implementatietools | Instrumenten zoals gedelegeerde en uitvoeringsbesluiten, richtlijnen en gedragscodes die worden gebruikt om de toepassing en naleving van de AI Act verder te specificeren en te faciliteren. |
| AI HLEG principes | De zeven principes opgesteld door de High-Level Expert Group on Artificial Intelligence van de Europese Commissie, die de basis vormen voor ethische en betrouwbare AI, waaronder menselijk toezicht, robuustheid, privacy, transparantie en non-discriminatie. |
| Systeemrisico (GPAI) | Een potentieel hoog risico dat voortkomt uit de omvang, capaciteit en impact van een general-purpose AI-model, dat aanzienlijke maatschappelijke effecten kan hebben. |
| GPAI (General-purpose AI) model | Een AI-model dat getraind is met grote hoeveelheden data en een breed scala aan taken kan uitvoeren, en dat geïntegreerd kan worden in diverse downstream systemen en applicaties. |
| GPAI (General-purpose AI) systeem | Een AI-systeem dat gebaseerd is op een GPAI-model en een verscheidenheid aan doeleinden kan dienen, zowel voor direct gebruik als voor integratie in andere AI-systemen. |
| Deepfake | AI-gegenereerde of -gemanipuleerde beeld-, audio- of video-inhoud die bestaande personen, objecten, plaatsen, entiteiten of gebeurtenissen nabootst en die als authentiek of waarheidsgetrouw kan worden beschouwd door een persoon. |
| Conformiteitsbeoordeling | Een proces dat door providers van hoog-risico AI-systemen moet worden uitgevoerd om aan te tonen dat het systeem voldoet aan de vereisten van de AI Act, resulterend in een CE-markering. |
| Fundamentele rechten impactbeoordeling (FRIA) | Een beoordeling die door bepaalde gebruikers van hoog-risico AI-systemen moet worden uitgevoerd om de mogelijke impact op fundamentele rechten van het gebruik van het systeem te evalueren. |
| Transparantieverplichtingen | Wettelijke vereisten om gebruikers te informeren wanneer zij interageren met een AI-systeem of wanneer inhoud is gegenereerd of gemanipuleerd door AI, om zo misleiding te voorkomen. |
| Social scoring | Een systeem waarbij individuen worden beoordeeld op basis van hun gedrag en sociale activiteiten, wat kan leiden tot beperkingen in toegang tot diensten of voordelen. |
| Sublieme technieken | Gebruik van methoden die buiten het bewustzijn van een persoon om hun gedrag beïnvloeden, met als doel of effect het veroorzaken van schade. |
| Kwetsbaarheden van personen | Kenmerken van individuen, zoals leeftijd, handicap of sociaaleconomische situatie, die hen vatbaarder maken voor manipulatie of uitbuiting door AI-systemen. |
| Biometrische categorisatie | Het indelen van personen op basis van biometrische gegevens (zoals gezichtskenmerken) om kenmerken zoals ras, politieke mening of seksuele geaardheid af te leiden. |
| Real-time remote biometric identification | Het in realtime identificeren van personen op afstand in openbaar toegankelijke ruimtes met behulp van biometrische gegevens, voornamelijk door wetshandhavingsinstanties. |
| AI-literacy | De vaardigheden, kennis en het begrip die nodig zijn om geïnformeerde beslissingen te nemen met betrekking tot AI-systemen, inclusief het begrijpen van hun werking en impact. |
| Menselijk toezicht | Het principe dat menselijke controle en interventie mogelijk moet zijn bij de ontwikkeling en het gebruik van AI-systemen, met name bij hoog-risicosystemen. |
| Data governance | Het beheer en de structurering van data om de kwaliteit, integriteit en beveiliging ervan te waarborgen, met speciale aandacht voor het voorkomen van vooroordelen in AI-trainingsdata. |
| Cyberbeveiliging | Maatregelen om AI-systemen te beschermen tegen ongeautoriseerde toegang, gebruik, openbaarmaking, verstoring, wijziging of vernietiging. |
| Markttoezicht | Het proces waarbij nationale autoriteiten toezien op de naleving van de AI Act door providers en distributeurs, en maatregelen nemen bij inbreuken. |
| AI Office | Een Europees orgaan dat belast is met de coördinatie en handhaving van de regels voor general-purpose AI-modellen, en dat als centrale autoriteit fungeert voor de toepassing van de AI Act. |
| Code of conduct (GPAI) | Een vrijwillig kader waarin providers van GPAI-modellen hun naleving van de AI Act kunnen aantonen, en dat de transparantie en betrouwbaarheid van GPAI-modellen bevordert. |
| GDPR | General Data Protection Regulation, de EU-verordening die de bescherming van persoonsgegevens regelt. |
| AVG | Algemene Verordening Gegevensbescherming, de Nederlandse vertaling van de GDPR. |
| Data subject rights | Rechten van individuen met betrekking tot hun persoonsgegevens, zoals het recht op inzage, rectificatie, verwijdering en dataportabiliteit, zoals vastgelegd in de GDPR/AVG. |
| Geautomatiseerde besluitvorming | Besluitvorming die uitsluitend is gebaseerd op geautomatiseerde verwerking, inclusief profilering, zonder menselijke tussenkomst, die juridische of significant anderszins beïnvloedende effecten heeft op een individu. |
| Precautionary principle | Het voorzorgsbeginsel, dat inhoudt dat wanneer er een risico op ernstige of onomkeerbare schade bestaat, gebrek aan volledige wetenschappelijke zekerheid geen reden mag zijn om kostenbesparende maatregelen uit te stellen om milieubescherming of de bescherming van de volksgezondheid te bewerkstelligen. |