Cover
Aloita nyt ilmaiseksi 8. L&T_2025-26_Artificial Intelligence_II.pptx
Summary
# De Europese Unie AI Act
De Europese Unie AI Act is een baanbrekende verordening die een geharmoniseerd juridisch kader creëert voor de ontwikkeling, het op de markt brengen en het gebruik van AI-systemen binnen de Unie, met als doel het bevorderen van betrouwbare, mensgerichte AI en het waarborgen van een hoog niveau van bescherming van gezondheid, veiligheid, fundamentele rechten en milieu.
## 1. Overzicht van de EU AI Act
De AI Act is een horizontale verordening die gericht is op het creëren van een consistent niveau van bescherming in de hele Unie. Het hanteert een risicogebaseerde benadering om ervoor te zorgen dat de eisen proportioneel zijn aan de potentiële risico's die AI-systemen met zich meebrengen. Het is ontworpen als een dynamisch en evoluerend raamwerk, met de mogelijkheid tot aanpassing door middel van gedelegeerde en uitvoeringsbesluiten, richtlijnen en gedragscodes.
### 1.1 Doelstellingen van de AI Act
De belangrijkste doelstellingen van de AI Act zijn:
* Het verbeteren van de werking van de interne markt voor AI-systemen.
* Het bevorderen van de adoptie van mensgerichte en betrouwbare kunstmatige intelligentie.
* Het waarborgen van een hoog niveau van bescherming van de gezondheid, veiligheid, fundamentele rechten (waaronder democratie, rechtsstaat en milieubescherming) tegen schadelijke effecten van AI-systemen.
* Het ondersteunen van innovatie op het gebied van AI.
### 1.2 Reikwijdte van de AI Act
De AI Act is van toepassing op:
* **Providers** die AI-systemen of algemene AI-modellen op de markt brengen of in gebruik nemen in de Unie, ongeacht hun vestigingsplaats.
* **Deployers** (gebruikers) van AI-systemen die gevestigd zijn in de Unie.
* **Providers en deployers** van AI-systemen die gevestigd zijn in een derde land, maar waarvan de output binnen de Unie wordt gebruikt (extraterritorialiteit).
* **Importeurs en distributeurs** van AI-systemen.
* **Productfabrikanten** die AI-systemen samen met hun producten op de markt brengen of in gebruik nemen.
* **Gemachtigde vertegenwoordigers** van providers die niet in de Unie zijn gevestigd.
* **Betrokken personen** die zich in de Unie bevinden.
De verordening is **niet** van toepassing op:
* Activiteiten gericht op onderzoek, testen of ontwikkeling van AI-systemen of modellen voordat deze op de markt worden gebracht of in gebruik worden genomen (tenzij het testen onder reële omstandigheden betreft).
* Natuurlijke personen die AI-systemen gebruiken voor puur persoonlijke, niet-professionele activiteiten.
> **Tip:** De AI Act bevat een gedetailleerde definitie van 'AI-systeem' om de reikwijdte duidelijk af te bakenen. Deze definitie is machine-gebaseerd, opereert met wisselende autonomie en kan zich aanpassen na implementatie, met als doel het genereren van outputs zoals voorspellingen, content, aanbevelingen of beslissingen die fysieke of virtuele omgevingen kunnen beïnvloeden.
### 1.3 Algemene structuur en risicogebaseerde benadering
De AI Act structureert de regulering op basis van een risicogebaseerde aanpak, waarbij de inhoud en het type regels worden afgestemd op de intensiteit en omvang van de risico's die AI-systemen kunnen genereren. Deze aanpak kent de volgende categorieën:
* **Verboden AI-praktijken:** Bepaalde praktijken worden verboden omdat ze in strijd zijn met de Uniewaarden (menselijke waardigheid, vrijheid, gelijkheid, democratie, rechtsstaat) en fundamentele rechten (niet-discriminatie, gegevensbescherming, privacy, rechten van het kind).
* **Hoog-risico AI-systemen:** Systemen die een aanzienlijk risico op schade aan gezondheid, veiligheid of fundamentele rechten met zich meebrengen, zijn onderworpen aan strikte eisen.
* **AI-systemen met transparantieverplichtingen:** Bepaalde systemen die direct interageren met natuurlijke personen of synthetische content genereren, vallen onder specifieke transparantieregels.
* **Andere AI-systemen:** Systemen die geen significant risico vormen, kunnen vrij worden ontwikkeld en gebruikt onder bestaande wetgeving, met de optie tot vrijwillige naleving van vertrouwensprincipes.
#### 1.3.1 Verboden AI-praktijken (Artikel 5)
De volgende AI-praktijken zijn verboden:
* Het gebruik van subliminale technieken om gedrag te vertekenen en schade te veroorzaken.
* Het uitbuiten van kwetsbaarheden van personen (bv. leeftijd) om gedrag te vertekenen.
* Sociale scoring door publieke en private instanties.
* Profielgebaseerde voorspellende politie-inzet.
* Gerichte scraping van internet of camerabeelden voor het opbouwen van databases.
* Emotieherkenning in de werkplek en onderwijsinstellingen, tenzij voor medische of veiligheidsredenen (bv. monitoring van vermoeidheid bij piloten).
* Biometrische categorisatie van natuurlijke personen op basis van biometrische gegevens om ras, politieke meningen, vakbondslidmaatschap, religieuze of filosofische overtuigingen, of seksuele geaardheid af te leiden.
* Real-time gebruik van biometrische identificatie in openbaar toegankelijke ruimtes door wetshandhavingsinstanties, met enkele nauwe uitzonderingen (bv. zoektocht naar ontvoering slachtoffers).
> **Voorbeeld:** Het gebruik van AI door een callcenter om de emoties van medewerkers te volgen, zoals woede, is verboden. Ook het gebruik van emotieherkenning AI tijdens wervingsprocessen is niet toegestaan.
#### 1.3.2 Hoog-risico AI-systemen (Bijlage III)
AI-systemen worden als hoog-risico geclassificeerd als ze voldoen aan bepaalde criteria, met name wanneer ze worden gebruikt als veiligheidscomponent van producten die onder specifieke Unie harmonisatiewetgeving vallen (die een externe conformiteitsbeoordeling vereist), of wanneer het systeem zelf een product is dat zo'n beoordeling vereist. Dit omvat sectoren zoals:
* **Biometrie en continu toezicht op natuurlijke personen.**
* **Kritieke infrastructuur:** Systemen die essentieel zijn voor het beheer van verkeer, de levering van water, gas, elektriciteit en verwarming.
* **Onderwijs en beroepsopleiding:** Systemen die de toegang tot of toelating tot onderwijsinstellingen bepalen, of personen toewijzen aan instellingen.
* **Werkgelegenheid, arbeidsbeheer en toegang tot zelfstandig ondernemerschap:** Systemen voor werving en selectie, plaatsing van jobadvertenties, analyse van sollicitaties en evaluatie van kandidaten.
* **Toegang tot en genot van essentiële particuliere en publieke diensten en voordelen:** Systemen voor kredietwaardigheid, risicobepaling en prijsstelling voor levens- en zorgverzekeringen, classificatie van noodoproepen, en triage in de gezondheidszorg.
* **Rechtshandhaving:** Systemen die door of namens wetshandhavingsinstanties worden gebruikt om het risico op criminaliteit te beoordelen.
* **Migratie, asiel en grenscontrolebeheer.**
* **Administratie van justitie en democratische processen:** Systemen die rechtbanken helpen bij het onderzoeken en interpreteren van feiten en wetten, en bij het toepassen van wetten op concrete feiten.
> **Voorbeeld:** AI-systemen die worden gebruikt voor het werven en selecteren van werknemers worden als hoog-risico beschouwd vanwege hun aanzienlijke impact op de loopbaan van individuen en het risico op het bestendigen van discriminatie.
#### 1.3.3 Verplichtingen met betrekking tot hoog-risico AI-systemen
**Vereisten voor providers:**
* **Risicomanagementsystemen:** Een iteratief proces van identificatie, analyse en beheersing van risico's.
* **Datakwaliteit en -governance:** Maatregelen om biases te detecteren, voorkomen en mitigeren, en identificatie van datagaten.
* **Technische documentatie en registratie:** Gedetailleerde documentatie en logging voor traceerbaarheid.
* **Transparantie en informatieverschaffing:** Duidelijke informatie aan deployers.
* **Menselijk toezicht:** Mogelijkheden voor menselijke interventie.
* **Nauwkeurigheid, cyberbeveiliging en robuustheid.**
* **Kwaliteitsmanagementsysteem:** Vastgelegde beleidslijnen en procedures.
* **Post-market monitoring:** Systemen voor het melden van ernstige incidenten.
**Vereisten voor deployers:**
* Het nemen van passende technische en organisatorische maatregelen om AI-systemen te gebruiken in overeenstemming met de gebruiksaanwijzingen.
* Het toewijzen van menselijk toezicht aan gekwalificeerde personen.
* Informeren van natuurlijke personen wanneer zij worden blootgesteld aan een hoog-risico AI-systeem dat beslissingen beïnvloedt.
* Uitvoeren van een fundamentele rechten impactbeoordeling voorafgaand aan het gebruik van bepaalde hoog-risico AI-systemen.
Alle hoog-risico AI-systemen moeten worden geregistreerd in een publieke EU-database.
#### 1.3.4 Transparantieverplichtingen
AI-systemen die rechtstreeks interageren met natuurlijke personen moeten zo worden ontworpen dat deze personen worden geïnformeerd dat zij met een AI-systeem interageren, tenzij dit evident is.
Providers van AI-systemen die synthetische audio, beeld, video of tekst genereren (zoals deepfakes), moeten de output markeren op een machineleesbare manier die detecteerbaar is als kunstmatig gegenereerd of gemanipuleerd.
> **Voorbeeld:** Companion chatbots moeten duidelijk maken dat de gebruiker met een AI communiceert, om misleiding en onnodige afhankelijkheid te voorkomen.
#### 1.3.5 AI-systemen met systemische risico's (Algemene AI-modellen - GPAI)
Algemene AI-modellen (GPAI), zoals grote taalmodellen (LLM's), die een breed scala aan taken kunnen uitvoeren en in diverse toepassingen kunnen worden geïntegreerd, hebben specifieke verplichtingen. Dit geldt met name voor GPAI-modellen met systemische risico's (met hoge impactcapaciteiten).
**Algemene verplichtingen voor GPAI-providers:**
* Technische documentatie over het model.
* Informatie en documentatie om naleving van auteursrecht te waarborgen.
* Publieke beschikbaarstelling van een samenvatting van trainingsdata (via een template van het AI Office).
**Aanvullende verplichtingen voor GPAI-modellen met systemische risico's:**
* Het uitvoeren van model-evaluaties.
* Continu beoordelen en mitigeren van systemische risico's.
* Melden van incidenten en voldoen aan cybersecurity-vereisten.
De Europese Commissie, via het AI Office, heeft exclusieve toezichts- en handhavingsbevoegdheden voor GPAI-modellen, met boetes tot 3% van de totale wereldwijde omzet.
> **Tip:** De AI Act erkent de unieke rol van GPAI-modellen en de noodzaak voor transparantie en risicobeheer, vooral bij modellen met potentieel grote maatschappelijke impact.
#### 1.3.6 AI-systemen bedoeld voor kinderen
De AI Act besteedt bijzondere aandacht aan kinderen en hun rechten. Hoewel er geen aparte categorie "hoog-risico" voor AI-systemen specifiek bedoeld voor kinderen is, worden de rechten van kinderen expliciet vermeld in de overwegingen en worden ze als kwetsbare groep benoemd bij risicobeoordelingen. AI-systemen die kwetsbaarheden van kinderen exploiteren om hun gedrag te vertekenen, vallen onder de verboden praktijken.
Er is kritiek dat de AI Act mogelijk niet voldoende specifieke bescherming biedt aan kinderen, en dat een algemene verplichting tot specifieke bescherming voor kinderen en de toepassing van het voorzorgsprincipe wenselijk zou zijn.
#### 1.3.7 Deepfakes
Deepfakes, gedefinieerd als door AI gegenereerde of gemanipuleerde beelden, audio of video die authentiek of waarheidsgetrouw lijken, zijn specifiek gereguleerd.
* Providers van GPAI-systemen die synthetische content genereren, moeten de outputs markeren op een machineleesbare en detecteerbare manier.
* Gebruikers van deepfake-systemen moeten disclosure doen dat de content kunstmatig is gegenereerd of gemanipuleerd, tenzij het gaat om artistieke, satirische of fictieve werken, of wanneer het gebruik is toegestaan voor strafrechtelijke opsporing.
## 2. Monitoring en handhaving
De handhaving van de AI Act wordt uitgevoerd door de nationale bevoegde autoriteiten in de lidstaten, bijgestaan door het Europees AI Office. Dit orgaan zorgt voor technische expertise, coördinatie en toezicht, met name op GPAI-modellen.
* **Boetes:** Administratieve boetes kunnen oplopen tot 7% van de totale wereldwijde jaaromzet.
* **Remedies:** Natuurlijke of rechtspersonen die menen dat de AI Act is geschonden, en betrokkenen die negatief worden beïnvloed door beslissingen van hoog-risico AI-systemen, hebben recht op verduidelijking en uitleg.
> **Voorbeeld:** In het geval van een beslissing over een hypotheekaanvraag die is beïnvloed door een hoog-risico AI-systeem, heeft de aanvrager het recht op een duidelijke en betekenisvolle uitleg over de rol van het AI-systeem in dat besluitvormingsproces.
---
# Risicogebaseerde aanpak en verboden praktijken
De AI Act hanteert een risicogebaseerde aanpak om de ontwikkeling, het op de markt brengen en het gebruik van AI-systemen te reguleren, met als doel de interne markt te verbeteren, mensgerichte en betrouwbare AI te bevorderen en een hoog beschermingsniveau te waarborgen voor gezondheid, veiligheid, grondrechten, democratie, rechtsstaat en het milieu. De verordening verbiedt specifiek bepaalde AI-praktijken die als onacceptabel worden beschouwd omdat ze in strijd zijn met de waarden van de Unie en de daarin vervatte grondrechten.
### 2.1 De risicogebaseerde aanpak
De kern van de AI Act is de risicogebaseerde benadering, die een proportioneel en effectief geheel van bindende regels voorschrijft voor AI-systemen, afhankelijk van het type en de intensiteit van de risico's die zij kunnen genereren. Deze aanpak categoriseert AI-systemen op basis van hun risiconiveau, variërend van onacceptabel en hoog risico tot transparantie en minimaal risico.
#### 2.1.1 Verboden AI-praktijken
Artikel 5 van de AI Act verbiedt specifiek de volgende AI-praktijken, omdat deze de waarden van de Unie, zoals respect voor menselijke waardigheid, vrijheid, gelijkheid, democratie en de rechtsstaat, en de daarin vervatte grondrechten, waaronder het recht op non-discriminatie, gegevensbescherming, privacy en de rechten van het kind, schenden:
* **Gebruik van subliminale technieken:** Technieken die het gedrag van personen subliem beïnvloeden en schadelijk kunnen zijn.
* **Exploitatie van kwetsbaarheden:** Het misbruiken van kwetsbaarheden van personen (bijvoorbeeld leeftijd, handicap, sociale of economische situatie) om hun gedrag te beïnvloeden op een manier die aanzienlijke schade veroorzaakt of waarschijnlijk zal veroorzaken.
> **Voorbeeld:** AI-systemen die specifiek gericht zijn op kinderen en hen manipulatieve inhoud voorschotelen die hun gedrag negatief kan beïnvloeden.
* **Social scoring:** Het toekennen van een sociaal puntensysteem door publieke of private entiteiten, wat kan leiden tot discriminatie en beperking van vrijheden.
* **Voorspellende politie-inzet op basis van profilering:** Het inzetten van AI om criminaliteit te voorspellen op basis van de profilering van individuen, zonder solide wetenschappelijke onderbouwing of rechtsbasis, wat kan leiden tot discriminatie en schending van privacy.
* **Ongekwalificeerd scrapen van internet of CCTV voor gezichtsbeelden:** Het zonder specifieke toestemming verzamelen van gezichtsbeelden uit openbare bronnen, zoals internet of videobewakingssystemen, voor het opbouwen of uitbreiden van databases.
* **Emotieherkenning in de werkplek en onderwijsinstellingen:** Het gebruiken van AI om emoties van personen in de werk- of onderwijssfeer te detecteren, tenzij dit strikt noodzakelijk is voor medische of veiligheidsredenen (bijvoorbeeld het monitoren van de vermoeidheid van een piloot).
> **Voorbeeld:** Een callcenter dat AI gebruikt om de emoties van medewerkers, zoals woede, te monitoren; AI-systemen voor emotieherkenning tijdens sollicitatieprocedures; camera's in een supermarkt om de emoties van werknemers te volgen.
* **Biometrische categorisatie op basis van gevoelige kenmerken:** Het categoriseren van personen op basis van biometrische gegevens om hun ras, politieke opvattingen, vakbondslidmaatschap, religieuze of filosofische overtuigingen of seksuele geaardheid af te leiden of te infereren.
* **Realtime externe biometrische identificatie in publiek toegankelijke ruimtes door wetshandhavingsinstanties:** Tenzij er sprake is van strikt omschreven uitzonderingen, zoals de opsporing van ontvoering slachtoffers, is het verboden om biometrische identificatie in realtime in publieke ruimtes toe te passen.
> **Tip:** De uitzonderingen op dit verbod zijn zeer beperkt en vereisen een zorgvuldige afweging van de proportionaliteit en noodzakelijkheid.
#### 2.1.2 Hoog-risico AI-systemen
AI-systemen die in Bijlage III van de AI Act zijn opgenomen, worden geclassificeerd als hoog-risico. Dit geldt onder meer voor:
* **AI als veiligheidscomponent of product:** AI-systemen die als veiligheidscomponent van een product dienen of zelf een product zijn dat onder specifieke EU-harmonisatiewetgeving valt en waarvoor een externe conformiteitsbeoordeling vereist is. Denk hierbij aan producten zoals machines, medische hulpmiddelen, en speelgoed.
* **Biometrie en biometrische identificatie:** Systemen die biometrische gegevens verwerken voor identificatie of categorisatie, met enkele beperkte uitzonderingen.
* **Kritieke infrastructuur:** AI-systemen die essentieel zijn voor het functioneren van vitale infrastructuur, zoals energievoorziening of transport.
* **Onderwijs en beroepsopleiding:** AI-systemen die worden gebruikt om toegang te verlenen, toelatingen te bepalen of personen toe te wijzen aan onderwijs- en beroepsopleidingsinstellingen.
> **Voorbeeld:** Een algoritme dat beslist over de toelating van studenten tot een universiteit, kan hoog-risico zijn vanwege de impact op toekomstige carrièrekansen.
* **Werkgelegenheid, arbeidsbeheer en toegang tot zelfstandig ondernemerschap:** AI-systemen die worden gebruikt voor werving, selectie, het analyseren en filteren van sollicitaties, of het evalueren van kandidaten.
> **Voorbeeld:** AI-gestuurde tools voor het screenen van cv's of het uitvoeren van video-interviews kunnen hoog-risico zijn vanwege het risico op discriminatie en de impact op loopbaanperspectieven.
* **Toegang tot en genot van essentiële privé- en publieke diensten en voordelen:** AI-systemen die beslissen over de toegang tot diensten zoals sociale bijstand, kredietverlening, het beoordelen van risico's en het bepalen van premies voor levens- en ziektekostenverzekeringen, of het classificeren van noodoproepen.
* **Rechtshandhaving:** AI-systemen die door of namens wetshandhavingsautoriteiten worden gebruikt voor doeleinden zoals het beoordelen van het risico dat een persoon slachtoffer wordt van criminele delicten.
* **Migratie, asiel en grenscontrolebeheer:** AI-systemen die worden ingezet bij deze processen.
* **Administratie van justitie en democratische processen:** AI-systemen die gerechtelijke autoriteiten ondersteunen bij de interpretatie van feiten en wetten, of die de uitkomst van verkiezingen of referenda proberen te beïnvloeden.
#### 2.1.3 Verplichtingen voor hoog-risico AI-systemen
Voor hoog-risico AI-systemen gelden specifieke, strikte verplichtingen voor zowel aanbieders als gebruikers (deployers):
* **Voor aanbieders:**
* **Risicobeheersingssystemen:** Een iteratief proces van identificatie, analyse en mitigatie van redelijkerwijs voorzienbare risico's.
* **Gegevenskwaliteit en -beheer:** Maatregelen om vooringenomenheid (bias) te detecteren, te voorkomen en te beperken.
* **Technische documentatie:** Gedetailleerde documentatie over het systeem.
* **Registratie en traceerbaarheid:** Logboekregistratie en traceerbaarheid van de werking van het systeem.
* **Transparantie en informatievoorziening:** Duidelijke informatie aan gebruikers over het systeem.
* **Menselijk toezicht:** Mogelijkheden voor menselijke interventie en controle.
* **Nauwkeurigheid, cybersecurity en robuustheid:** Zorgen voor betrouwbaarheid en veiligheid.
* **Kwaliteitsbeheersingssysteem:** Implementatie van beleid, procedures en instructies.
* **Monitoring na marktintroductie:** Systematische monitoring van de prestaties en risico's na ingebruikname.
* **Melding van ernstige incidenten:** Rapporteren van calamiteiten aan de bevoegde autoriteiten.
* **Voor gebruikers (deployers):**
* **Technische en organisatorische maatregelen:** Zorgen voor correct gebruik conform de instructies.
* **Menselijk toezicht:** Toewijzen van toezicht aan bevoegde personen met de nodige expertise.
* **Informatieplicht:** Informeren van natuurlijke personen wanneer zij worden blootgesteld aan een hoog-risico AI-systeem.
* **Impactbeoordeling grondrechten:** Voor bepaalde hoog-risico systemen is een beoordeling van de impact op grondrechten vereist, waarbij indien nodig belanghebbenden worden betrokken en relevante markttoezichtautoriteit op de hoogte wordt gesteld.
Alle hoog-risico AI-systemen moeten worden geregistreerd in een publieke EU-database.
#### 2.1.4 Transparantieverplichtingen
AI-systemen die direct interactie hebben met personen, of die synthetische inhoud genereren, vallen onder specifieke transparantieverplichtingen:
* **Interactie met personen:** Personen moeten geïnformeerd worden dat ze interageren met een AI-systeem, tenzij dit evident is.
* **Genereren van synthetische inhoud (deepfakes, etc.):** De output van AI-systemen die synthetisch audio, beeld, video of tekst genereren, moet machineleesbaar worden gemarkeerd als kunstmatig gegenereerd of gemanipuleerd. Uitzonderingen gelden voor artistieke, satirische of fictieve werken, of wanneer de inhoud onderworpen is aan menselijke redactie en een persoon redactieverantwoordelijkheid draagt.
> **Voorbeeld:** Een chatbot die een relatie van vertrouwen nabootst, moet duidelijk maken dat het om AI gaat.
> **Voorbeeld:** Een systeem dat een deepfake creëert, moet dit markeren, tenzij het een duidelijk artistiek of satirisch doel dient.
* **Gebruik van emotieherkennings- of biometrische categorisatiesystemen:** Personen moeten geïnformeerd worden over de werking van dergelijke systemen.
#### 2.1.5 Algemeen inzetbare AI (General-Purpose AI - GPAI)
Voor 'general-purpose AI'-modellen (GPAI-modellen) en -systemen, zoals grote taalmodellen (LLM's), gelden specifieke regels, mede vanwege hun brede toepasbaarheid en potentieel grote impact:
* **Algemene verplichtingen voor aanbieders van GPAI-modellen:**
* **Technische documentatie:** Informatie verstrekken aan downstream AI-aanbieders over het model.
* **Informatie- en documentatiebeleid:** Voldoen aan de auteursrechtwetgeving.
* **Samenvatting trainingsdata:** Een openbaar toegankelijke samenvatting van de gebruikte trainingsdata.
* **Aanvullende verplichtingen voor GPAI-modellen met systemische risico's:**
* **Model-evaluaties:** Continue beoordeling van het model.
* **Mitigatie van systemische risico's:** Actieve inspanningen om risico's te verminderen.
* **Rapportage van incidenten:** Melden van problemen en kwetsbaarheden.
* **Cybersecurityvereisten:** Naleving van beveiligingsstandaarden.
GPAI-modellen die worden geïntegreerd in hoog-risico AI-systemen, moeten voldoen aan de verplichtingen voor zowel GPAI als voor het specifieke hoog-risico systeem.
> **Tip:** De EU heeft een speciaal AI-bureau opgericht om toezicht te houden op de naleving en handhaving van de regels voor GPAI-modellen, met mogelijkheid tot aanzienlijke boetes bij overtredingen (tot 7% van de wereldwijde jaaromzet).
---
# Hoog-risico AI-systemen en transparantieverplichtingen
Dit onderdeel van de studiegids behandelt de classificatie van hoog-risico AI-systemen, de bijbehorende verplichtingen voor aanbieders en gebruikers, en de specifieke transparantieverplichtingen die voortvloeien uit de Europese AI Act.
## 3. Hoog-risico AI-systemen en transparantieverplichtingen
De Europese AI Act hanteert een risicogebaseerde benadering om de ontwikkeling, het op de markt brengen en het gebruik van AI-systemen te reguleren. Deze benadering categoriseert AI-systemen op basis van het potentiële risico dat ze vormen voor de gezondheid, veiligheid en fundamentele rechten van personen.
### 3.1 De risicogebaseerde aanpak
De AI Act stelt een proportionele set bindende regels op voor AI-systemen, gebaseerd op hun risiconiveau. De inhoud en het type regels zijn afgestemd op de intensiteit en reikwijdte van de risico's die AI-systemen kunnen genereren.
#### 3.1.1 Verbod op bepaalde AI-praktijken
Bepaalde AI-praktijken worden verboden omdat ze in strijd zijn met de EU-waarden van respect voor menselijke waardigheid, vrijheid, gelijkheid, democratie en de rechtsstaat, evenals de fundamentele rechten zoals vastgelegd in het Handvest. Dit omvat onder andere:
* Gebruik van subliminale technieken om gedrag te verstoren en schade te veroorzaken.
* Exploitatie van kwetsbaarheden van personen (bv. leeftijd) om gedrag te verstoren.
* Sociale scoring door publieke en private entiteiten.
* Voorspellende politiedienst op basis van profilering.
* Niet-gerichte scraping van internet of camerabeelden voor het opbouwen van databases met gelaatsafbeeldingen.
* Emotieherkenning in werk- en onderwijsinstellingen, tenzij voor medische of veiligheidsredenen (bv. vermoeidheidsmonitoring van een piloot).
* Biometrische categorisatie van personen op basis van biometrische gegevens om ras, politieke meningen, vakbondslidmaatschap, religieuze of filosofische overtuigingen, of seksuele geaardheid af te leiden.
* Real-time externe biometrische identificatie in publiek toegankelijke ruimtes door wetshandhavingsinstanties, met enkele beperkte uitzonderingen (bv. opsporing van ontvoeringsslachtoffers).
> **Voorbeeld:** Het gebruik van AI-systemen door een callcenter om de emoties van werknemers, zoals woede, te volgen, is verboden. Ook het gebruik van emotieherkenningssystemen tijdens wervingsprocessen of door onderwijsinstellingen tijdens toelatingstesten voor nieuwe studenten is niet toegestaan.
#### 3.1.2 Hoog-risico AI-systemen
AI-systemen worden als hoog-risico geclassificeerd indien zij voldoen aan bepaalde criteria, met name als zij worden gebruikt als veiligheidscomponent van een product of als het AI-systeem zelf een product is dat onder de EU-harmonisatiewetgeving valt en waarvoor een externe conformiteitsbeoordeling vereist is. Daarnaast zijn specifieke AI-systemen expliciet opgenomen in Bijlage III van de AI Act:
* **Biometrie en vitale infrastructuur:** Systemen die worden gebruikt in kritieke infrastructuur, zoals verkeersbeheer of nutsbedrijven.
* **Onderwijs en beroepsopleiding:** Systemen die worden gebruikt om toegang te verlenen tot of toelating te regelen tot onderwijsinstellingen, of om personen toe te wijzen aan opleidingsprogramma's.
* **Werkgelegenheid, beheer van werknemers en toegang tot zelfstandig ondernemerschap:** Systemen voor werving en selectie, analyse van sollicitaties, en evaluatie van kandidaten.
* **Toegang tot essentiële particuliere diensten en openbare diensten en uitkeringen:** Systemen voor kredietbeoordeling, risicoanalyse en prijsstelling voor levens- en ziektekostenverzekeringen, classificatie van noodoproepen, of triage in de gezondheidszorg.
* **Rechtshandhaving:** Systemen die door of namens wetshandhavingsinstanties worden gebruikt om het risico van criminaliteit te beoordelen.
* **Migratie, asiel en grensbeheer.**
* **Administratie van justitie en democratische processen:** Systemen die gerechtelijke autoriteiten ondersteunen bij het onderzoeken en interpreteren van feiten en wetten, of die de uitkomst van verkiezingen of referenda beïnvloeden.
> **Voorbeeld:** AI-systemen die worden gebruikt voor het werven en selecteren van personeel worden als hoog-risico beschouwd omdat ze een aanzienlijke impact kunnen hebben op de loopbaanperspectieven en de rechten van werknemers, en het risico op het bestendigen van vooroordelen met zich meebrengen.
#### 3.1.3 Verplichtingen voor aanbieders van hoog-risico AI-systemen
Aanbieders van hoog-risico AI-systemen zijn onderworpen aan diverse verplichtingen, waaronder:
* **Risicomanagementsystemen:** Een iteratief proces voor het identificeren, analyseren en mitigeren van redelijkerwijs voorzienbare risico's.
* **Gegevenskwaliteit en -beheer:** Het implementeren van maatregelen om vooringenomenheid te detecteren, voorkomen en mitigeren, en om hiaten in data te identificeren.
* **Technische documentatie en gegevensregistratie:** Het bijhouden van uitgebreide documentatie en logboeken voor traceerbaarheid.
* **Transparantie en informatieverstrekking aan gebruikers (deployers).**
* **Menselijk toezicht:** Het ontwerpen van systemen die menselijk toezicht mogelijk maken.
* **Nauwkeurigheid, cyberbeveiliging en robuustheid.**
* **Kwaliteitsmanagementsysteem:** Het invoeren van schriftelijke beleidslijnen, procedures en instructies.
* **Post-markt monitoring:** Het monitoren van het systeem na plaatsing op de markt en het melden van ernstige incidenten.
#### 3.1.4 Verplichtingen voor gebruikers (deployers) van hoog-risico AI-systemen
Gebruikers van hoog-risico AI-systemen moeten:
* **Technische en organisatorische maatregelen nemen:** Zorgen voor correct gebruik in overeenstemming met de instructies.
* **Menselijk toezicht toewijzen:** Aanstellen van bevoegde personen met de nodige competentie, training en autoriteit.
* **Transparantie:** Natuurlijke personen informeren wanneer zij worden blootgesteld aan een hoog-risico AI-systeem dat beslissingen beïnvloedt die juridische of significant vergelijkbare gevolgen hebben.
* **Fundamentele rechtenimpactbeoordeling:** Uitvoeren van een beoordeling van de impact op fundamentele rechten voorafgaand aan het in gebruik nemen van bepaalde hoog-risico AI-systemen, met name die door publieke entiteiten of in specifieke financiële sectoren worden gebruikt. Dit kan ook de kennisgeving aan de relevante markttoezichtautoriteit en het opstellen van een sjabloon vereisen.
* **Registratie:** Hoog-risico AI-systemen moeten worden geregistreerd in een openbare EU-database.
> **Voorbeeld:** Een verzekeringsmaatschappij die een hoog-risico AI-systeem gebruikt voor de risicoanalyse en prijsstelling van levens- en ziektekostenverzekeringen moet een fundamentele rechtenimpactbeoordeling uitvoeren en de betrokkenen informeren over het gebruik van het systeem.
### 3.2 Transparantieverplichtingen voor bepaalde AI-systemen
Naast de verplichtingen voor hoog-risico AI-systemen, legt de AI Act specifieke transparantieverplichtingen op voor andere categorieën AI-systemen om te waarborgen dat gebruikers worden geïnformeerd over hun interactie met AI of de herkomst van door AI gegenereerde inhoud.
#### 3.2.1 Systemen die direct interageren met personen
AI-systemen die bedoeld zijn om direct met natuurlijke personen te interageren, moeten zo worden ontworpen en ontwikkeld dat de betrokken personen worden geïnformeerd dat zij met een AI-systeem interageren. Dit geldt niet wanneer de interactie overduidelijk is, rekening houdend met de omstandigheden en context van gebruik.
#### 3.2.2 Genereren van synthetische inhoud (deepfakes)
Aanbieders van AI-systemen die synthetische audio-, beeld-, video- of tekstinhoud genereren (inclusief general-purpose AI-modellen) moeten ervoor zorgen dat de outputs gemarkeerd zijn in een machineleesbaar formaat dat detecteerbaar is als kunstmatig gegenereerd of gemanipuleerd. Dit geldt, met enkele uitzonderingen, voor deepfakes, met inbegrip van die in de politieke sfeer. De transparantieverplichtingen zijn beperkt wanneer de content evident artistiek, creatief, satirisch of fictief is.
Gebruikers die een AI-systeem gebruiken dat dergelijke content genereert, moeten duidelijk maken dat de content kunstmatig is gegenereerd of gemanipuleerd, tenzij het gebruik is toegestaan voor het opsporen, voorkomen, onderzoeken of vervolgen van strafbare feiten, of indien de content een proces van menselijke controle of redactionele controle heeft ondergaan en een natuurlijk of rechtspersoon redactionele verantwoordelijkheid draagt.
> **Voorbeeld:** Een website die AI gebruikt om nieuwsartikelen te genereren, moet duidelijk aangeven dat de tekst kunstmatig is opgesteld, tenzij er een menselijke redacteur betrokken is geweest bij de controle en publicatie.
#### 3.2.3 Emotieherkenning en biometrische categorisatie
Gebruikers van emotieherkenningssystemen of biometrische categorisatiesystemen moeten de betrokken natuurlijke personen informeren over de werking van het systeem en voldoen aan de GDPR en de Data Protection Directive.
#### 3.2.4 Companion chatbots
De transparantieplicht is cruciaal voor companion chatbots om te voorkomen dat gebruikers onterecht een vertrouwensrelatie aangaan met een AI. Gebruikers moeten duidelijk worden geïnformeerd dat ze interageren met een AI.
> **Tip:** Bij de evaluatie van AI-systemen, met name die met directe menselijke interactie, is het essentieel om na te gaan hoe effectief de transparantieverplichtingen worden nageleefd en of gebruikers zich bewust zijn van de aard van hun interactie.
### 3.3 Andere systemen
AI-systemen die niet onder de categorieën verboden praktijken of hoog-risico vallen, kunnen worden ontwikkeld en gebruikt onder bestaande wetgeving, zonder aanvullende wettelijke verplichtingen. Aanbieders van dergelijke systemen kunnen echter vrijwillig de vereisten voor betrouwbare AI toepassen en zich houden aan vrijwillige gedragscodes. Deze kunnen aanvullende vereisten omvatten, zoals milieu-duurzaamheid, AI-geletterdheid en inclusief design.
### 3.4 General-purpose AI (GPAI) modellen
General-purpose AI-modellen, zoals grote taalmodellen (LLM's), hebben specifieke verplichtingen:
* **Algemene verplichtingen:** Aanbieders moeten technische documentatie verstrekken aan downstream AI-aanbieders, een beleid naleven met betrekking tot auteursrecht, en een publiek toegankelijke samenvatting van trainingsdata beschikbaar stellen.
* **Additionele verplichtingen voor modellen met systemische risico's:** Modellen met hoge capaciteiten en groot rekenkracht vereisen continue model-evaluaties, beoordeling en mitigatie van systemische risico's, en het melden van incidenten.
> **Voorbeeld:** De aanbieder van een large language model zoals GPT-4 moet technische documentatie leveren die andere ontwikkelaars helpt bij het integreren van het model in hun eigen AI-toepassingen.
Als GPAI-modellen worden geïntegreerd in hoog-risico AI-systemen, moeten de aanbieders voldoen aan zowel de algemene verplichtingen voor GPAI als de specifieke verplichtingen voor hoog-risico systemen. De Europese Commissie kan implementatiebesluiten aannemen om gedragscodes goed te keuren of gemeenschappelijke regels vast te stellen.
### 3.5 Monitoring en handhaving
De naleving van de AI Act wordt gemonitord en gehandhaafd door de Europese Commissie, die de exclusieve bevoegdheid heeft voor de supervisie en handhaving van regels met betrekking tot general-purpose AI-modellen. Nationale bevoegde autoriteiten spelen ook een rol.
* **Boetes:** Administratieve boetes kunnen oplopen tot 7% van de totale wereldwijde jaaromzet.
* **Rechtsmiddelen:** Natuurlijke of rechtspersonen die van mening zijn dat de AI Act is geschonden, hebben het recht om, onder bepaalde voorwaarden, duidelijke en betekenisvolle uitleg te vragen over de rol van een hoog-risico AI-systeem in een besluitvormingsprocedure.
> **Tip:** De handhavingsmechanismen en mogelijke boetes benadrukken het belang van strikte naleving van de AI Act, vooral voor aanbieders en gebruikers van hoog-risico AI-systemen en GPAI-modellen.
---
# Algemeen doel AI (GPAI) en handhaving
Hier is een gedetailleerde studiegids voor het onderwerp "Algemeen doel AI (GPAI) en handhaving" binnen de AI Act.
## 4. Algemeen doel AI (GPAI) en handhaving
Dit onderdeel van de AI Act behandelt de specifieke regelgeving rondom Algemeen Doel AI-modellen, de verplichtingen voor aanbieders hiervan, en de handhavingsmechanismen die de naleving verzekeren.
### 4.1 Definitie en reikwijdte van Algemeen Doel AI
#### 4.1.1 Definitie van Algemeen Doel AI (GPAI)
De AI Act definieert een 'Algemeen Doel AI-model' (GPAI-model) als een AI-model, inclusief modellen die zijn getraind met grote hoeveelheden data via zelfleren op schaal, dat een hoge mate van algemeenheid vertoont en competent een breed scala aan verschillende taken kan uitvoeren, ongeacht hoe het model op de markt wordt aangeboden. Dit geldt ook wanneer het model geïntegreerd kan worden in diverse downstream-systemen of -applicaties. Uitzondering hierop zijn AI-modellen die worden gebruikt voor onderzoeks-, ontwikkelings- of prototypingactiviteiten voordat ze op de markt worden gebracht.
Een 'Algemeen Doel AI-systeem' (GPAI-systeem) is een AI-systeem dat gebaseerd is op een GPAI-model en de mogelijkheid heeft om een verscheidenheid aan doeleinden te dienen, zowel voor direct gebruik als voor integratie in andere AI-systemen.
> **Voorbeeld:** Grote taalmodellen (LLM's) zoals GPT4, Gemini, Claude 3, Mistral Large en DALL-E vallen onder de definitie van GPAI-modellen. Applicaties zoals ChatGPT, Microsoft Copilot, Meta AI assistant, Perplexity AI en AI-chatbots geïntegreerd in apps (zoals Snapchat MyAI) zijn voorbeelden van GPAI-systemen.
#### 4.1.2 Redenen voor specifieke regelgeving voor GPAI
GPAI-modellen spelen een significante rol in de innovatie en de adoptie van AI binnen de EU. Ze worden gebruikt voor diverse taken en geïntegreerd in een breed scala aan downstream AI-systemen. Hierdoor hebben aanbieders van GPAI-modellen een bijzondere rol en verantwoordelijkheid in de gehele AI-waardeketen. Downstream aanbieders hebben een goed begrip nodig van de modellen en hun capaciteiten om deze modellen in hun producten te integreren en aan hun eigen verplichtingen onder de AI Act te voldoen.
#### 4.1.3 Toepassingsgebied en uitzonderingen
De regelgeving is van toepassing op aanbieders van GPAI-modellen. Echter, aanbieders van GPAI-modellen die modificaties aanbrengen die leiden tot een significante verandering in de algemeenheid, capaciteiten of systematische risico's van het model, worden ook als aanbieders beschouwd.
Specifieke richtlijnen van de Europese Commissie verduidelijken criteria en procedures voor het classificeren van GPAI-modellen met een systeemrisico. Deze richtlijnen bevatten specificaties over vrijstellingen voor open-source modellen en praktische regels voor het berekenen van de rekenkracht die wordt gebruikt voor de training van GPAI-modellen.
> **Tip:** De richtlijnen van de Europese Commissie zijn niet juridisch bindend, maar vertegenwoordigen de interpretatie van de Commissie. Het volgen van deze richtlijnen vergroot de kans op naleving van de AI Act.
### 4.2 Verplichtingen voor aanbieders van GPAI-modellen
#### 4.2.1 Algemene verplichtingen (Artikel 53 AI Act)
Voor alle GPAI-modellen gelden de volgende algemene verplichtingen:
* **Technische documentatie:** Aanbieders moeten gedetailleerde technische documentatie verstrekken over het GPAI-model. Deze documentatie is bedoeld om downstream AI-aanbieders die het model in hun producten willen integreren, te informeren.
* **Informatie- en documentatiebeleid:** Er moet een beleid zijn met betrekking tot informatie en documentatie dat in overeenstemming is met de auteursrechtwetgeving.
* **Openbare samenvatting van trainingsdata:** Een samenvatting van de gebruikte trainingsdata moet publiekelijk beschikbaar worden gesteld. De AI Office kan hiervoor een sjabloon leveren.
#### 4.2.2 Aanvullende verplichtingen voor GPAI-modellen met systeemrisico's (Artikel 55 AI Act)
GPAI-modellen met systeemrisico's, gedefinieerd door hun hoge impact-capaciteiten en grote rekenkracht, hebben aanvullende verplichtingen:
* **Model-evaluaties:** Continue evaluaties van het model moeten worden uitgevoerd.
* **Beoordeling en mitigatie van systeemrisico's:** Er moet voortdurend beoordeeld worden op en gemitigeerd worden tegen systematische risico's.
* **Rapportage van incidenten:** Incidenten moeten worden gemeld.
* **Cyberbeveiligingseisen:** Er moeten adequate beveiligingsmaatregelen worden getroffen.
* **Andere relevante eisen:** Afhankelijk van de classificatie van systeemrisico's.
> **Voorbeeld:** GPAI-modellen die worden gebruikt voor taken met een hoog risico, zoals het integreren in een AI-systeem voor werving en selectie, kunnen onderworpen zijn aan aanvullende verplichtingen als ze ook systeemrisico's vertonen.
#### 4.2.3 GPAI-modellen in het kader van hoog-risico AI-systemen
Wanneer GPAI-modellen worden geïntegreerd in hoog-risico AI-systemen, moet de aanbieder voldoen aan zowel de algemene en aanvullende verplichtingen voor GPAI-modellen (indien van toepassing), als aan de specifieke verplichtingen voor het hoog-risico AI-systeem (zoals risicomanagement systemen).
#### 4.2.4 Gedragscode voor GPAI
Hoewel een gedragscode voor GPAI niet verplicht is, kunnen aanbieders van GPAI-modellen hiermee naleving van hun verplichtingen aantonen. Adhesie aan de GPAI-gedragscode kan leiden tot meer vertrouwen vanuit de Europese Commissie en kan een factor zijn bij het vaststellen van boetes.
> **Tip:** De Europese Commissie verwacht korte en algemene samenvattingen voor de informatieverplichtingen, met aanbevolen woordlimieten van 200 of 300 woorden.
### 4.3 Handhaving en Sancties
De handhaving van de AI Act, inclusief de regels voor GPAI, is gelaagd.
#### 4.3.1 Europese Commissie en AI Office
De Europese Commissie heeft exclusieve bevoegdheden voor het toezicht op en de handhaving van de regels voor algemene doel AI-modellen. Dit gebeurt via het AI Office.
* **Boetes:** De boetes kunnen oplopen tot maximaal 7% van de totale wereldwijde jaaromzet van de betreffende onderneming.
* **Technische expertise:** Het AI Office beschikt over de nodige technische expertise om de naleving te beoordelen.
* **Aanbevelingen en advies:** Het AI Office kan aanbevelingen en adviezen uitbrengen.
* **Standaardisatie:** Het AI Office speelt een rol in het bevorderen van standaardisatie.
* **Coördinatie en toezicht:** Het AI Office coördineert en ziet toe op de naleving van de nieuwe regels voor algemene doel AI-modellen.
#### 4.3.2 Nationale bevoegde autoriteiten
In elke lidstaat zijn één of meerdere nationale bevoegde autoriteiten aangewezen die verantwoordelijk zijn voor de handhaving van de AI Act op nationaal niveau.
* **Markttoezicht:** Deze autoriteiten voeren markttoezicht uit.
* **Remedies:** Natuurlijke of rechtspersonen die van mening zijn dat de AI Act is geschonden, kunnen hier melding van maken.
* **Rechten van betrokkenen:** Betrokkenen die onderworpen zijn aan een beslissing op basis van de output van een hoog-risico AI-systeem (vermeld in Annex III) en die juridische gevolgen ondervinden of significant worden beïnvloed op een manier die nadelig is voor hun gezondheid, veiligheid en fundamentele rechten, hebben het recht om van de gebruiker (deployer) duidelijke en betekenisvolle uitleg te vragen over de rol van het AI-systeem in het besluitvormingsproces en de belangrijkste elementen van de genomen beslissing. Dit biedt een breed scala aan rechten voor natuurlijke personen, in tegenstelling tot bijvoorbeeld de rechten van betrokkenen onder de AVG (GDPR).
#### 4.3.3 Wetenschappelijk panel van experts
Een wetenschappelijk panel van onafhankelijke experts wordt ingesteld om potentiële risico's te monitoren en lacunes te helpen beperken. Dit panel draagt bij aan de dynamische aard van de regelgeving, die zich kan aanpassen aan technologische ontwikkelingen.
> **Tip:** Begrijp de verschillende handhavingslagen: de centrale rol van de Europese Commissie en het AI Office voor GPAI, en de rol van de nationale bevoegde autoriteiten voor de algemene handhaving binnen de lidstaten.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Kunstmatige Intelligentie (AI) | Een machine-gebaseerd systeem dat met variërende mate van autonomie kan opereren, dat adaptief kan zijn na implementatie, en dat voor expliciete of impliciete doelen, uit de ontvangen input, inferenties trekt om outputs te genereren zoals voorspellingen, content, aanbevelingen of beslissingen die fysieke of virtuele omgevingen kunnen beïnvloeden. |
| AI Act | Een verordening van de Europese Unie die een geharmoniseerd juridisch kader biedt voor de ontwikkeling, het op de markt brengen en het gebruik van AI-producten en -diensten, met als doel een consistent beschermingsniveau in de hele Unie te waarborgen. |
| Horizontale verordening | Een regelgeving die in principe van toepassing is op alle verschillende soorten sectoren, in tegenstelling tot sectorale wetgeving die specifiek gericht is op bepaalde industrieën. |
| Risicogebaseerde aanpak | Een benadering waarbij de intensiteit en de reikwijdte van de regels worden afgestemd op de risico's die AI-systemen kunnen genereren, met strengere eisen voor hoog-risicosystemen. |
| Fundamentele rechten | Essentiële rechten en vrijheden van individuen die beschermd worden door de wet, zoals het recht op non-discriminatie, bescherming van persoonsgegevens en het recht van het kind. |
| Hoog-risico AI-systemen | AI-systemen die een significant risico op schade aan de gezondheid, veiligheid of fundamentele rechten van natuurlijke personen kunnen opleveren, en die onderworpen zijn aan strengere conformiteitsbeoordelingen en verplichtingen. |
| Transparantieverplichtingen | Eisen die ervoor zorgen dat gebruikers geïnformeerd worden wanneer ze interageren met een AI-systeem of wanneer content is gegenereerd of gemanipuleerd door AI, om misleiding te voorkomen. |
| Deepfake | Een door AI gegenereerde of gemanipuleerde afbeelding, audio- of videocontent die bestaande personen, objecten, plaatsen, entiteiten of gebeurtenissen nabootst en vals als authentiek of waarheidsgetrouw zou overkomen. |
| Algemeen doel AI (GPAI) | Een AI-model, getraind met grote hoeveelheden data, dat een breed scala aan taken kan uitvoeren en dat geïntegreerd kan worden in diverse downstreamsystemen of -toepassingen. |
| Handhaving | Het proces waarbij toezicht wordt gehouden op de naleving van de wetgeving en sancties worden opgelegd bij overtredingen, in dit geval door de Europese Commissie en de AI Office. |
| Gebruiker (Deployer) | Een natuurlijke of rechtspersoon die een AI-systeem gebruikt onder zijn of haar verantwoordelijkheid en conform de instructies voor gebruik, met name van hoog-risico AI-systemen. |
| Aanbieder (Provider) | Een natuurlijke of rechtspersoon die een AI-systeem ontwikkelt, op de markt brengt of in gebruik neemt, en die verantwoordelijk is voor de naleving van de verplichtingen onder de AI Act. |
| AI-geletterdheid | De vaardigheden, kennis en het begrip die nodig zijn om AI-systemen op een geïnformeerde manier in te zetten, rekening houdend met technische kennis, ervaring en de context van gebruik. |