Cover
Zacznij teraz za darmo les 6
Summary
# De regulering van artificiële intelligentie in bestaande wettelijke kaders
Dit onderwerp behandelt de toepassing van bestaande wetgeving op AI-systemen, waarbij wordt benadrukt dat AI niet in een regelgevingsvacuüm opereert.
### 1.1 De relevantie van bestaande wettelijke kaders
AI-systemen maken gebruik van data en proberen specifieke doelstellingen te bereiken. Ze worden in diverse sectoren ingezet, en voor al deze aspecten bestaan reeds regels binnen het bestaande juridische kader. De belangrijkste boodschap is dat AI-technologie niet opereert in een wettelijke leegte.
### 1.2 Toepasselijke bestaande wetgeving
Verschillende bestaande wetgevingsgebieden zijn van toepassing op AI-systemen:
#### 1.2.1 Algemene Verordening Gegevensbescherming (AVG)
Veel AI-systemen verwerken grote hoeveelheden persoonsgegevens. De AVG blijft onverminderd van kracht voor deze systemen.
#### 1.2.2 Platformregulering (bijv. Digital Services Act - DSA)
Grote platforms en sociale mediadiensten maken intensief gebruik van AI. Regelgeving zoals de DSA is van toepassing op AI-systemen die op dergelijke platforms opereren.
#### 1.2.3 Auteursrecht
De data die als input voor AI-modellen wordt gebruikt, kan auteursrechtelijk beschermd zijn. Auteursrechtelijke regels zijn van toepassing en kunnen leiden tot inbreuken en juridische stappen indien deze worden geconstateerd.
#### 1.2.4 Sector-specifieke regelgeving
AI wordt vaak toegepast in specifieke sectoren, zoals de gezondheidszorg. In dergelijke gevallen zijn de specifieke sectorale regels ook van toepassing op de inzet van AI.
#### 1.2.5 Productveiligheid en consumentenbescherming
Apparaten die AI-functionaliteit bevatten, zoals verbonden apparaten, moeten voldoen aan de geldende regels voor productveiligheid en consumentenbescherming.
### 1.3 Noodzaak voor specifieke AI-regulering
Hoewel bestaande wetgeving van toepassing is, zijn er twee belangrijke redenen waarom specifieke AI-regulering is overwogen:
1. **Praktische toepasbaarheid van bestaande regels:** Bestaande wetten kunnen in de praktijk moeilijk toe te passen zijn op AI-gestuurde systemen, zelfs als ze theoretisch van toepassing zijn. De specifieke kenmerken van AI, zoals de "pipeline" van data-input naar modelverwerking en output, kunnen juridische beoordeling bemoeilijken.
2. **Specifieke kenmerken van AI:** AI-systemen vertonen specifieke eigenschappen, met name binnen de modellen zelf, die de relatie tussen input en output ondoorzichtig maken. Dit kan leiden tot problemen met betrekking tot 'opacity' (ondoorzichtigheid) en 'explainability' (verklaarbaarheid), wat juridische beoordeling bemoeilijkt.
### 1.4 Evolutie naar specifieke AI-regelgeving
De regulering van AI heeft een evolutie doorgemaakt:
#### 1.4.1 Fase 1: Nadruk op ethische principes
In de beginfase lag de nadruk op ethische principes voor AI. Dit is typerend voor nieuwe technologieën waarbij de risico's en werking nog niet volledig duidelijk zijn. Internationale organisaties en de EU ontwikkelden ethische richtlijnen en principes.
* **Typische ethische principes:**
* Menselijke waardigheid
* Eerlijkheid en non-discriminatie
* Veiligheid, beveiliging en robuustheid
* Technische nauwkeurigheid en betrouwbaarheid
* Duurzaamheid
* Transparantie en verklaarbaarheid (cruciaal voor juridische beoordeling)
* Human-in-the-loop / menselijk toezicht
* Verantwoordelijkheid van ontwikkelaars/ontwerpers
* AI-geletterdheid bij ontwerpers, inzetters en gebruikers
* **Voor- en nadelen van ethische principes:**
* **Voordelen:** Bieden brede principes die flexibiliteit suggereren.
* **Nadelen:** Kunnen leiden tot juridische onzekerheid omdat de praktische betekenis moeilijk te duiden is. Dit maakt handhaving door toezichthouders lastig. Deze principes zijn vaak nauw verbonden met bestaande juridische kaders, zoals mensenrechtenwetgeving.
#### 1.4.2 Fase 2: Ontwikkeling van wettelijke kaders
Naarmate de risico's van AI duidelijker werden, verschoof de focus naar bindende juridische kaders.
* **Raamverdrag inzake AI van de Raad van Europa (aangenomen in mei 2024):**
* Dit verdrag is juridisch bindend voor staten na ratificatie en staat open voor niet-lidstaten van de Raad van Europa.
* Het doel is om te zorgen dat alle activiteiten binnen de levenscyclus van AI-systemen in overeenstemming zijn met mensenrechten, democratie en de rechtsstaat.
* Het benadrukt een risicogebaseerd systeem en horizontale vereisten.
* Het vereist concretisering in de praktijk en is, vanwege het consensusproductieproces, algemeen en principieel van aard.
* Het erkent negatieve impacts van AI en verbindt staten tot regels voor publieke en private actoren om mensenrechten te beschermen.
* **Concrete verplichtingen omvatten:**
* Transparantie: Voldoende informatie over de werking en het gebruik van het systeem.
* Klachtmechanismen: Mogelijkheden om klachten in te dienen bij schending van rechten of beginselen.
* Risico-/impactbeoordeling vóór implementatie: Inclusief analyse van doel, ontwerp, datarepresentativiteit, nauwkeurigheid van het model, potentiële risico's en mensenrechtelijke impact.
* Bepaalde AI-toepassingen die onverenigbaar worden geacht met mensenrechten of waarden, kunnen worden verboden of aan een moratorium worden onderworpen.
* **Europese Unie - De weg naar de AI Act:**
* Na de publicatie van ethische richtlijnen door de High-Level Expert Group, erkende de Europese Commissie in een White Paper (2020) dat bestaande regels van toepassing zijn, maar dat AI-kenmerken de handhaving bemoeilijken.
* Dit leidde tot onderzoek naar de noodzaak van nieuwe wetgeving.
* De voorgestelde AI Act (april 2021) onderging een langdurig proces met vele amendementen.
* Belangrijke aanpassingen waren onder meer de toevoeging van regels voor generatieve LLM's na de opkomst van ChatGPT.
* De AI Act werd in juni 2024 aangenomen, met deels direct toepasbare delen en deels gefaseerde implementatie.
* De implementatie wordt als uitdagend beschouwd.
### 1.5 Recente ontwikkelingen en debatten
Na de aanneming van de AI Act ontstonden er discussies en druk voor mildere regulering, mede vanuit economische overwegingen en mondiale concurrentie.
* **Druk voor versoepeling:** Sommige leiders en CEO's pleitten voor een "stop de klok" benadering om de implementatie te pauzeren vanwege zorgen over de gereedheid. De Commissie heeft een "Digital Omnibus" voorgesteld om enkele regels te vereenvoudigen.
* **AI Liability Directive:** Een voorstel om de aansprakelijkheid voor AI te harmoniseren stuitte op veel debat en werd door de Commissie ingetrokken wegens gebrek aan consensus.
* **Spanning tussen innovatie en rechten:** Er is een voortdurende spanning tussen het bevorderen van innovatie en concurrentievermogen enerzijds, en de bescherming van burgersrechten anderzijds. De effectiviteit van deze regels om negatieve mensenrechtelijke impact te beperken, is onderwerp van debat.
* **Oproepen tot strengere regulering:** Er zijn ook oproepen tot strengere regulering van bepaalde AI-toepassingen en zelfs een verbod op bepaalde onderzoeks- en ontwikkelingsactiviteiten (R&D), met name rond het concept van 'superintelligentie'. Het idee is om voorzichtig te zijn, zelfs als de materialisatie van superintelligentie onzeker is.
### 1.6 Conclusie: Goverance van AI
AI-systemen worden door mensen ontwikkeld en kunnen zowel positieve als negatieve gevolgen hebben. Het is essentieel dat we, als intelligente wezens die deze technologie kunnen creëren, ook intelligent genoeg zijn om passende governance-kaders te waarborgen om het goede gebruik van deze systemen te benutten en (on)bedoelde schade te vermijden. Juristen spelen hierin een cruciale rol door grenzen en "red lines" te definiëren.
---
# Evolutie van AI-regulering: van ethische principes naar bindende wetgeving
Dit onderwerp schetst de overgang van AI-regulering, die aanvankelijk voornamelijk gericht was op ethische principes, naar de ontwikkeling van bindende wettelijke kaders, met specifieke aandacht voor de EU AI Act en het Raamverdrag van de Raad van Europa.
### 2.1 De noodzaak van specifieke AI-wetgeving
AI is geen technologie die opereert in een regelgevend vacuüm. Bestaande wetgeving, zoals contractenrecht (bv. transparantievereisten voor AI-gestuurde contentmoderatie in de DSA), cybersecuritywetgeving, sector-specifieke regelgeving (bv. productveiligheid) en consumentenbescherming, is vaak al van toepassing. Echter, twee belangrijke redenen leidden tot de roep om specifieke AI-wetgeving:
* **Praktische toepasbaarheid van bestaande regels:** Hoewel bestaande regels theoretisch van toepassing kunnen zijn, blijkt het in de praktijk vaak moeilijk om deze toe te passen op AI-gestuurde systemen.
* **Specifieke kenmerken van AI-systemen:** AI-systemen beschikken over unieke eigenschappen die aangepaste wetgeving noodzakelijk maken. Dit betreft met name de "modellen" binnen de AI-pijplijn (data $\rightarrow$ modellen $\rightarrow$ outputs). De complexiteit en de vaak ondoorzichtige aard van deze modellen maken juridische beoordelingen lastig, wat leidt tot uitdagingen op het gebied van transparantie en verklaarbaarheid.
### 2.2 De verschuiving van ethische principes naar bindende wetgeving
Historisch gezien volgde de regulering van nieuwe technologieën, waaronder AI, een vergelijkbaar patroon:
1. **Eerste fase: focus op ethiek en ethische principes.** Dit is kenmerkend voor de beginfase van technologieontwikkeling, wanneer de risico's en werking nog niet volledig duidelijk zijn. Initiatieven kwamen van internationale organisaties zoals de VN en de OESO, en binnen Europa was er brede inzet op ethische richtlijnen.
* **Voorbeelden van ethische principes:**
* Menselijke waardigheid
* Eerlijkheid en non-discriminatie
* Veiligheid, beveiliging en robuustheid
* Technische nauwkeurigheid en betrouwbaarheid
* Duurzaamheid
* Transparantie en verklaarbaarheid
* Human-in-the-loop / menselijk toezicht
* Verantwoordelijkheid van ontwikkelaars en ontwerpers
* AI-geletterdheid voor ontwikkelaars, gebruikers en inzetters
> **Tip:** Brede ethische principes boden bedrijven flexibiliteit, maar creëerden ook juridische onzekerheid vanwege de moeilijkheid om ze in de praktijk te interpreteren en handhaven door zowel bedrijven als toezichthouders. Deze principes waren vaak nauw verbonden met bestaande rechtskaders, zoals mensenrechtenwetgeving.
2. **Tweede fase: ontwikkeling van bindende wettelijke kaders.** Naarmate de maatschappij meer inzicht kreeg in de risico's van AI (zoals privacy-inbreuken en discriminatie), verschoof de focus naar afdwingbare juridische kaders. Dit mondde uit in de ontwikkeling van specifieke AI-wetgeving.
### 2.3 Belangrijke wettelijke kaders
#### 2.3.1 Het Raamverdrag van de Raad van Europa (Framework Convention on AI)
* **Aanname:** Mei 2024.
* **Achtergrond:** De Raad van Europa (CoE) had al langer soft law-instrumenten (richtlijnen) gebruikt. De vorming van het CAHAI (ad hoc comité op AI) leidde tot de drafting van dit verdrag.
* **Doelstelling:** Zorgen dat activiteiten gedurende de gehele levenscyclus van AI-systemen consistent zijn met mensenrechten, democratie en de rechtsstaat.
* **Binding:** Juridisch bindend voor staten na ratificatie. Het verdrag staat open voor niet-CoE lidstaten, wat bijdraagt aan mondiale harmonisatie.
* **Kenmerken:**
* Risicogebaseerd systeem.
* Horizontale vereisten voor zowel publieke als private actoren.
* Concrete verplichtingen, waaronder transparantie over de werking en het gebruik van systemen, en klachtenmechanismen.
* Verplichting tot risico- en impactassessment vóór implementatie, inclusief analyse van het doel, ontwerp, datarepresentatie, modelnauwkeurigheid, potentiële risico's en mensenrechtenimpact.
* "Rode lijnen": staten kunnen verboden of moratoria instellen op AI-toepassingen die onverenigbaar zijn met mensenrechten en waarden.
* **Kritiek:** De bepalingen zijn tijdens het ontwerpproces aanzienlijk afgezwakt, wat resulteert in een algemene, abstracte en principegebaseerde tekst die concretisering in de praktijk vereist.
#### 2.3.2 De EU AI Act (Artificial Intelligence Act)
* **Ontwerpproces:** De Europese Commissie stelde een ontwerp voor op 1 april 2021. Het proces duurde ongeveer twee jaar, met duizenden amendementen en significante wijzigingen, met name door de opkomst van generatieve LLM's zoals ChatGPT (die later in het proces werden meegenomen).
* **Adoptie:** Juni 2024, met gefaseerde invoering van verschillende bepalingen.
* **Achtergrond:** Begon met de "Ethics Guidelines for Trustworthy AI" en "Policy and Investment Recommendations for trustworthy AI" van de High-Level Expert Group. De Commissie erkende in een White Paper (2020) dat bestaande wetgeving complicaties kende door specifieke AI-kenmerken (bv. opaciteit), wat de noodzaak van nieuwe wetgeving onderstreepte. Het doel was om burgersrechten te beschermen en juridische zekerheid te bieden.
* **Kernaspecten:**
* **Risicogebaseerde benadering:** AI-systemen worden ingedeeld in verschillende risiconiveaus, met dienovereenkomstige verplichtingen.
* **Verbod op onaanvaardbare risico's:** Bepaalde AI-toepassingen worden verboden (bv. sociaal scoren door overheden).
* **Hoge risico's:** Systemen met een aanzienlijk potentieel risico voor fundamentele rechten of veiligheid (bv. in kritieke infrastructuur, onderwijs, gezondheidszorg, rechtshandhaving) onderworpen aan strikte eisen (bv. datakwaliteit, transparantie, menselijk toezicht, robuustheid).
* **Generieke AI / Algemene AI-modellen (GPAI):** Regels specifiek voor grote, generieke modellen, die impact hebben op veel toepassingen.
* **Uitdagingen en Debatten:**
* **Implementatie:** De praktische toepassing en handhaving van de wetgeving wordt als uitdagend beschouwd.
* **Roep om mildere regulering:** Sommige CEO's en beleidsmakers pleiten voor een "pauze" in de implementatie of mildere regels uit vrees voor concurrentie met de VS en China en om innovatie te bevorderen.
* **AI Liability Directive:** Een voorstel om de aansprakelijkheid voor AI te harmoniseren, werd ingetrokken bij gebrek aan consensus.
* **Innovatie vs. bescherming:** Een voortdurende spanning tussen het bevorderen van innovatie en het beschermen van burgersrechten.
### 2.4 Recente evoluties en toekomstige discussies
* **Verdere regulering van specifieke AI-toepassingen:** Er is een groeiende roep om strengere regulering voor bepaalde AI-toepassingen en zelfs verboden op bepaalde onderzoeks- en ontwikkelingsactiviteiten.
* **Superintelligentie en voorzorgsbeginsel:** Discussies rondom de potentiële ontwikkeling van "superintelligentie" (systemen met bewustzijn of autonome beslissingen die de samenleving kunnen schaden) leiden tot oproepen om dergelijke ontwikkelingen te pauzeren totdat ze veilig kunnen worden uitgevoerd. Dit benadrukt de noodzaak om voorzichtig te handelen.
* **Morele waarden in AI:** AI-systemen belichamen menselijke waarden. De ontwikkeling ervan is geen technisch proces dat onvermijdelijk gebeurt, maar een keuze die gemaakt wordt door mensen.
> **Tip:** De discussie rondom AI-regulering weerspiegelt een fundamentele spanning tussen technologische vooruitgang en de bescherming van fundamentele rechten en maatschappelijke waarden. Als samenleving moeten we actief bepalen wat acceptabel is en wat niet, en beleidsmakers kunnen de grenzen en "rode lijnen" daarvoor stellen.
* **Nathalie Smuha's perspectief:** AI is een door mensen ontwikkeld gereedschap dat zowel positief als negatief kan worden gebruikt. Als we in staat zijn AI te creëren, moeten we ook in staat zijn om governance-kaders te ontwikkelen die het goede gebruik ervan waarborgen en schadelijk gebruik vermijden.
> **Example:** De EU AI Act probeert deze balans te vinden door enerzijds de ontwikkeling van AI te stimuleren en anderzijds duidelijke regels te stellen voor toepassingen met een hoger risico, zoals systemen gebruikt in medische diagnoses of werving en selectie, die strenge transparantie- en veiligheidseisen moeten vervullen.
---
# Specifieke kenmerken van AI die aangepaste wetgeving vereisen
Dit onderwerp onderzoekt de unieke eigenschappen van AI-systemen, zoals de pipeline van data-invoer, modellen en uitvoer, en de moeilijkheden bij het begrijpen van hoe inputs outputs beïnvloeden, waarbij opaciteit en verklaarbaarheidsproblemen worden geïdentificeerd als uitdagingen voor juridische beoordelingen.
### 3.1 De pipeline van AI-systemen: input, model en output
AI-systemen functioneren op een fundamentele wijze door middel van een proces dat kan worden opgedeeld in drie kernfasen:
* **Data (input):** Dit betreft de informatie die aan het AI-systeem wordt gevoerd. Deze data kan van diverse aard zijn, waaronder grote hoeveelheden persoonlijke gegevens, hetgeen direct de relevantie van wetgeving inzake gegevensbescherming onderstreept. Ook auteursrechtelijk beschermd materiaal kan als input fungeren, wat potentiële inbreuken op dit recht met zich meebrengt.
* **Modellen (midden):** Dit is het 'brein' van het AI-systeem waar de verwerking en analyse van de input plaatsvindt. De complexiteit van deze modellen vormt een significante uitdaging voor juridische beoordelingen.
* **Outputs:** Dit zijn de resultaten, beslissingen of acties die door het AI-systeem worden gegenereerd op basis van de verwerkte input.
### 3.2 Uitdagingen bij het begrijpen van de relatie tussen input en output
Een van de voornaamste redenen waarom specifieke wetgeving voor AI wordt bepleit, is de inherente moeilijkheid om te begrijpen hoe specifieke inputs leiden tot bepaalde outputs binnen AI-systemen. Deze uitdaging is nauw verbonden met de volgende concepten:
#### 3.2.1 Opaciteit en verklaarbaarheidsproblemen
* **Opaciteit:** Veel geavanceerde AI-modellen, met name die gebaseerd zijn op diepe neurale netwerken, opereren als 'black boxes'. Dit betekent dat het intern proces en de redenering die leidt tot een specifieke output, niet direct inzichtelijk of begrijpelijk zijn voor menselijke waarnemers. De exacte mechanismen achter een beslissing blijven verborgen.
* **Verklaarbaarheid (Explainability):** Gerelateerd aan opaciteit, is de uitdaging om de beslissingen van een AI-systeem te verklaren. Juridische beoordelingen vereisen vaak dat de rationale achter een beslissing kan worden uitgelegd om te bepalen of deze wetgeving, ethische principes of rechten schendt. Wanneer de werking van een AI-model ondoorzichtig is, wordt het buitengewoon moeilijk om na te gaan of er sprake is van discriminatie, oneerlijkheid of andere juridisch relevante tekortkomingen.
> **Tip:** De problemen rond opaciteit en verklaarbaarheid zijn cruciaal voor de handhaving van wetgeving. Zonder begrip van hoe een AI tot stand komt, is het lastig om aansprakelijkheid vast te stellen of te controleren of aan wettelijke vereisten wordt voldaan.
#### 3.2.2 Gevolgen voor juridische beoordelingen
De combinatie van de complexe AI-pipeline en de inherente opaciteit van modellen leidt tot significante complicaties bij het toepassen van bestaande wetgeving. Hoewel bestaande juridische kaders zoals contractenrecht, consumentenrecht, productveiligheidswetgeving en zelfs sector-specifieke regels van toepassing kunnen zijn, stuiten ze in de praktijk op moeilijkheden bij de handhaving en toepassing. Dit geldt met name wanneer de transparantie van de besluitvorming essentieel is voor een juridische beoordeling. De noodzaak van AI-specifieke wetgeving vloeit voort uit het besef dat, hoewel bestaande wetten in theorie kunnen gelden, ze in de praktijk vaak onvoldoende handvatten bieden voor de unieke uitdagingen die AI met zich meebrengt.
> **Example:** Stel dat een AI-systeem een kredietaanvraag afwijst. Vanwege de opaciteit van het model is het moeilijk te achterhalen of de afwijzing gebaseerd was op legitieme financiële criteria of op bevooroordeelde patronen in de trainingsdata, wat zou kunnen neerkomen op discriminatie. Het gebrek aan verklaarbaarheid belemmert zo een juridische toetsing.
---
# De EU AI Act en recente ontwikkelingen in AI-regulering
Hieronder volgt een gedetailleerde samenvatting over de EU AI Act en recente ontwikkelingen in AI-regulering, gebaseerd op de verstrekte documentatie, specifiek gericht op pagina's 20-24.
## 4. De EU AI Act en recente ontwikkelingen in AI-regulering
De EU AI Act vertegenwoordigt een verschuiving van ethische principes naar bindende wetgeving voor kunstmatige intelligentie, met als doel de rechten van burgers te beschermen en rechtszekerheid te bieden, ondanks aanhoudende discussies over de balans tussen innovatie en regulering.
### 4.1 De aanloop naar specifieke AI-regulering
Voorafgaand aan specifieke AI-wetgeving werden bestaande juridische kaders toegepast op AI-systemen. Dit omvatte onder andere contractenrecht (bv. transparantievereisten in de Digital Services Act - DSA), cyberbeveiligingswetgeving, sectorale regelgeving (bv. productveiligheid) en consumentenbescherming. Echter, de specifieke kenmerken van AI, zoals de complexiteit van modellen (latentie en verklaarbaarheidsproblemen) en de data-afhankelijkheid, maakten de praktische toepassing en handhaving van deze bestaande regels uitdagend. Dit leidde tot een roep om meer toegesneden wetgeving.
#### 4.1.1 Van ethische principes naar juridische kaders
De eerste fase van AI-regulering kenmerkte zich door een focus op ethische principes. Internationale organisaties en de EU zelf ontwikkelden richtlijnen en aanbevelingen voor 'betrouwbare AI'. Belangrijke principes die hierbij naar voren kwamen, waren onder meer:
* Menselijke waardigheid
* Eerlijkheid en non-discriminatie
* Veiligheid, beveiliging en robuustheid
* Technische nauwkeurigheid en betrouwbaarheid
* Duurzaamheid
* Transparantie en verklaarbaarheid
* Menselijke controle (human-in-the-loop / human oversight)
* Verantwoordingsplicht (accountability) van ontwikkelaars en ontwerpers
* AI-geletterdheid bij gebruikers
Deze ethische kaders boden flexibiliteit, maar leidden ook tot rechtsonzekerheid doordat de concrete invulling en handhaafbaarheid ervan beperkt waren. De EU, net als andere internationale actoren zoals de Raad van Europa, erkende de serieuze risico's die AI met zich meebracht en schoof door naar de ontwikkeling van juridisch bindende kaders.
#### 4.1.2 Juridische kaders: De Raad van Europa en de EU
**Raad van Europa (CoE): Framework Convention on AI**
* De Raad van Europa, na eerdere 'soft law' inspanningen, heeft in mei 2024 een eerste internationale verdrag inzake AI aangenomen: de Framework Convention on AI.
* Het doel van dit verdrag is ervoor te zorgen dat de gehele levenscyclus van AI-systemen in overeenstemming is met mensenrechten, democratie en de rechtsstaat.
* Het verdrag is juridisch bindend voor staten na ratificatie en staat open voor zowel CoE-lidstaten als niet-lidstaten, wat bijdraagt aan mondiale harmonisatie.
* Hoewel de tekst, als product van consensus, algemener en risicogebaseerd is dan de EU AI Act, verplicht het staten tot regels voor publieke en private actoren ter bescherming van mensenrechten.
* Concrete verplichtingen omvatten transparantie over de werking en het gebruik van AI-systemen, en het instellen van klachtenmechanismen. Ook wordt een risico- en impactbeoordeling vóór de inzet van AI verplicht gesteld, inclusief een beoordeling van mensenrechtelijke impact.
* Het verdrag noemt ook 'rode lijnen', waarbij staten verboden of moratoria kunnen instellen op AI-toepassingen die onverenigbaar zijn met mensenrechten en waarden.
**Europese Unie: Weg naar de AI Act**
* Na de publicatie van ethische richtlijnen door de High-Level Expert Group, gaf de Europese Commissie in 2020 met een White Paper on AI aan een juridisch kader te willen ontwikkelen.
* De Commissie erkende dat bestaande wetgeving toepasbaar was, maar dat specifieke AI-kenmerken (zoals obscuriteit) de handhaving bemoeilijkten.
* Op 1 april 2021 stelde de Commissie een ontwerp voor de AI Act voor. Het wetgevingsproces duurde ongeveer twee jaar, met aanzienlijke aanpassingen, met name door de opkomst van generatieve LLM's zoals ChatGPT, waarvoor aanvankelijk geen specifieke bepalingen waren opgenomen.
* De AI Act werd in juni 2024 aangenomen, waarbij sommige bepalingen onmiddellijk van kracht worden en andere gefaseerd worden ingevoerd.
### 4.2 Inhoud en implementatie van de EU AI Act
De EU AI Act hanteert een risicogebaseerde benadering, waarbij AI-systemen worden ingedeeld in verschillende risicocategorieën, elk met specifieke verplichtingen.
#### 4.2.1 Risicocategorisering en verplichtingen
* **Onacceptabel risico:** AI-systemen die een duidelijk gevaar vormen voor de veiligheid, levensonderhoud en rechten van mensen, worden verboden. Voorbeelden hiervan zijn sociale scoring door overheden en manipulatietechnieken die gericht zijn op kwetsbare groepen.
* **Hoog risico:** Systemen die worden ingezet in kritieke sectoren zoals gezondheidszorg, transport, onderwijs en rechtshandhaving. Voor deze systemen gelden strenge eisen voor gegevenskwaliteit, documentatie, transparantie, menselijk toezicht, robuustheid, nauwkeurigheid en cyberbeveiliging. Ook is een conformiteitsbeoordeling voorafgaand aan markttoelating vereist.
* **Beperkt risico:** Systemen die specifieke transparantieverplichtingen hebben. Gebruikers moeten geïnformeerd worden wanneer zij interageren met een AI-systeem (bv. chatbots).
* **Minimaal risico:** De meeste AI-toepassingen vallen in deze categorie en de Act legt hier geen specifieke verplichtingen op.
#### 4.2.2 Generatieve LLM's en algemene-doel AI-modellen
De opkomst van generatieve AI-modellen, zoals Large Language Models (LLM's), heeft geleid tot specifieke aandacht en aanpassingen in de AI Act. Deze modellen, die content kunnen creëren op basis van prompts, vallen onder de regels voor 'algemene-doel AI-modellen'. Er worden specifieke transparantieverplichtingen aan ontwikkelaars van deze modellen gesteld, waaronder het verstrekken van gedetailleerde informatie over de gebruikte trainingsdata en het labelen van gegenereerde content.
#### 4.2.3 Implementatie-uitdagingen
De implementatie van de AI Act brengt aanzienlijke uitdagingen met zich mee:
* **Begrip van verplichtingen:** Voor zowel bedrijven als toezichthouders is het essentieel om de specifieke vereisten van de Act te doorgronden.
* **Toepassing in de praktijk:** De vertaling van de wettelijke bepalingen naar concrete, werkbare praktijken is complex.
* **Handhaving:** Het effectief monitoren en handhaven van de naleving van de Act zal een grote taak zijn voor nationale autoriteiten.
### 4.3 Recente debatten en druk tot aanpassing
Sinds de adoptie van de AI Act is er aanzienlijke druk en zijn er debatten ontstaan die pleiten voor aanpassing of een pauze in de implementatie.
#### 4.3.1 Druk voor versoepeling van regulering
* Verschillende Europese leiders, waaronder president Emmanuel Macron, hebben opgeroepen tot een meer flexibele regulering, met name om nationale AI-kampioenen te beschermen en te concurreren met internationale spelers uit de Verenigde Staten en China.
* Sommige CEO's hebben verzocht om de implementatie van de Act 'stop te zetten' vanwege zorgen over de gereedheid van bedrijven.
* De Europese Commissie heeft aangegeven niet akkoord te gaan met een pauze, maar wel de Digital Omnibus te onderzoeken om bepaalde regels te vereenvoudigen.
#### 4.3.2 Discussie rondom de AI Liability Directive
* De voorgestelde AI Liability Directive, die de aansprakelijkheid voor AI-gerelateerde schade moest harmoniseren, stuitte op veel weerstand en is door de Commissie ingetrokken wegens gebrek aan consensus. Dit illustreert de spanningen rondom het toewijzen van verantwoordelijkheid bij AI.
#### 4.3.3 De spanning tussen innovatie en burgerrechten
De kern van de aanhoudende debatten en toekomstige regelgevingsontwikkelingen ligt in de fundamentele spanning tussen het stimuleren van innovatie en het waarborgen van de bescherming van burgerrechten.
* **Vraagstukken rondom snelle implementatie:** De vraag is of strikte regels nog marktplaatsing van systemen die niet volledig aan de AI Act voldoen, kunnen toestaan. Er is een maatschappelijk debat nodig over het primaire doel van de regelgeving.
* **Superintelligentie en voorzorgsprincipe:** Recent is er ook een debat ontstaan over sterkere regulering van bepaalde AI-toepassingen en zelfs verboden op onderzoek naar 'superintelligentie' (systemen met bewustzijn of autonome beslissingen die de samenleving kunnen schaden). Dit pleidooi, gesteund door Nobelprijswinnaars, benadrukt het voorzorgsprincipe: beter voorzichtig zijn, zelfs als het risico nog theoretisch is.
De ontwikkeling van AI-regelgeving is een dynamisch proces, waarbij wetgeving wordt gecreëerd, aangepast en voortdurend wordt geconfronteerd met nieuwe uitdagingen en maatschappelijke discussies.
> **Tip:** Begrijp de risicogebaseerde aanpak van de EU AI Act. De mate van regulering is direct gekoppeld aan het potentiële risico dat een AI-systeem met zich meebrengt. Ken de specifieke vereisten per risicocategorie.
> **Tip:** Wees bewust van de rol van generatieve AI. De AI Act erkent de unieke uitdagingen van modellen zoals LLM's en legt specifieke transparantieverplichtingen op.
> **Voorbeeld:** Een AI-gestuurd medisch diagnosesysteem valt waarschijnlijk onder 'hoog risico' en moet voldoen aan strenge eisen voor nauwkeurigheid, betrouwbaarheid en menselijk toezicht, evenals een grondige risicoanalyse voorafgaand aan de inzet. Een chatbot op een website valt waarschijnlijk onder 'beperkt risico' en vereist enkel transparantie zodat de gebruiker weet dat hij met een AI interacteert.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Artificiële Intelligentie (AI) | Een technologie die werkt met data om bepaalde doelstellingen te bereiken en wordt toegepast in diverse sectoren. AI-systemen zijn ontwikkeld door mensen en kunnen zowel positieve als negatieve gevolgen hebben. |
| Regulering | Het proces van het creëren en toepassen van wetten, regels en normen om het gedrag van individuen, organisaties of technologieën te sturen en te controleren. |
| Contractenrecht | Het rechtsgebied dat de totstandkoming, interpretatie en naleving van overeenkomsten tussen partijen regelt. Dit kan relevant zijn voor AI-systemen, bijvoorbeeld met betrekking tot transparantievereisten. |
| Cyberbeveiligingsrecht | Wetgeving die gericht is op de bescherming van digitale systemen en data tegen ongeautoriseerde toegang, schade of verstoring. Dit is van toepassing op AI-systemen om hun veiligheid te waarborgen. |
| Sector-specifieke regelgeving | Wettelijke voorschriften die specifiek van toepassing zijn op bepaalde industrieën of sectoren, zoals de gezondheidszorg of financiële dienstverlening. Ook AI-toepassingen binnen deze sectoren moeten hieraan voldoen. |
| Productveiligheid | Wettelijke eisen die ervoor zorgen dat producten die op de markt worden gebracht veilig zijn voor consumenten en voldoen aan bepaalde standaarden. AI-gestuurde verbonden apparaten vallen hieronder. |
| Consumentenbescherming | Wetgeving die gericht is op het beschermen van consumenten tegen oneerlijke handelspraktijken, misleidende informatie en gevaarlijke producten. Dit is ook van toepassing op AI-systemen die consumenten raken. |
| DSA (Digital Services Act) | Een Europese verordening die tot doel heeft een veiliger en transparanter digitaal ecosysteem te creëren door de verantwoordelijkheden van online platforms te reguleren, met inbegrip van het gebruik van AI voor contentmoderatie. |
| Auteursrecht | Het recht dat scheppers van originele werken beschermt, zoals geschriften, muziek of kunst. Dit kan van toepassing zijn op zowel de input die gebruikt wordt voor AI-modellen als de output die de AI genereert. |
| Opaciteit (van AI) | Het gebrek aan transparantie in de werking van AI-systemen, waardoor het moeilijk is om te begrijpen hoe inputs leiden tot specifieke outputs. Dit bemoeilijkt juridische beoordelingen en toezicht. |
| Verklaarbaarheid (van AI) | Het vermogen om de redenering achter de beslissingen van een AI-systeem begrijpelijk te maken voor mensen. Dit is cruciaal voor juridische analyse, vertrouwen en verantwoording. |
| Ethische principes voor AI | Richtlijnen en waarden die de ontwikkeling en het gebruik van AI moeten sturen om ervoor te zorgen dat deze aansluit bij menselijke waarden en maatschappelijke belangen, zoals eerlijkheid, non-discriminatie en veiligheid. |
| Bindende wetgeving | Wettelijke regels en voorschriften die juridisch afdwingbaar zijn en waaraan partijen zich moeten houden, onder straffe van sancties. Dit staat tegenover zachte wetgeving of ethische principes. |
| EU AI Act | Een voorgestelde Europese verordening die een alomvattend wettelijk kader zal bieden voor artificiële intelligentie, gericht op het waarborgen van veiligheid, transparantie en fundamentele rechten, gebaseerd op een risico-gebaseerde aanpak. |
| Raamverdrag van de Raad van Europa inzake AI | Een internationaal verdrag dat tot doel heeft ervoor te zorgen dat AI-activiteiten gedurende de gehele levenscyclus in overeenstemming zijn met mensenrechten, democratie en de rechtsstaat. |
| Risico-gebaseerd systeem | Een regelgevingsaanpak die de intensiteit van de regulering afstemt op het niveau van het risico dat een bepaald product, dienst of technologie met zich meebrengt. Hogere risico's leiden tot strengere regels. |
| Mensenrechten | Fundamentele rechten die inherent zijn aan alle mensen, ongeacht hun nationaliteit, verblijfplaats, geslacht, nationale of etnische afkomst, kleur, religie, taal of enige andere status. Deze zijn cruciaal bij AI-regulering. |
| Democratie | Een staatsvorm waarin de burgers de macht uitoefenen, hetzij direct, hetzij via vertegenwoordigers. AI-systemen mogen de democratische processen niet ondermijnen. |
| Rechtsstaat | Een principe dat stelt dat alle individuen en instellingen in een samenleving gebonden zijn aan en verantwoordelijk zijn voor de wetten die publiekelijk worden aangekondigd, gelijkelijk worden toegepast en onafhankelijk worden beoordeeld. |
| Transparantie (in AI) | De mate waarin de werking, de doeleinden en de risico's van een AI-systeem duidelijk en begrijpelijk worden gecommuniceerd aan de betrokken partijen. |
| Klachtenmechanismen | Procedures en kanalen die beschikbaar zijn voor individuen om hun grieven te uiten of officiële klachten in te dienen wanneer hun rechten worden aangetast of principes van AI-regulering niet worden nageleefd. |
| Pre-deployment risico/impactbeoordeling | Een evaluatie die wordt uitgevoerd voordat een AI-systeem wordt ingezet, om potentiële risico's, inclusief de impact op mensenrechten, te identificeren en te beoordelen. |
| Superintelligentie | Een hypothetische vorm van artificiële intelligentie die de menselijke cognitieve capaciteiten op vrijwel elk gebied aanzienlijk overtreft. De mogelijke risico's hiervan worden bediscussieerd. |
| Technologisch determinisme | De theorie die stelt dat technologie de drijvende kracht is achter maatschappelijke veranderingen en ontwikkelingen, waarbij de maatschappij zich aanpast aan de mogelijkheden die technologie biedt. |
| Kritische theorie | Een benadering die maatschappelijke structuren en machtsverhoudingen analyseert en bekritiseert, vaak met het doel sociale verandering te bewerkstelligen. Dit is relevant voor het begrijpen van de maatschappelijke impact van AI. |