Cover
Empieza ahora gratis Les 9-10-11 - slides_merged.pdf
Summary
# AI-ethiek en regelgeving
AI-ethiek richt zich op de ethische principes rondom kunstmatige intelligentie, zoals privacy, transparantie, eerlijkheid en verantwoordelijkheid, en wordt steeds meer vormgegeven door regelgeving zoals de EU AI Act en de GDPR [2](#page=2) [5](#page=5).
### 1.1 Waarom ai-ethiek?
AI is niet neutraal en brengt inherente ethische uitdagingen met zich mee. De snelle ontwikkeling van AI, gekenmerkt door de "move fast & break things" mentaliteit van Big Tech, kan leiden tot onzorgvuldigheid en misbruik van technologie. AI-systemen kunnen privacy schenden, de menselijke waardigheid aantasten en risico's met zich meebrengen. Het is cruciaal om niet alleen te overwegen *of* iets met AI kan, maar ook *of* het *moet* ] [7](#page=7) [8](#page=8).
### 1.2 Asimov's wetten en de beperkingen ervan
Isaac Asimov's beroemde drie wetten voor robots waren een inspiratiebron, maar zijn onvoldoende voor de complexiteit van moderne AI. Vragen als wie "letsel" definieert (fysiek, mentaal, economisch) en hoe conflicterende bevelen worden opgelost, blijven open. Bovendien is AI probabilistisch en niet gebonden aan simpele regels, wat de noodzaak van ethische frameworks onderstreept [5](#page=5).
### 1.3 Verantwoordelijkheid bij AI-falen
Het concept van verantwoordelijkheid is complex in het AI-domein. Een bekend voorbeeld is het Tesla Autopilot-ongeval in Florida in 2019, waarbij deels aansprakelijkheid van Tesla werd besproken. AI-systemen falen soms, en het is onduidelijk wie dan verantwoordelijk is: de ontwikkelaar, het implementerende bedrijf, de gebruiker, of het algoritme zelf (wat juridisch niet mogelijk is aangezien AI geen rechtspersoonlijkheid heeft) . Contractuele afspraken, verzekeringen, "human-in-the-loop" systemen en audit trails zijn essentieel [6](#page=6).
### 1.4 De EU AI Act: Risiconiveaus .
De EU AI Act categoriseert AI-systemen op basis van hun risiconiveau [10](#page=10).
* **Onacceptabel risico**: Systemen die verboden zijn, zoals social scoring en subliminale manipulatie, en real-time gezichtsherkenning in publieke ruimtes [10](#page=10).
* **Hoog risico**: AI in sectoren zoals recruitment, gezondheidszorg en justitie, evenals zeer grote basismodellen (GPAI). Deze vereisen verplichte elementen zoals "human-in-the-loop", documentatie en bias-testing [10](#page=10).
* **Beperkt risico**: Toepassingen zoals chatbots en generatieve AI. De verplichting hier is transparantie, zodat gebruikers weten dat ze met AI interageren [10](#page=10).
* **Laag/Geen risico**: Systemen zoals spamfilters en AI-games, die geen extra eisen kennen [10](#page=10).
### 1.5 Productaansprakelijkheid (PLD) en de AI Act
AI-systemen en -software vallen onder de EU-regels voor Productaansprakelijkheid (PLD) . De AI Act verplicht fabrikanten van hoog-risico AI-systemen om uitgebreide documentatie en logbestanden bij te houden, wat het voor slachtoffers makkelijker maakt om aansprakelijkheid te bewijzen. Als een fabrikant weigert deze documentatie te delen, moeten zij bewijzen dat hun product veilig was, anders zijn zij aansprakelijk. Een uitzondering geldt voor niet-commerciële open-source AI-modellen, waar gebruikers in principe zelf verantwoordelijk zijn .
### 1.6 Vijf pijlers van AI-ethiek
AI-ethiek rust op vijf kernpijlers [11](#page=11) [21](#page=21) [9](#page=9):
#### 1.6.1 Privacy & gegevensbescherming
Privacy is een fundamenteel recht en betekent controle over eigen data, niet simpelweg "iets te verbergen hebben" . De Europese privacywet, GDPR (AVG), geeft burgers controle over hun gegevens en stelt uniforme regels voor bedrijven in de EU. AI-specifieke uitdagingen zijn onder andere de privacy-onvriendelijkheid van grote datasets en de moeilijkheid om data uit modellen te "vergeten" ] [12](#page=12).
**GDPR basisprincipes ** ] [13](#page=13) :
* **Rechtmatigheid, behoorlijkheid & transparantie**: Wettelijke grondslag, eerlijke verwerking en duidelijke informatie.
* **Doelbinding**: Gegevens alleen gebruiken voor een vooraf bepaald, specifiek doel.
* **Data-minimalisatie**: Alleen noodzakelijke gegevens verzamelen.
* **Juistheid van de gegevens**: Gegevens moeten correct en up-to-date zijn.
* **Opslagbeperking**: Niet langer bewaren dan nodig.
* **Integriteit, vertrouwelijkheid & beschikbaarheid**: Beveiligde, betrouwbare en tijdig beschikbare gegevens.
* **Verantwoordelijkheidsplicht**: Organisaties moeten naleving kunnen aantonen.
> **Tip:** "Alles online kan gebruikt worden" is een gevaarlijke aanname. Hoewel online content vaak publiek lijkt of zo wordt behandeld, verliezen de context en controle over de data zich snel. Het digitale kruimelspoor van cookies en de praktijken van databrokers en surveillance capitalism dragen bij aan een 'data-kolonisatie' waarbij burgers hun data leveren maar er niets aan verdienen. Dark patterns manipuleren gebruikersgedrag via interfaces [14](#page=14) [15](#page=15) [16](#page=16) [17](#page=17) [18](#page=18) [19](#page=19).
**Case – Gezichtsherkenning**: Meer dan drie miljard gezichten werden van het internet gescraped voor gezichtsherkenning door politie en bedrijven, zonder toestemming. Hoewel dit in de EU verboden is, gaat het gebruik door. Dit illustreert hoe privacywetgeving achterloopt op technologie [20](#page=20).
#### 1.6.2 Transparantie & uitlegbaarheid
AI-beslissingen moeten uitlegbaar zijn; "Computer says no" is onvoldoende. Transparantie betekent niet noodzakelijk een volledige technische uitleg, maar wel dat mensen recht hebben op een begrijpelijke verklaring van AI-beslissingen. De GDPR geeft het recht op menselijke interventie bij geautomatiseerde beslissingen [22](#page=22).
* **Black Box vs. Glashelder**: Complexe AI-modellen met miljarden parameters zijn moeilijk volledig te doorgronden, leidend tot emergent gedrag waarbij niemand precies weet hoe beslissingen worden genomen [23](#page=23).
* **Explainable AI (XAI)**: Tools zoals SHAP en LIME helpen om inzicht te geven in welke features belangrijk waren voor een beslissing, waar de AI naar keek en de bijdrage van elke feature te verklaren [23](#page=23).
* **Transparantie vs. Uitlegbaarheid**: Transparantie impliceert weten *dat* AI wordt gebruikt, terwijl uitlegbaarheid begrijpen *hoe* de AI besluit. Beide zijn essentieel voor betrouwbaarheid. Er zijn trade-offs tussen bedrijfsgeheimen en een eerlijk proces, en tussen accuraatheid en uitlegbaarheid .
> **Tip:** Transparantie alleen is niet genoeg; het vertelt *wat* er gebeurt, maar niet per se *hoe* het mensen raakt .
**Case – Kredietaanvraag**: Een algoritme dat een 20x hogere limiet voor mannen toekende zonder uitleg, illustreert het probleem van de "black box" ] .
#### 1.6.3 Eerlijkheid & bias-beperking
Bias is een systematische afwijking in AI-beslissingen die specifieke groepen kan benadelen. Het kan onbedoeld ontstaan door historische data die historische ongelijkheid weerspiegelt, wat leidt tot discriminatie. Proxy discriminatie (neutrale features die discriminatie verbergen, zoals postcode als proxy voor etniciteit) en feedback loops (biased beslissingen die bias in data versterken) maken bias hardnekkig .
> **Tip:** "Bias is geen bug, maar een feature" van systemen die getraind zijn op vertekende data .
**Oplossen van bias**: Er is geen simpele oplossing ("silver bullet") . Strategieën zoals het verwijderen van woorden ("gorilla" uit beeldherkenning) of overcorrectie zonder context (zoals "zwarte nazi's" in AI-beeldgeneratoren) zijn vaak symptoombestrijding .
**Soorten eerlijkheid**:
* **Demographic Parity**: Gelijke uitkomsten per groep (bv. 50% mannen en 50% vrouwen geselecteerd) ] .
* **Equal Opportunity**: Gelijke kansen per groep (goede kandidaten hebben dezelfde kans, ongeacht hun groep) ] .
* **Individual Fairness**: Vergelijkbare mensen, vergelijkbare behandeling .
Deze principes kunnen niet tegelijkertijd worden vervuld, wat keuzes vereist .
**Case – Kankerdetectie**: Een AI die 95% accuraat is voor lichte huid, maar slechts 60-70% voor donkere huid, vergroot de gezondheidskloof .
#### 1.6.4 Verantwoordelijkheid & betrouwbaarheid
Voor een systeem kan alleen verantwoordelijkheid worden genomen als het betrouwbaar is, en betrouwbaarheid vereist dat iemand verantwoordelijk is. AI moet consistent en voorspelbaar zijn, wat een uitdaging is aangezien AI experimenteel kan zijn .
* **Robuustheid**: Het systeem moet blijven functioneren onder stress, beschermd tegen fouten, onvoorziene situaties en kwaadwillige aanvallen. Het moet kunnen falen zonder rampzalige gevolgen .
> **Tip:** De toeslagenaffaire in Nederland, waar duizenden ouders onterecht als fraudeur werden gelabeld door een AI-systeem zonder menselijke controle, transparantie of uitlegbaarheid, is een schrijnend voorbeeld van falende verantwoordelijkheid .
#### 1.6.5 Veiligheid & beveiliging
* **Safety**: Doet de AI wat het moet doen? ] .
* **Security**: Kan de AI gehackt of misbruikt worden? ] .
AI kan zowel defensief (cyberaanvallen detecteren) als offensief (deepfakes, geautomatiseerde hacking, AI-phishing) worden ingezet .
**Misleiding van AI**: Systemen kunnen worden misleid door:
* **Data poisoning**: Manipulatie van trainingsdata .
* **Adversarial attacks**: Kleine wijzigingen die het model laten falen (bv. een sticker op een stopbord) ] .
* **Prompt hijacking**: Manipulatie via input prompts .
* **Deepfakes**: Vervalsing van stem of video .
> **Tip:** Het is de vraag of AI ooit 100% veilig kan zijn .
**Case – Deepfakes**: AI-gegenereerde stemmen van CEO's werden gebruikt om criminelen meer dan 243.000 dollars te laten overmaken, wat de veiligheid van stembiometrie in twijfel trekt en de verificatie van identiteit bemoeilijkt .
### 1.7 Ethisch framework voor AI-projecten
Ongeacht de sector, het stellen van de volgende vragen dient als een ethisch kompas bij elk AI-project :
| Sector-voorbeeld | Jouw vraag | Dimensie |
| :----------------------- | :------------------------------------- | :------------------- |
| Marketing: bias in targeting | Discrimineert het? | Eerlijkheid |
| Finance: krediet geweigerd | Kan ik het uitleggen? | Transparantie |
| Retail: gezichtsherkenning | Respecteer ik data? | Privacy |
| Automotive: zelfrijdende auto | Kan het kwaad? | Veiligheid |
| Healthcare: verkeerde diagnose | Wie betaalt bij fout? | Verantwoordelijkheid |
| Legal: GDPR & AI Act | Volgt het de wet? | Compliance |
**Hoe ethische beslissingen maken?** ] :
1. **Stakeholders identificeren**: Gebruikers, werknemers, samenleving, datawerkers.
2. **Impact analyseren**: Positief versus negatief per stakeholder.
3. **Trade-offs identificeren**: Welke pijlers botsen? Wie wint/verliest?
4. **Mitigatie plannen**: Hoe kwetsbare groepen beschermen?
5. **Monitoren & aanpassen**: Continu evalueren en verbeteren.
### 1.8 Conclusie: Wat neem je mee?
De vijf belangrijke pijlers (privacy, transparantie, eerlijkheid, verantwoordelijkheid, veiligheid) vormen de basis van AI-ethiek. Regelgeving zoals GDPR en de AI Act bieden houvast, net als de regels rond productaansprakelijkheid. Ethiek is een spanningsveld waar principes vaak botsen: wat technisch mogelijk is, mag niet altijd ethisch; wat wettelijk mag, is niet altijd ethisch verantwoord. Regelgeving is het minimum; ethiek gaat verder .
---
# Maatschappelijke en ecologische impact van AI
Deze sectie onderzoekt de bredere gevolgen van artificiële intelligentie (AI), inclusief de menselijke, ecologische en sociale kosten die gepaard gaan met de ontwikkeling en implementatie ervan. Het biedt een overzicht van de "volledige kostprijs van AI", die verder reikt dan de ethische overwegingen en concrete gevolgen heeft voor mens en planeet [25](#page=25) [26](#page=26) [27](#page=27).
### 2.1 Menselijke kosten: de onzichtbare arbeid
De ontwikkeling van AI steunt op een aanzienlijke hoeveelheid onzichtbare menselijke arbeid, vaak aangeduid als "ghost workers". Deze arbeiders voeren cruciale taken uit die nodig zijn voor het trainen en verbeteren van AI-systemen, maar hun bijdrage blijft structureel onzichtbaar [27](#page=27).
#### 2.1.1 Rollen van ghost workers
* **Datalabelers:** Deze werknemers zijn verantwoordelijk voor het classificeren van data, zoals beelden, tekst en video's, zodat AI-modellen patronen kunnen herkennen [27](#page=27).
* **Content moderators:** Zij beoordelen potentieel schadelijke content, waaronder geweld, misbruik en extremisme, om AI-modellen te trainen op het filteren van dergelijke inhoud [27](#page=27).
* **Human feedback trainers (RLHF):** Deze trainers corrigeren en sturen de output van AI-modellen, met name via Reinforcement Learning from Human Feedback (RLHF), om de responsen af te stemmen op menselijke voorkeuren en waarden [27](#page=27) [29](#page=29).
#### 2.1.2 Locaties en betrokken bedrijven
Deze onzichtbare arbeid wordt vaak uitgevoerd in landen zoals Kenia, India, de Filipijnen, Roemenië en Venezuela. Grote techbedrijven zoals OpenAI, Meta, Amazon, Google en Accenture maken gebruik van deze arbeidskrachten [27](#page=27).
#### 2.1.3 Arbeidsomstandigheden en uitbuiting
De arbeidsomstandigheden voor deze werknemers zijn vaak precair en uitbuitend [28](#page=28) [29](#page=29) [30](#page=30).
* **Mentale gezondheid van content moderators:** Content moderators worden dagelijks blootgesteld aan traumatische inhoud, wat leidt tot ernstige mentale gezondheidsproblemen. 60-80% ontwikkelt PTSS-symptomen, en velen lijden aan depressie, angst en slaapproblemen. Ondanks de zware belasting is psychologische ondersteuning vaak beperkt, en non-disclosure agreements (NDA's) voorkomen dat ze hun ervaringen met collega's delen [28](#page=28).
* **Lage lonen en precariteit voor datalabelers:** Datalabelers ontvangen vaak een betaling per taak, wat resulteert in zeer lage inkomens, soms 30-50% onder het bestaansminimum. Werk is vaak freelance, zonder contract, ziekteverlof of vakantiedagen, wat leidt tot onzekerheid. Om voldoende inkomen te genereren, werken velen 10-12 uur per dag [28](#page=28).
* **De paradox van automatisering:** Hoewel AI wordt gepresenteerd als een middel voor vooruitgang, verschuift de automatisering in veel gevallen uitbuiting in plaats van arbeid te elimineren. Dit ondermijnt het idee van vooruitgang voor iedereen [28](#page=28).
* **De prijs van beleefde AI:** Mensen trainen AI om "beleefd", "nuttig" en "veilig" te zijn, terwijl zijzelf onder extreme druk werken. AI-bedrijven adverteren met "AI is nooit moe", maar in werkelijkheid moeten mensen moe zijn zodat AI niet-moe lijkt. Er is een ironie dat de menselijke trainers, die AI helpen beleefd te zijn, onbeleefd worden behandeld [29](#page=29).
* **Economische drijfveren en loonverschillen:** Er bestaat een enorm loonverschil tussen werknemers in Silicon Valley (ongeveer 100.000 dollars per jaar) en die in Kenia (ongeveer 3.000 dollars per jaar). Een paar dagen werken in Silicon Valley kan een jaarsalaris in Kenia vertegenwoordigen [29](#page=29).
#### 2.1.4 Globalisering van digitale arbeid
Net zoals fysieke productie zich vroeger naar Azië verplaatste, vindt nu een "Globalisering 2.0" plaats waarbij digitale arbeid zich verspreidt naar de Global South. Tech giants behouden het leeuwendeel van de waarde (70-80%), terwijl outsourcingbedrijven 15-20% marge maken, platforms 5-8%, en de werkers slechts 2-5% van de verdiensten ontvangen, met het meeste risico. Er is een gebrek aan verantwoordelijkheid, waarbij tech giants zich beroepen op onwetendheid over contractors, outsourcingbedrijven verwijzen naar lokale wetten, en platforms zichzelf zien als simpele tussenpersonen [30](#page=30).
#### 2.1.5 Fairwork certificering
Het Fairwork-initiatief beoogt eerlijke arbeidsomstandigheden te bevorderen met vijf principes, specifiek voor AI: eerlijke betaling (inclusief een bonus voor traumatische taken), eerlijke omstandigheden (mentale gezondheid, maximale blootstelling), eerlijke contracten (vaste contracten, ontslagbescherming), eerlijk management (geen willekeurige deactivatie) en eerlijke vertegenwoordiging (recht op organisatie). Scores op deze principes zetten druk op bedrijven, en EU-regulering is in ontwikkeling [31](#page=31).
> **Tip:** De "onzichtbare arbeid" achter AI is cruciaal voor de functionaliteit van veel AI-systemen, maar brengt ernstige menselijke kosten met zich mee in termen van uitbuiting en mentale gezondheid.
### 2.2 Ecologische kosten
De ontwikkeling en het gebruik van AI hebben een aanzienlijke ecologische voetafdruk, die zich uit in CO₂-uitstoot, waterverbruik en hardwaregerelateerde problemen [32](#page=32) [33](#page=33).
#### 2.2.1 Carbon footprint (CO₂)
De carbon footprint verwijst naar de hoeveelheid broeikasgassen die iets uitstoot, gemeten in CO₂-equivalenten. Dit omvat niet alleen de training van grote taalmodellen (LLM's), maar ook het dagelijks gebruik van AI [32](#page=32).
* **Training van LLM's:** De training van GPT-3 produceerde 552 ton CO₂, wat overeenkomt met 370 vluchten tussen New York en Londen. De schatting voor de training van GPT-4 ligt rond de 15.000 ton CO₂, vergelijkbaar met het jaarlijkse verbruik van 3.260 auto's [32](#page=32).
* **Dagelijks gebruik:** Eén ChatGPT-query genereert ongeveer 1 gram CO₂, wat 4 tot 5 keer meer is dan een Google-zoekopdracht. De verwachte AI-adoptie in de VS in 2025 zal leiden tot een jaarlijkse uitstoot van 896.000 ton CO₂, wat gelijkstaat aan het jaarlijkse verbruik van 195.000 auto's [32](#page=32).
#### 2.2.2 Datacenter energiecrisis
Datacenters, die essentieel zijn voor AI, verbruiken een significant deel van de mondiale elektriciteit (1-2%) en de vraag groeit met 20-30% per jaar, grotendeels gedreven door AI. De energiemix is problematisch, met 60% afkomstig van fossiele brandstoffen. Ondanks ambitieuze doelen van bedrijven als Microsoft om "carbon negative" te worden, leidt de AI-expansie tot een stijging van de CO₂-uitstoot. Als gevolg hiervan kondigen grote techbedrijven de aanleg van kernreactors aan als "oplossing" [32](#page=32).
#### 2.2.3 Dorstige datacenters en waterverbruik
Datacenters verbruiken enorme hoeveelheden water voor koeling, met een schatting van 1,9 liter water per kWh elektriciteit. De training van GPT-3 vereiste 700.000 liter water. Wereldwijd wordt verwacht dat het waterverbruik van datacenters in 2025 zal oplopen tot 560 miljard liter per jaar, wat overeenkomt met 224 Olympische zwembaden. Tegen 2027 zou dit 1,7 biljoen liter per jaar kunnen zijn, bijna drie keer het dagelijkse waterverbruik van België [26](#page=26) [33](#page=33).
* **Waterschaarste en conflict:** Het intensieve waterverbruik leidt tot conflicten, met name in regio's als Arizona, waar Google's datacenter concurreert met drinkwaterrantsoenen, en in Georgia, waar bewoners zonder drinkwater zitten naast een Meta datacenter. Water wordt gebruikt omdat het puur is en direct beschikbaar via stadsleidingen, maar ongeveer 80% verdampt en is permanent verloren [33](#page=33).
#### 2.2.4 Hardware lifecycle en e-waste crisis
De levensduur van grafische verwerkingseenheden (GPU's), essentieel voor AI, is slechts 1,5 tot 2 jaar, niet omdat ze defect raken, maar omdat ze verouderd zijn. Dit draagt bij aan een groeiende e-waste crisis [33](#page=33).
* **E-waste probleem:** In 2024 wordt verwacht dat er wereldwijd 62 miljoen ton e-waste zal zijn, waarvan minder dan 20% wordt gerecycled. Het merendeel belandt op stortplaatsen [33](#page=33).
* **Zeldzame metalen en ethische winning:** E-waste bevat zeldzame metalen zoals kobalt (vaak gewonnen met kinderarbeid in Congo), lithium (dat watervervuiling veroorzaakt bij winning), en goud en zeldzame aardmetalen (door giftige extractieprocessen). Het falen van recycling betekent dat er na twee jaar opnieuw kinderarbeid nodig is voor dezelfde metalen [33](#page=33).
#### 2.2.5 Green AI en Jevon's Paradox
Er zijn initiatieven voor "Green AI" om de ecologische impact te verminderen [34](#page=34).
* **Model efficiency:** De ontwikkeling van Small Language Models (SLM's) zoals Llama 3.3 (70B parameters) en Phi-4 (14B parameters) toont aan dat kleinere modellen vergelijkbare of betere prestaties kunnen leveren dan veel grotere modellen, met aanzienlijk lagere kosten en energieverbruik [34](#page=34).
* **Slimme training:** Finetunen van bestaande modellen in plaats van volledig opnieuw trainen bespaart energie [34](#page=34).
* **Groene infrastructuur:** Gebruik van duurzame energiebronnen, zoals in IJsland (geothermisch), Noorwegen (hydro-elektrisch) en Schotland (wind-dominant), kan de ecologische voetafdruk verkleinen [34](#page=34).
* **Lokaal draaien:** Het lokaal draaien van LLM's met tools als Ollama elimineert de noodzaak voor een datacenter voor elke query en biedt privacyvoordelen [34](#page=34).
> **Jevon's Paradox in AI:** Deze paradox stelt dat efficiëntie kan leiden tot een toename van het totale verbruik en de impact, omdat efficiëntere technologieën goedkoper worden, wat leidt tot meer gebruik. Dit werd historisch waargenomen met kolen en auto's, en geldt ook voor AI. Efficiënte AI-oplossingen kunnen de netto CO₂-uitstoot verhogen als gevolg van bredere adoptie [34](#page=34).
> **Tip:** Ondanks de paradox, zijn efficiëntere modellen en groene infrastructuur cruciale stappen om de ecologische voetafdruk van AI te reduceren.
### 2.3 Sociale kosten
AI heeft ook aanzienlijke sociale kosten, voornamelijk door het versterken van bestaande ongelijkheden op verschillende gebieden, bekend als de "grote divides" [35](#page=35) [37](#page=37).
#### 2.3.1 De impact op de arbeidsmarkt
Hoewel optimistische voorspellingen van het World Economic Forum (WEF) in 2024 suggereren dat AI mogelijk meer banen creëert dan wegneemt, is de realiteit complex [35](#page=35).
* **Herscholing:** 1,1 miljard mensen wereldwijd (40%) heeft herscholing nodig, maar de disruptie door AI gebeurt nu, terwijl omscholing jaren duurt [35](#page=35).
* **Groepen op de arbeidsmarkt:** McKinsey identificeert drie groepen: winnaars (hoogopgeleid, technisch vaardig), adapters (kunnen omscholen, maar met moeite) en verliezers (laagopgeleid, zonder toegang tot training) [35](#page=35).
#### 2.3.2 Geopolitieke strijd en democratische druk
AI wordt een nationale veiligheidskwestie, met een wedloop tussen de VS, China en de EU om technologische dominantie [36](#page=36).
* **Chip-exportbeperkingen en data als strategische olie:** Technologische beperkingen en de controle over data spelen een cruciale rol in deze strijd [36](#page=36).
* **Reguleringsstrijd:** De EU hanteert een risico-gebaseerde aanpak (AI Act), de VS focust op innovatie met lichtere regulering, en China implementeert strikte staatscontrole. Dit leidt tot nieuwe invloedssferen en de vraag wie bepaalt wat "veilige" of "toegestane" AI is. AI wordt ook ingezet als instrument voor informatie-oorlog en beïnvloeding van verkiezingen [36](#page=36).
* **Democratie onder druk:** Deepfakes en AI-gedreven desinformatie beïnvloeden wereldwijd verkiezingen, verspreiden foutieve informatie sneller dan factcheckers kunnen bijhouden. AI-systemen zijn kwetsbaar voor vergiftiging, waarbij slechts een beperkt aantal documenten nodig is om LLM's merkbaar te beïnvloeden, wat een nieuwe vorm van informatie-oorlogvoering mogelijk maakt. Dit erodeert het vertrouwen, met het risico dat "alles nep kan zijn" [36](#page=36).
#### 2.3.3 De grote divides: AI en bestaande ongelijkheden
AI vergroot bestaande ongelijkheden door vijf specifieke "divides" [37](#page=37).
* **Digital Divide:** Dit omvat ongelijke toegang tot AI-tools en de kostenbarrière. AI-tools kosten in 2025 gemiddeld 20-25 dollars per maand, wat voor mensen in landen als Kenia (46% van het maandinkomen) en India (35%) een aanzienlijke uitgave is, in tegenstelling tot 1,3% in de VS of 2-3% in België. De paradox is dat wie data labelt om AI te trainen, zich de kostbare AI-tools zelf niet kan veroorloven [37](#page=37).
* **Linguistic Divide:** De verdeling van trainingsdata is sterk bevooroordeeld richting het Engels (52%), terwijl andere talen, zoals Nederlandse (<1%) en Afrikaanse talen (<0,1%), ondervertegenwoordigd zijn. Dit leidt tot een performance gap, waarbij bijvoorbeeld GPT-4 een nauwkeurigheid van 85-90% heeft in het Engels, maar slechts 40-45% in Swahili. Dit versterkt het Engels als lingua franca [38](#page=38).
* **Infrastructure Divide:** Er is een aanzienlijk verschil in internettoegang en -kwaliteit tussen ontwikkelde landen (90%+ toegang, hoge snelheid) en ontwikkelingslanden (40-60% toegang, vaak langzame 3G/4G). AI vereist stabiel internet, hoge bandbreedte en moderne apparatuur met GPU's en constante elektriciteit, wat in veel regio's ontbreekt [38](#page=38).
* **Knowledge Divide:** AI-modellen worden getraind op miljoenen boeken, artikelen en kunstwerken zonder toestemming of betaling aan de makers. Het eigendom van de output van AI is juridisch onduidelijk; alleen als er voldoende menselijke creativiteit is, kan auteursrecht gelden. Grote techbedrijven beschikken over de grootste modellen, terwijl open-source oplossingen achterblijven. Wie de data bezit, heeft de macht [39](#page=39).
* **Accessibility Divide:** AI wordt vaak ontworpen voor de "gemiddelde" gebruiker (wit, man, Engelssprekend, zonder beperkingen), wat leidt tot uitsluiting van "outliers" of "edge cases". Voorbeelden zijn gezondheids-AI die melanoom detectie bij donkere huid faalt, spraakherkenning die minder goed werkt voor vrouwen en accenten, en gezichtsherkenning met hogere foutmarges voor zwarte vrouwen. "Universal design" wordt vaak vervangen door design voor de machthebbers [39](#page=39).
#### 2.3.4 Versterkende effecten van divides
De Matthew Effect, ook bekend als "wie heeft, krijgt meer", is van toepassing op deze divides. Toegang tot AI leidt tot meer productiviteit, inkomen en betere toegang, terwijl geen toegang leidt tot achterstand en verdere uitsluiting. Een Keniaanse boer zonder kennis van Engels, internettoegang, geld of training is volledig uitgesloten van de AI-revolutie [40](#page=40).
#### 2.3.5 Inclusieve AI
Er zijn succesvolle voorbeelden van inclusieve AI, zoals Be My Eyes, Google Live Transcribe, en gezondheids-AI in afgelegen gebieden. Succesfactoren zijn onder andere gratis toegang, offline functionaliteit, lokale afstemming en community ownership. Voor schaalbare inclusie zijn diverse teams, investeringen in infrastructuur, meertalige data, en accessibility als kernvereisten nodig. Regulering is essentieel, omdat de markt dit probleem niet zelf oplost [40](#page=40).
> **Conclusie:** De balans tussen AI als probleem en als oplossing is cruciaal. AI brengt aanzienlijke menselijke, ecologische en sociale kosten met zich mee, maar biedt ook oplossingen voor deze problemen. De keuze om kritisch en bewust om te gaan met AI is aan ons [41](#page=41).
---
# AI en de toekomst van werk
Dit hoofdstuk onderzoekt de transformerende impact van kunstmatige intelligentie (AI) op de arbeidsmarkt, waarbij de nadruk ligt op de symbiotische relatie tussen mens en machine, de risico's van deskilling en de noodzaak van voortdurend leren en bewuste keuzes.
### 3.1 De transformatie van werk door AI
AI wordt gepresenteerd als een krachtig hulpmiddel dat de manier waarop we werken fundamenteel verandert. Echter, de complexiteit van AI is paradoxaal: taken die computationeel zwaar zijn en gebaseerd op recent ontwikkelde menselijke capaciteiten, zoals rekenen en data-analyse, zijn relatief eenvoudig voor AI. Daarentegen zijn evolutionair oudere vaardigheden, zoals motorische controle (een peuter schoenen strikken) en het begrijpen van subtiele menselijke interacties (sarcasme, behoefte aan support), extreem moeilijk voor AI. Dit biedt een kans voor mensen om zich te richten op deze unieke menselijke kwaliteiten [44](#page=44).
#### 3.1.1 Co-intelligentie: samen sterker dan apart
Een centraal concept is 'co-intelligentie', waarbij AI niet bedoeld is om mensen te vervangen, maar om hen te versterken. Ethan Mollick benadrukt dat AI fungeert als een generator, terwijl de mens de denker blijft. Het principe is dat AI taken uitvoert waar het goed in is (snelheid, schaal, dataverwerking), en de mens taken uitvoert waar hij of zij uitblinkt (creativiteit, ethiek, contextbegrip). Om deze synergie te laten werken, moet de mens de controle behouden, moet AI suggesties doen die de mens beslist, en moet er continu kritisch worden gebleven, waarbij domeinkennis van onmisbare waarde is [45](#page=45).
#### 3.1.2 Deskilling: het verlies van essentiële vaardigheden
De toenemende afhankelijkheid van technologie, inclusief AI, kan leiden tot 'deskilling', het verlies van essentiële vaardigheden. Vergelijkbaar met hoe GPS-gebruikers het kaartlezen kunnen verleren, of hoe rekenmachines het hoofdrekenen kunnen verzwakken, kan het gebruik van AI-schrijfhulpen de schrijfvaardigheid ondermijnen. Dit fenomeen staat bekend als 'cognitive offloading', waarbij de hersenen minder energie investeren in taken die extern worden uitgevoerd. Het principe 'use it or lose it' geldt hier: neurale verbindingen voor die specifieke vaardigheid verzwakken. Het is daarom cruciaal om te bepalen welke kernvaardigheden actief moeten worden geoefend en beschermd [45](#page=45).
#### 3.1.3 De 'brittle' aard van AI
AI wordt beschreven als 'brittle', wat betekent dat het niet robuust is en onbetrouwbaar kan zijn. Hoewel AI perfect kan werken, kan het onverwacht falen, zonder 'graceful degradation' (geleidelijke afbouw van prestaties), wat kleine fouten kan hebben die grote gevolgen hebben. AI kan ook hallucinaties produceren zonder waarschuwing. Kritische stemmen zoals Gary Marcus benadrukken daarom het belang van het altijd valideren van AI-output bij belangrijke beslissingen [46](#page=46).
### 3.2 Wanneer wel en wanneer niet AI inzetten
Het strategisch inzetten van AI vereist een afweging van de specifieke taak en de context [47](#page=47).
#### 3.2.1 Waar AI waarde levert
AI levert echte waarde wanneer:
* De taak repetitief en voorspelbaar is, zoals data-invoer, basiscontentcreatie of e-mailfiltering [47](#page=47).
* Snelheid belangrijker is dan perfectie, zoals bij brainstormen, het creëren van eerste concepten of het samenvatten van onderzoek [47](#page=47).
* Een expert aanwezig is om de output te valideren, waarbij AI genereert en de expert verbetert [47](#page=47).
* Het gaat om laag-risico experimenten, zoals prototypes, exploratie en testen [47](#page=47).
Een algemene vuistregel is om AI in te zetten voor efficiëntie en de mens voor strategie en kwaliteit [47](#page=47).
#### 3.2.2 Wanneer AI een risico vormt
AI brengt risico's met zich mee wanneer:
* Mensenlevens of welzijn op het spel staan, zoals bij medische diagnoses of juridische uitspraken zonder expert-backup [48](#page=48).
* Privacy of vertrouwelijkheid cruciaal zijn, met betrekking tot gevoelige persoonlijke of bedrijfsgegevens [48](#page=48).
* Nuance, empathie en context essentieel zijn, zoals bij conflictbemiddeling of change management [48](#page=48).
* Ethische afwegingen vereist zijn, bijvoorbeeld bij werving, beoordelingen of resource-toewijzing [48](#page=48).
* De kernvaardigheid zelf behouden moet blijven, vaardigheden die men niet wil verleren [48](#page=48).
* De output niet geverifieerd kan worden, wanneer er twijfel bestaat over de juistheid [48](#page=48).
De vuistregel luidt: bij twijfel, niet doen [48](#page=48).
### 3.3 Bewuste keuzes en continu leren
De toekomst van werk is niet gedicteerd door technologie, maar door de keuzes die mensen maken. Nicholas Carr waarschuwt: "Don't automate what makes you human". Bij elke vorm van automatisering moeten drie vragen worden gesteld: Wat automatiseer ik (is dit een kernvaardigheid)? Waarom automatiseer ik dit (luiheid of echte meerwaarde)? Hoe blijf ik betrokken (verlies ik de vaardigheid)?. De 'duurzaamheidsparadox' stelt de vraag of de beloofde efficiëntie van AI opweegt tegen de aanzienlijke ecologische en sociale kosten (energie, water, arbeid) [48](#page=48) [53](#page=53).
#### 3.3.1 Historische context van technologische verandering
De geschiedenis leert dat technologie werk altijd verandert, zonder dat dit noodzakelijkerwijs leidt tot massaal banenverlies. De stoommachine en elektriciteit leidden niet tot het verdwijnen van banen, maar tot de creatie van nieuwe sectoren en hogere welvaart. De introductie van de PC en het internet resulteerden eveneens in nieuwe economieën en beroepen. De huidige AI-transformatie biedt een vergelijkbare uitdaging, waarbij de precieze uitkomst nog onbekend is. De vraag is of men voorbereid is op deze continue technologische verandering [49](#page=49).
#### 3.3.2 Vaardigheden voor de toekomst: nu en morgen
Er is een aanzienlijke 'mismatch' tussen de huidige vaardigheden en de toekomstige behoeften. Naar schatting moeten 1.1 miljard mensen zich (om)scholen, wat jaren kan duren. De focus in het huidige curriculum ligt op AI, data en technologische geletterdheid, kritisch en zelfstandig denken. Essentiële aanbevelingen zijn om te investeren in fundamenten in plaats van alleen tools, domeinkennis verder te verdiepen en een 'growth mindset' te cultiveren, waarbij continu leren en kritisch blijven centraal staan [50](#page=50).
#### 3.3.3 De kunst van het uitzetten van AI
Het bewust uitzetten van AI is cruciaal voor het behoud van creativiteit en authenticiteit. Het proces begint analoog, met pen en papier, om ruwe ideeën uit eigen ervaring te genereren. AI wordt pas daarna ingezet voor de uitwerking. Dit voorkomt 'AI-slop' – uniforme, generieke output die voortkomt uit het gebruik van dezelfde tools door iedereen. Het stimuleert onconventionele verbindingen, beschermt het originele denkpatroon en traint de eigen creatieve 'spier'. Het eerste idee moet uit het eigen brein komen, niet uit een algoritme [51](#page=51).
#### 3.3.4 Veelvoorkomende fouten bij AI-adoptie
Bij de adoptie van AI worden verschillende fouten gemaakt:
1. **FOMO-driven leren:** Het proberen van elke nieuwe tool zonder focus. Kies 2-3 tools en leer die grondig [51](#page=51).
2. **Tutorial hell:** Eindeloos naar tutorials kijken zonder de opgedane kennis toe te passen. Pas het 80/20-principe toe: 20% leren, 80% doen [51](#page=51).
3. **Blind adoption:** AI gebruiken omdat het kan, niet omdat het nodig is. Vraag altijd naar het 'waarom' achter het gebruik [51](#page=51).
4. **No validation:** AI-output accepteren zonder controle. Verifieer altijd alles [51](#page=51).
5. **Over-automation:** Alles automatiseren. Pas 'selective adoption' toe en bescherm kernvaardigheden [51](#page=51).
### 3.4 Jouw autonome toekomst
De kernboodschap is dat AI niet primair over technologie gaat, maar over keuzes en autonomie. Elke keuze – welke tool, welke data, welk probleem aangepakt wordt – heeft impact. De centrale vraag is niet "Hoe gebruik ik AI?", maar "Wanneer wel en wanneer niet?". Het behouden van autonomie, kritisch blijven en nieuwsgierig blijven zijn essentieel voor de toekomst van werk [53](#page=53).
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| AI Ethiek | Een tak van ethiek die zich richt op de morele principes en waarden die van toepassing zijn op de ontwikkeling, implementatie en het gebruik van artificiële intelligentie. Het behandelt vraagstukken zoals privacy, transparantie, eerlijkheid en verantwoordelijkheid. |
| GDPR (AVG) | General Data Protection Regulation (Algemene Verordening Gegevensbescherming), een wetgeving binnen de Europese Unie die regels opstelt voor de bescherming van persoonsgegevens en privacy, en de manier waarop bedrijven omgaan met deze gegevens. |
| Bias | Een systematische afwijking in de beslissingen of resultaten van een AI-systeem, die kan leiden tot oneerlijke of discriminerende uitkomsten voor specifieke groepen mensen. Bias kan voortkomen uit de trainingsdata of het algoritme zelf. |
| Transparantie (AI) | Het principe dat de werking en besluitvorming van AI-systemen begrijpelijk en inzichtelijk moeten zijn voor gebruikers en belanghebbenden, zodat men kan begrijpen hoe en waarom een AI-beslissing tot stand komt. |
| Uitlegbaarheid (AI) | De capaciteit van een AI-systeem om de redenen achter zijn beslissingen op een begrijpelijke manier te presenteren, vaak via methoden zoals Explainable AI (XAI), om vertrouwen en verantwoording te bevorderen. |
| Verantwoordelijkheid (AI) | De toewijzing van schuld of aansprakelijkheid wanneer een AI-systeem faalt of schade veroorzaakt. Dit is een complex vraagstuk omdat het onduidelijk kan zijn wie verantwoordelijk is: de ontwikkelaar, de gebruiker of de implementerende organisatie. |
| Ghost Workers | Mensen die essentieel werk verrichten voor AI-systemen, zoals datalabeling en contentmoderatie, maar vaak onzichtbaar blijven, onder slechte omstandigheden werken en slecht betaald krijgen. |
| Carbon Footprint | De totale hoeveelheid broeikasgassen, uitgedrukt in CO2-equivalenten, die wordt uitgestoten door een product, activiteit of organisatie. Voor AI verwijst dit naar de energieconsumptie en de uitstoot tijdens training en gebruik. |
| Jevon’s Paradox | Het economische principe dat technologische vooruitgang die de efficiëntie van een middel verhoogt, er paradoxaal genoeg toe kan leiden dat het gebruik van dat middel toeneemt, waardoor het totale verbruik en de impact ervan stijgen. |
| Co-intelligence | Een benadering waarbij menselijke intelligentie en artificiële intelligentie samenwerken om betere resultaten te behalen dan elk afzonderlijk. De mens blijft hierbij de controle behouden en de AI dient als een augmentatie-tool. |
| Deskilling | Het proces waarbij werknemers essentiële vaardigheden verliezen doordat taken worden overgenomen door technologie of automatisering, wat kan leiden tot een afname van de cognitieve capaciteiten en een grotere afhankelijkheid van machines. |
| Moravec’s Paradox | Het fenomeen dat voor AI taken die voor mensen extreem makkelijk zijn (zoals lopen of voelen) juist ontzettend moeilijk zijn, terwijl taken die voor mensen moeilijk zijn (zoals schaken of complexe berekeningen) relatief makkelijk zijn voor AI. |
| AI Act (EU) | Een voorgestelde wetgeving van de Europese Unie die tot doel heeft een juridisch kader te scheppen voor artificiële intelligentie, met een risico-gebaseerde aanpak om de veiligheid en de fundamentele rechten van burgers te waarborgen. |
| Datacenter | Een faciliteit die wordt gebruikt om grote hoeveelheden data-opslagapparatuur, servers en netwerkapparatuur te huisvesten en te beheren. Datacenters verbruiken aanzienlijke hoeveelheden energie en water voor koeling. |
| E-waste | Elektronisch afval, bestaande uit afgedankte elektronische apparaten. De snelle levenscyclus van hardware voor AI draagt bij aan de groeiende e-waste crisis wereldwijd. |
| Prompt Engineering | De kunst en wetenschap van het formuleren van effectieve instructies (prompts) om AI-modellen, met name grote taalmodellen, aan te sturen tot het produceren van gewenste en bruikbare outputs. |
| Hallucinaties (AI) | Wanneer een AI-model feitelijk onjuiste of verzonnen informatie genereert, die echter wel plausibel wordt gepresenteerd. Dit is een bekend probleem bij grote taalmodellen. |
| Recursive Reinforcement Learning from Human Feedback (RLHF) | Een techniek die wordt gebruikt om AI-modellen, zoals grote taalmodellen, te trainen door menselijke feedback te gebruiken om de output van het model af te stemmen op menselijke voorkeuren en waarden. |
| Small Language Model (SLM) | Een kleiner, meer efficiënt taalmodel dan de traditionele Large Language Models (LLMs), dat vaak vergelijkbare prestaties kan leveren met een aanzienlijk lagere rekenkracht en energieverbruik. |
| Socio-technische systemen | Systemen die bestaan uit zowel technologische componenten als menselijke interacties en organisatorische processen. De impact van AI wordt vaak geanalyseerd binnen deze socio-technische context. |