Artificial Intelligence Ai Semantics
Cover
7. Deep dive Generative AI ML6.pptx
Summary
# Introductie tot AI en Generatieve AI
Hier is een gedetailleerde studiehandleiding voor het onderwerp "Introductie tot AI en Generatieve AI", gebaseerd op de verstrekte documentatie.
## 1. Introductie tot AI en generatieve AI
Dit onderwerp verkent de fundamentele definities van Kunstmatige Intelligentie (AI) en Generatieve AI, plaatst deze in een historische context en analyseert de recente toename in populariteit gedreven door factoren zoals big data en rekenkracht.
### 1.1 De evolutie van kunstmatige intelligentie
Kunstmatige intelligentie is geen nieuw concept; het bestaat al ongeveer zeventig jaar. De recente vooruitgang en publieke toegankelijkheid zijn echter te danken aan significante ontwikkelingen in de technologie.
#### 1.1.1 De toename in populariteit van AI
De populariteit van AI is de afgelopen jaren exponentieel gegroeid. Deze toename wordt voornamelijk gedreven door drie kernfactoren:
* **Big data:** De digitalisering en de alomtegenwoordigheid van het internet hebben geleid tot de creatie van enorme datasets. Deze data fungeren als de 'brandstof' voor moderne AI-modellen, met name voor deep learning en foundation models.
* **Massale rekenkracht:** De exponentiële groei van de computerkracht, deels verklaard door de wet van Moore (die stelt dat het aantal transistors op een chip ongeveer elke twee jaar verdubbelt, wat leidt tot verdubbelde capaciteit), maakt het mogelijk om steeds complexere AI-modellen te trainen en te draaien. De schaalbaarheid van GPU's (Graphics Processing Units) heeft hierin een cruciale rol gespeeld.
* **Wetenschappelijke doorbraken:** Nieuwe architecturen en leerparadigma's die mogelijk zijn gemaakt door schaalvergroting, hebben geleid tot significante wetenschappelijke doorbraken. Voorbeelden hiervan zijn de Nobelprijzen voor Natuurkunde en Scheikunde in 2024 die mede voor AI-gebaseerde ontdekkingen zijn toegekend.
#### 1.1.2 Misvattingen over AI
Het is belangrijk om enkele veelvoorkomende misvattingen over AI te ontkrachten:
* **AI is gloednieuw:** Dit is onjuist. AI-concepten bestaan al tientallen jaren, maar de praktische toepassingen zijn pas recent mogelijk geworden door technologische vooruitgang.
* **AI vertelt altijd de waarheid:** AI-modellen voorspellen antwoorden op basis van statistische waarschijnlijkheid en kunnen fouten maken of feitelijk onjuiste informatie genereren (bekend als 'hallucinaties'). Het is cruciaal om de output van AI altijd te verifiëren met betrouwbare bronnen en zelf verantwoordelijk te blijven voor de interpretatie en het gebruik ervan.
* **AI begrijpt taal:** AI-modellen, zoals Large Language Models (LLM's), genereren tekst door het voorspellen van het meest waarschijnlijke volgende woord op basis van de enorme hoeveelheid data waarop ze getraind zijn. Dit is een statistisch proces en betekent niet dat de AI daadwerkelijk betekenis of intentie begrijpt, vergelijkbaar met het Chinese kamer-gedachte-experiment.
### 1.2 Van AI naar Generatieve AI: een hiërarchisch overzicht
AI is een breed veld dat verder is geëvolueerd naar meer gespecialiseerde subdisciplines.
#### 1.2.1 Kunstmatige Intelligentie (AI)
* **Definitie:** Het vermogen van een computersysteem om cognitieve functies uit te voeren die geassocieerd worden met het menselijk brein, zoals perceptie, redenering, leren, probleemoplossing en creativiteit.
* **Historische context:** De vroege vormen van AI (jaren '70-'80) waren vaak gebaseerd op expliciet gecodeerde regels en zoekalgoritmen, zonder veel nadruk op leren uit data. Voorbeelden zijn Deep Blue (met handgemaakte evaluatieregels) en MYCIN (een regelgebaseerd expertsysteem).
#### 1.2.2 Machine Learning (ML)
* **Definitie:** Computersystemen die kunnen leren en zich aanpassen zonder expliciete instructies. Ze gebruiken algoritmen en statistische modellen om patronen in data te analyseren en conclusies te trekken.
* **Historische context:** In de jaren '80-'90 werd Machine Learning populairder, waarbij modellen leerden van data, vaak nog met de hulp van door mensen gemaakte kenmerken (features). Voorbeelden zijn lineaire regressie, support vector machines en k-means clustering.
#### 1.2.3 Deep Learning (DL)
* **Definitie:** Een type machine learning dat gebruikmaakt van neurale netwerken. Deze netwerken zijn geïnspireerd op de structuur van het menselijk brein en bestaan uit onderling verbonden neuronen georganiseerd in lagen. Ze zijn in staat om grote hoeveelheden data te verwerken en complexe problemen op te lossen.
* **Historische context:** Vanaf de jaren 2010 werd Deep Learning dominant. Modellen kunnen nu automatisch kenmerken leren uit data. Voorbeelden zijn Convolutional Neural Networks (CNN's) voor beeldclassificatie (bv. ResNet-50, YOLOv8), transformer modellen voor tekstverwerking (bv. BERT) en modellen voor het voorspellen van eiwitstructuren (bv. AlphaFold).
#### 1.2.4 Generatieve AI
* **Definitie:** AI-modellen die in staat zijn om nieuwe content te genereren, zoals tekst, afbeeldingen, video's, audio of andere datatypes, gebaseerd op de data waarop ze zijn getraind. Generatieve modellen leren de patronen en structuren van hun trainingsdata en kunnen vervolgens nieuwe data met vergelijkbare kenmerken produceren. De transformer-architectuur is hierin een belangrijke ontwikkeling.
* **Historische context:** Vanaf de jaren 2020 heeft Generatieve AI een enorme vlucht genomen. Het stelt modellen in staat om belangrijke delen van instructies te onthouden en te benutten.
* **Voorbeelden:**
* **Tekstgeneratie:** Large Language Models (LLM's) zoals GPT.
* **Beeldgeneratie:** Modellen zoals MidJourney.
* **Video generatie:** Modellen zoals Sora.
* **Fysieke omgeving generatie:** Modellen zoals Cosmos van NVIDIA.
### 1.3 Toepassingen van Generatieve AI
Generatieve AI opent een breed scala aan mogelijkheden in diverse domeinen:
* **Natuurlijke Taalverwerking (NLP):** Het genereren van tekst, samenvatten van documenten, vertalen en beantwoorden van vragen.
* **Computer Vision:** Het genereren van afbeeldingen, video's, objectdetectie en het creëren van realistische synthetische data.
* **Robotics:** Het creëren van nieuwe content om modellen te trainen, wat leidt tot verbeterde robotprestaties.
* **Andere domeinen:** Interactieve lineaire regressie, simulatie van fysieke omgevingen en het creëren van interactieve lineaire regressie tools.
### 1.4 Risico's en overwegingen bij het gebruik van AI en Generatieve AI
Het gebruik van AI, en met name Generatieve AI, brengt diverse risico's met zich mee die zorgvuldig overwogen moeten worden:
#### 1.4.1 Output-gerelateerde risico's
* **Hallucinaties:** De output kan feitelijk onjuist of verzonnen zijn.
* **Toxische output:** Antwoorden kunnen gevaarlijke, aanstootgevende of inflammatoire informatie bevatten.
* **Gebyasede output:** AI kan bestaande vooroordelen in de trainingsdata overnemen of versterken, wat leidt tot discriminerende of oneerlijke resultaten.
#### 1.4.2 Data-gerelateerde risico's
* **Gebruik van inputdata als trainingsdata:**
* **Copyright/handelsgeheimen:** De data die input wordt voor een model kan auteursrechtelijk beschermd zijn of bedrijfseigen informatie bevatten. Het gebruik hiervan kan leiden tot inbreuk.
* **Persoonsgegevens:** Het verwerken van persoonsgegevens vereist naleving van privacywetgeving zoals de GDPR. Het is essentieel om de licentievoorwaarden en privacy-instellingen van gebruikte platforms te controleren, aangezien de gebruiker soms zelf het product wordt wanneer geen licentiekosten worden betaald.
* **Copyright op output:** De output van een AI-systeem kan ook auteursrechtelijk beschermd zijn. Het onvoorzichtig gebruik van gegenereerde content kan leiden tot inbreuk op andermans rechten.
#### 1.4.3 Overige risico's
* **Cybercriminaliteit:** AI kan worden misbruikt voor kwaadaardige doeleinden.
* **Milieu-impact:** Het trainen van grote modellen vereist aanzienlijke rekenkracht en energie.
* **Democratie en desinformatie:** AI kan worden ingezet om desinformatie te verspreiden en democratische processen te beïnvloeden.
* **Deepnudes:** Het genereren van synthetische beelden kan leiden tot misbruik, zoals het creëren van deepfakes.
#### 1.4.4 Overmatig vertrouwen
* **Geloofwaardige output:** LLM's klinken vaak geloofwaardig, wat kan leiden tot overmatig vertrouwen in hun output, zelfs als deze feitelijk onjuist is. Het is cruciaal om kritisch te blijven en de output te valideren.
### 1.5 Regulering en verantwoord gebruik
De snelle opkomst van AI heeft geleid tot de noodzaak van regelgeving. Belangrijke wetgeving en richtlijnen omvatten:
* **AI Act:** Een Europese verordening die een raamwerk biedt voor de regulering van AI-systemen op basis van risiconiveaus.
* **GDPR (General Data Protection Regulation):** Beschermt persoonsgegevens en reguleert hoe deze mogen worden verwerkt, wat relevant is voor zowel trainingsdata als output.
* **Productaansprakelijkheidsrichtlijn:** Kan van toepassing zijn op AI-systemen die schade veroorzaken.
* **Intellectueel Eigendom (IP):** Wetgeving rond auteursrecht en patenten is van toepassing op zowel de trainingsdata als de output van AI.
* **Data Act:** Reguleert de toegang tot en het gebruik van data.
* **Cybersecurity wetgeving:** Zoals NIS II, Cyber Resilience Act en de Cybersecurity Act, die de beveiliging van digitale systemen waarborgen.
Naast formele wetgeving zijn er ook richtlijnen en ethische kaders die het verantwoord gebruik van AI stimuleren, zoals het "Richtkader voor verantwoord gebruik van AI" en specifieke richtlijnen voor beroepsgroepen (bv. advocaten).
> **Tip:** AI is een krachtig hulpmiddel, maar het vervangt geen menselijk oordeel of kritisch denken. Wees je bewust van de beperkingen en gebruik AI doordacht om je eigen vaardigheden te ondersteunen, niet om ze te delegaren.
### 1.6 Slotgedachten voor studenten
* **Wees bewust van AI:** Begrijp de belangrijke beperkingen van AI en de consequenties van het gebruik ervan.
* **Gebruik verantwoordelijk:** Bescherm je privacy en vertrouwelijke informatie wanneer je met AI-tools werkt.
* **Gebruik doordacht:** AI ondersteunt, maar vervangt geen kritische analyse of oordeel.
* **Blijf geïnformeerd en nieuwsgierig:** AI is een blijvend fenomeen. Kennis over het gebruik ervan is een concurrentievoordeel.
* **AI als juridisch vakgebied:** De wetgeving rond AI is complex en in ontwikkeling, wat een uitdagend maar boeiend studiegebied vormt.
---
# Risico's en Uitdagingen van AI
De integratie van kunstmatige intelligentie (AI) brengt aanzienlijke risico's en uitdagingen met zich mee die zorgvuldige overweging vereisen, met name op het gebied van de betrouwbaarheid van de output, de ethische implicaties en juridische overwegingen.
### 2.1 Algemene risico's van AI
AI-systemen, hoewel krachtig, zijn niet immuun voor fouten en kunnen onbedoelde negatieve gevolgen hebben. De belangrijkste risico's kunnen als volgt worden gecategoriseerd:
#### 2.1.1 Hallucinaties
AI-modellen kunnen output genereren die feitelijk onjuist is of volledig is verzonnen. Dit fenomeen, bekend als 'hallucinaties', treedt op omdat AI-modellen voornamelijk werken op basis van statistische waarschijnlijkheden om het volgende woord te voorspellen, in plaats van op begrip van de waarheid of feiten.
> **Tip:** Beschouw AI-output altijd als potentieel onjuist en verifieer kritieke informatie altijd met betrouwbare bronnen. De eindverantwoordelijkheid voor de gebruikte informatie ligt bij de gebruiker.
#### 2.1.2 Toxische output
AI-modellen kunnen antwoorden produceren die schadelijke, gevaarlijke of inflammatoire informatie bevatten. Dit kan voortkomen uit de trainingsdata of de manier waarop het model de input interpreteert.
#### 2.1.3 Bevooroordeelde output
AI kan bestaande vooroordelen in de samenleving overnemen en zelfs verergeren. Als de trainingsdata vooroordelen bevatten, zal het AI-model deze waarschijnlijk weerspiegelen in zijn output, wat leidt tot ongelijke of discriminerende resultaten.
#### 2.1.4 Andere risico's
Naast de bovengenoemde punten zijn er diverse andere risico's die gepaard gaan met AI:
* **Cybercriminaliteit:** AI kan worden ingezet voor geavanceerdere cyberaanvallen, zoals phishing, malware-creatie of het omzeilen van beveiligingsmaatregelen.
* **Milieu-impact:** Het trainen van grootschalige AI-modellen vereist aanzienlijke rekenkracht, wat leidt tot een hoog energieverbruik en een ecologische voetafdruk.
* **Democratische processen:** AI kan worden gebruikt voor desinformatiecampagnes, manipulatie van de publieke opinie of het beïnvloeden van verkiezingen.
* **Deepfakes:** De generatie van realistische, maar valse, video's of audio-opnamen (deepfakes) kan leiden tot reputatieschade, misleiding en sociale onrust.
> **Tip:** Wees u bewust van de beperkingen van AI en de potentiële maatschappelijke impact ervan.
### 2.2 Uitdagingen rond data en intellectueel eigendom
Het gebruik van data voor de training van AI-modellen en de output die deze genereren, brengt specifieke juridische en ethische uitdagingen met zich mee.
#### 2.2.1 Gebruik van input data als trainingsdata
Een significant risico ontstaat wanneer de data die gebruikers invoeren in een AI-systeem, vervolgens wordt gebruikt om het model verder te trainen. Dit kan leiden tot de schending van:
* **Auteursrecht:** Input data kan auteursrechtelijk beschermd materiaal bevatten. Als dit zonder toestemming wordt gebruikt voor training, kan dit leiden tot auteursrechtinbreuk.
* **Handelsgeheimen:** Gevoelige bedrijfsinformatie of strategieën die als input worden ingevoerd, kunnen door het AI-model worden geleerd en potentieel worden gerepliceerd of gelekt.
> **Tip:** Controleer de licentievoorwaarden en het privacybeleid van AI-diensten om te begrijpen hoe uw input data wordt gebruikt. Als er geen specifieke licentie is voor verder gebruik van uw data, bent u mogelijk zelf het product.
#### 2.2.2 Auteursrecht op output
Niet alleen de input data, maar ook de output die door AI-systemen wordt gegenereerd, kan auteursrechtelijk beschermd zijn. Gebruikers die AI-gegenereerde content creëren en publiceren, moeten voorzichtig zijn en controleren of ze geen inbreuk maken op bestaande auteursrechten. Het onzorgvuldig gebruiken van AI-gegenereerde afbeeldingen kan leiden tot inbreuk op de rechten van originele makers.
#### 2.2.3 Persoonlijk gegevensgebruik
De inzet van AI, met name het trainen van modellen, kan leiden tot het verwerken van persoonsgegevens. Dit vereist naleving van regelgeving zoals de Algemene Verordening Gegevensbescherming (AVG). Het anonimiseren of pseudonimiseren van data is cruciaal om de privacy van individuen te waarborgen.
> **Voorbeeld:** Een juridisch systeem dat AI gebruikt voor het verwerken van gerechtelijke uitspraken kan persoonsgegevens zoals namen en adressen automatisch pseudonimiseren (bv. "Jan Peeters woont in Kerkstraat 12" wordt "E.V. woont op Adres 1") om de privacy te beschermen.
### 2.3 Overmatig vertrouwen in AI
Een ander belangrijk risico is overmatig vertrouwen in de output van AI-systemen. Omdat de output van Large Language Models (LLM's) vaak geloofwaardig klinkt, bestaat de neiging deze zonder kritische beoordeling te accepteren.
> **Tip:** Geloofwaardigheid is niet gelijk aan feitelijke correctheid. Blijf altijd kritisch en toets de output van AI aan uw eigen oordeel en externe validatie.
### 2.4 Regulering en juridische kaders
De snelle ontwikkeling van AI heeft geleid tot de noodzaak van specifieke regelgeving en juridische kaders. Verschillende wetten en richtlijnen zijn van toepassing, waaronder:
* **AI Act:** Een aankomende Europese wetgeving die specifiek gericht is op het reguleren van AI-systemen.
* **AVG (GDPR):** Beschermt persoonsgegevens en reguleert de verwerking ervan, wat relevant is voor zowel trainingsdata als output van AI.
* **Productaansprakelijkheid Richtlijn:** Kan van toepassing zijn op AI-systemen als producten die schade veroorzaken.
* **Intellectueel Eigendom Wetgeving:** Betreft auteursrecht, patenten en handelsgeheimen in relatie tot AI-gegenereerde inhoud en technologie.
* **Data Act:** Reguleert de toegang tot en het gebruik van data, wat indirect impact heeft op AI-ontwikkeling.
* **Cybersecurity Wetgeving (bv. NIS2, Cyber Resilience Act):** Behandelt de beveiliging van systemen, inclusief AI-systemen, tegen cyberdreigingen.
Naast formele wetgeving worden ook richtlijnen en kaders voor verantwoord gebruik ontwikkeld, zoals richtlijnen voor advocaten. Het recht rond AI is een dynamisch en uitdagend veld in ontwikkeling.
---
# Regulering en Verantwoord Gebruik van AI
Dit deel bespreekt de juridische kaders die van toepassing zijn op kunstmatige intelligentie, met name de AI Act en de GDPR, en benadrukt het belang van zowel wetgeving als richtlijnen voor verantwoord gebruik om bewust, verantwoord en doordacht met AI om te gaan.
### 3.1 Juridische kaders voor AI
De opkomst van AI brengt een noodzaak met zich mee voor regelgeving om de ethische en maatschappelijke implicaties ervan te beheersen. Diverse juridische kaders zijn van kracht of in ontwikkeling om dit te bewerkstelligen.
#### 3.1.1 De AI Act
De AI Act is een initiatief dat tot doel heeft een uniforme regelgevende aanpak voor kunstmatige intelligentie te creëren binnen de Europese Unie. Het beoogt een hoog niveau van veiligheid en bescherming van grondrechten te waarborgen, terwijl het innovatie stimuleert. De AI Act classificeert AI-systemen op basis van hun risiconiveau, waarbij hogere risico's strengere verplichtingen met zich meebrengen. Dit omvat onder andere vereisten voor datakwaliteit, transparantie, menselijk toezicht en robuustheid.
#### 3.1.2 GDPR (Algemene Verordening Gegevensbescherming)
De GDPR is cruciaal voor AI, aangezien veel AI-systemen worden getraind op en gebruikmaken van persoonsgegevens. De verordening stelt strikte regels op voor de verwerking van persoonsgegevens, inclusief principes van rechtmatigheid, eerlijkheid en transparantie. AI-toepassingen die persoonsgegevens verwerken, moeten voldoen aan de GDPR-vereisten, zoals het verkrijgen van toestemming, het waarborgen van dataminimalisatie, het respecteren van de rechten van betrokkenen en het implementeren van passende beveiligingsmaatregelen. Er is een nauwe relatie tussen de AI Act en de GDPR, aangezien persoonsgegevens kunnen worden gebruikt voor het trainen van modellen en de output van AI-systemen ook persoonsgegevens kan bevatten.
#### 3.1.3 Andere relevante wetgeving
Naast de AI Act en de GDPR zijn er andere juridische kaders die relevant zijn voor AI:
* **Product Liability Directive:** Deze richtlijn kan van toepassing zijn op AI-systemen die als product worden beschouwd en schade veroorzaken.
* **Intellectual Property Law:** Vragen rond auteursrecht en eigendom van door AI gegenereerde content zijn onderwerp van discussie en regelgeving.
* **Data Act:** Deze wetgeving reguleert de toegang tot en het gebruik van data, wat van invloed kan zijn op de ontwikkeling en inzet van AI.
* **Cybersecurity wetgeving (bv. NISII, Cyber Resilience Act, Cybersecurity Act):** Deze wetten adresseren de beveiliging van systemen, inclusief die welke AI gebruiken, om kwetsbaarheden te mitigeren.
### 3.2 Richtlijnen voor verantwoord gebruik van AI
Naast formele wetgeving zijn er ook richtlijnen en best practices die bijdragen aan het verantwoord gebruik van AI. Deze benadrukken de noodzaak voor gebruikers om bewust, verantwoord en doordacht met AI om te gaan.
> **Tip:** Wetgeving is een belangrijk fundament, maar richtlijnen voor verantwoord gebruik vullen deze aan door specifieke gedragsnormen en aanbevelingen te bieden voor dagelijkse interacties met AI.
#### 3.2.1 Bewustzijn van AI-beperkingen
Het is essentieel om je bewust te zijn van de inherente beperkingen van AI. AI-systemen kunnen fouten maken, 'hallucineren' (feitelijk onjuiste informatie genereren) of bevooroordeeld zijn.
> **Example:** Een AI-chatbot kan feitelijk onjuiste informatie genereren over een historisch evenement, zelfs als de output plausibel klinkt. Het is cruciaal om de output altijd te verifiëren met betrouwbare bronnen.
#### 3.2.2 Verantwoord gebruik en privacy
Gebruikers dienen verantwoord om te gaan met AI, met name wat betreft privacy en vertrouwelijke informatie.
* **Bescherming van persoonsgegevens en vertrouwelijke informatie:** Voer geen gevoelige of vertrouwelijke gegevens in AI-systemen in, tenzij dit expliciet is toegestaan en beveiligd is.
* **Gebruik van inputdata:** Wees alert op hoe inputdata mogelijk wordt gebruikt voor verdere training van modellen, wat implicaties kan hebben voor auteursrecht en handelsgeheimen.
> **Example:** Het invoeren van een bedrijfseigen strategie in een publieke AI-tool kan leiden tot datalekken of het openbaar maken van vertrouwelijke informatie.
#### 3.2.3 Doordacht gebruik en kritisch denken
Technologie moet ondersteunen, niet vervangen. Kritisch denken en oordeelsvorming blijven onmisbaar.
* **Niet delegeren van kritisch denken:** AI kan helpen bij taken, maar het kritisch evalueren van informatie en het vormen van een eigen oordeel mag niet worden uitbesteed aan de machine. Dit onderscheidt menselijke intelligentie van kunstmatige intelligentie.
* **Onderscheid tussen geloofwaardigheid en correctheid:** AI-output kan overtuigend klinken, maar dit betekent niet automatisch dat het feitelijk juist is.
> **Tip:** Vraag jezelf altijd af: "Waarom geeft de AI dit antwoord?" en "Is dit antwoord logisch en consistent met wat ik al weet?"
#### 3.2.4 Blijf geïnformeerd en nieuwsgierig
AI is een blijvende technologie. Het begrijpen van hoe je AI effectief kunt gebruiken, biedt een competitief voordeel. AI ontwikkelt zich ook tot een eigen juridisch vakgebied, wat uitdagend maar ook spannend is.
> **Example:** Als juridisch student kan het leren gebruiken van AI-tools voor juridisch onderzoek, documentanalyse of samenvattingen de efficiëntie aanzienlijk verhogen, mits dit bewust en verantwoord gebeurt.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Kunstmatige Intelligentie (AI) | De capaciteit van een computersysteem om cognitieve functies uit te voeren die geassocieerd worden met het menselijk brein, zoals waarneming, redenering, leren, probleemoplossing en creativiteit. |
| Generatieve AI | AI-modellen die nieuwe content kunnen genereren, zoals tekst, afbeeldingen of video's, gebaseerd op de data waarop ze zijn getraind. Deze modellen leren de patronen en structuren van hun trainingsdata om nieuwe data met vergelijkbare kenmerken te genereren. |
| Machine Learning | Computersystemen die kunnen leren en zich aanpassen zonder expliciete instructies te volgen, gebruikmakend van algoritmen en statistische modellen om patronen in data te analyseren en conclusies te trekken. |
| Deep Learning | Een type machine learning dat neurale netwerken gebruikt, geïnspireerd door het menselijk brein, met onderling verbonden neuronen in lagen. Deze systemen kunnen grote hoeveelheden data verwerken en complexe problemen oplossen. |
| Grote Taalmodellen (LLM) | Een type generatieve AI dat gespecialiseerd is in het verwerken en genereren van menselijke taal. Deze modellen worden getraind op enorme hoeveelheden tekstdata. |
| Hallucinaties (AI) | Fenomeen waarbij een AI-model feitelijk onjuiste of verzonnen informatie genereert, die niet gebaseerd is op de werkelijkheid of de trainingsdata. |
| Bevooroordeelde output (AI) | Resultaten die door een AI-systeem worden geproduceerd en een oneerlijke of discriminerende weergave van bepaalde groepen of situaties bevatten, vaak als gevolg van bias in de trainingsdata. |
| Pseudonymisering | Het proces waarbij persoonlijke gegevens worden behandeld zodat ze niet direct aan een individu kunnen worden toegeschreven zonder aanvullende informatie te gebruiken, wat helpt bij privacybescherming. |
| Samenvatting & Tagging | Technieken waarbij tekstuele inhoud wordt gereduceerd tot een kortere versie (samenvatting) en geassocieerd met relevante trefwoorden of labels (tagging) om de vindbaarheid en het begrip te verbeteren. |
| AI Act | Een voorgestelde regelgeving door de Europese Commissie die tot doel heeft een wettelijk kader te creëren voor kunstmatige intelligentie, gericht op het bevorderen van de adoptie van AI en het waarborgen van veiligheid en fundamentele rechten. |
| GDPR (General Data Protection Regulation) | Een verordening van de Europese Unie betreffende gegevensbescherming en privacy voor alle individuen binnen de Europese Unie en de Europese Economische Ruimte. Het regelt ook de export van persoonsgegevens buiten de EU. |
| Overmatige afhankelijkheid | Het te veel vertrouwen op de output van AI-systemen, zonder voldoende kritische evaluatie of verificatie, wat kan leiden tot acceptatie van onjuiste of ongewenste informatie. |
Cover
College%20AI%20en%20vertaling_18-11-2025_Jarno%20Wuijts.pdf
Summary
# Evolutie van machinevertaling
Dit onderwerp verkent de historische ontwikkeling van machinevertaling (MT), van de vroege concepten tot geavanceerde neurale netwerkmodellen [7](#page=7).
### 1.1 Vroege concepten en de oorsprong van machinevertaling
De oorsprong van machinevertaling kan worden teruggevoerd tot de periode tijdens de Tweede Wereldoorlog, waarin computers werden gezien als "decodeermachines". Het idee was om tekst, die in een andere taal was geschreven, te ontcijferen alsof het een gecodeerd bericht was. Belangrijke mijlpalen in de vroege ontwikkeling van kunstmatige intelligentie (AI) en natuurlijke taalverwerking (NLP), die de basis legden voor MT, zijn onder meer Alan Turing's publicatie "Computing Machinery and Intelligence" in 1950 en de eerste vermelding van artificiële intelligentie door John McCarthy in 1955. Het Georgetown-IBM experiment in 1954 markeerde een vroeg experiment met directe machinevertaling, terwijl ELIZA in 1966 de eerste "chatterbot" was en gebruik maakte van NLP [10](#page=10) [8](#page=8) [9](#page=9).
### 1.2 Regelgebaseerde machinevertaling
Regelgebaseerde machinevertaling (RBMT) is een benadering die sterk leunt op linguïstische regels en woordenboeken om vertalingen te genereren. Er zijn verschillende subbenaderingen binnen RBMT [15](#page=15):
#### 1.2.1 Directe machinevertaling
Bij directe MT wordt een woord-voor-woord vertaling uitgevoerd, waarbij de structuur van de doeltaal (DT) grotendeels wordt genegeerd. Dit gebeurt op basis van woordenboeken en eenvoudige grammaticaregels. Een nadeel is dat dit leidt tot onnatuurlijke zinnen, zoals geïllustreerd door de vertaling van "Zag jij de dief?" naar "Saw you the thief?" [15](#page=15).
#### 1.2.2 Transfer machinevertaling
Transfer MT voegt een extra stap toe: het omzetten van de bronzin naar een abstracte taalkundige weergave, gevolgd door een aanpassing naar de structuur van de doeltaal, alvorens woord-voor-woord te vertalen. Dit model houdt rekening met woordvolgorde en grammaticale structuren, wat leidt tot betere vertalingen dan directe MT. Een voorbeeld is de vertaling van "Zag jij de dief?" naar "Did you see the thief?" door eerst de Nederlandse vraagzin om te zetten naar een Engelse vraagzinstructuur [16](#page=16).
#### 1.2.3 Interlingua machinevertaling
De Interlingua-benadering streeft ernaar om de bronzin eerst te vertalen naar een taalonafhankelijke, betekenisgedreven weergave (de interlingua). Vervolgens wordt deze interlingua omgezet naar de doeltaal. Dit model focust op de betekenis, wat potentieel leidt tot de meest accurate vertalingen, maar ook tot de meest complexe implementatie. Een voorbeeld is het ontleden van "Zag jij de dief?" in zijn betekeniscomponenten (actie, actor, object, type, tijd) en dit vervolgens te vertalen naar Engelse zinnen als "Have you seen the thief?" of "Did you see the thief?" [17](#page=17).
#### 1.2.4 Problemen met regelgebaseerde machinevertaling
Regelgebaseerde methodes kampen met aanzienlijke problemen:
* **Kwalificatieprobleem**: Het is onmogelijk om alle specifieke omstandigheden en condities voor elke regel te specificeren [18](#page=18).
* **Tijdrovend en duur**: Taalkundigen moesten alle regels handmatig invoeren [18](#page=18).
* **Gebrek aan flexibiliteit**: Het is moeilijk om regels bij te werken en aan te passen aan nieuwe taalontwikkelingen [18](#page=18).
* **Kwaliteitsproblemen**: De kwaliteit van de vertalingen was vaak suboptimaal, met name op het gebied van woordvolgorde en idiomaticiteit [18](#page=18).
Deze problemen leidden tot kritiek, zoals het Lighthill report en het ALPAC Report die suggereerden dat er "no point" was in machinevertaling [19](#page=19).
### 1.3 Statistische machinevertaling (SMT)
Vanaf de jaren '80 ontstond de statistische machinevertaling (SMT), een benadering die machine learning en corpuslinguïstiek integreert. SMT maakt gebruik van wiskundige modellen om patronen in grote hoeveelheden data te herkennen en zo voorspellingen te doen [20](#page=20).
#### 1.3.1 Kernconcepten van SMT
* **Bag-of-Words**: Een methode die het voorkomen van woorden in een document telt, maar grammaticale details en woordvolgorde negeert [21](#page=21).
* **Word embeddings**: Numerieke representaties van woorden die semantische en syntactische informatie vastleggen. Een bekend voorbeeld is de analogie: $Vector(\text{"King"}) - Vector(\text{"Man"}) = Vector(\text{"Queen"}) - Vector(\text{"Woman"})$ [21](#page=21).
#### 1.3.2 Bayes' stelling in SMT
SMT maakt veelvuldig gebruik van de stelling van Bayes om de meest waarschijnlijke vertaling te bepalen. Het doel is om de kans op de doeltaalzin $T$ te maximaliseren, gegeven de brontaalzin $S$ ($p(T|S)$). Dit wordt geformuleerd als [22](#page=22):
$$
\underset{T}{\operatorname{argmax}} p(T|S) = \underset{T}{\operatorname{argmax}} p(S|T) \times p(T)
$$
Hierbij vertegenwoordigt:
* $p(S|T)$: Het vertaalmodel, dat de kans berekent dat de bronzin $S$ wordt gegenereerd vanuit de doeltaalzin $T$. Dit model leert de mapping van zinsdelen [22](#page=22).
* $p(T)$: Het taalmodel, dat de intrinsieke kans weergeeft dat de doeltaalzin $T$ een goed gevormde en vloeiende zin is [22](#page=22).
#### 1.3.3 Voordelen en nadelen van SMT
**Voordelen:**
* Biedt vloeiendere vertalingen wanneer getraind op grote, geannoteerde teksten (corpora) [23](#page=23).
**Nadelen:**
* Wisselende woordstructuren zijn moeilijk af te leiden [23](#page=23).
* De beschikbaarheid en kwaliteit van tweetalige corpora is cruciaal en kan een beperking zijn [23](#page=23).
* Er is een beperkt "begrip" van context [23](#page=23).
Google Translate maakte in zijn beginjaren gebruik van deze statistische methoden [23](#page=23).
### 1.4 Neurale machinevertaling (NMT)
Vanaf ongeveer 2010 maakte de neurale machinevertaling (NMT) een opmars, waarbij artificiële neurale netwerken (ANN) en deep learning centraal kwamen te staan [24](#page=24).
#### 1.4.1 Kernconcepten van NMT
* **Artificieel neuraal netwerk (ANN)**: Een computermodel, geïnspireerd op het menselijke brein, dat bestaat uit onderling verbonden knooppunten (neuronen) die patronen leren uit grote hoeveelheden data [24](#page=24).
* **Deep learning**: Een onderdeel van machine learning waarbij algoritmes in gestapelde eenheden (neuronen) worden georganiseerd om neurale netwerken te vormen [24](#page=24).
* **Integratie in SMT**: NMT integreert ANN's in de architectuur van SMT, wat resulteerde in significant betere vertaalkwaliteit, zoals te zien bij Google Translate rond 2016. De relatie tussen de verschillende AI-disciplines is als volgt: AI > ML > DL > NLP > MT [24](#page=24) [25](#page=25).
#### 1.4.2 Architectuur van Neurale MT: Encoder-Decoder
De typische architectuur van NMT bestaat uit een encoder en een decoder, die beide verzamelingen neurale netwerken (zoals RNN's of CNN's) kunnen zijn [27](#page=27).
* **Encoder**: Leest de inputzin stap voor stap en berekent voor elke stap een *hidden state*. Deze *hidden state* bevat de woordvector plus informatie over de plaats van het woord in de zin. De laatste *hidden state* vormt de gecodeerde samenvatting van de zin, de zogenaamde *contextvector*. De encoder "begrijpt" de brontaal en creëert een "mentale" samenvatting van de zin [27](#page=27).
* **Decoder**: Start met de *contextvector* van de encoder en genereert vervolgens de woorden van de outputzin. Dit gebeurt autoregressief, waarbij de decoder terugkijkt op zijn eigen eerdere output en de *contextvector*, maar niet op toekomstige tokens. Dit bootst menselijke taalverwerking na. De decoder "begrijpt" de doeltaal en zet de code om in taal [27](#page=27).
#### 1.4.3 Probleem van de contextvector en de oplossing: Attention
Voor korte zinnen is de *contextvector* die de encoder produceert een effectieve, gecomprimeerde weergave van de inputzin, die betekenis, volgorde en syntactische relaties omvat. Echter, bij lange zinnen ondervindt de encoder problemen met het coderen van alle informatie, wat resulteert in een "bottleneckprobleem". RNN's en CNN's zijn hiervoor niet optimaal geschikt [31](#page=31).
De oplossing hiervoor is het **attention mechanism**. Met attention kan [32](#page=32):
* De encoder aandacht besteden aan de relaties tussen woorden door te berekenen hoe belangrijk elk woord is voor elk ander woord (bijvoorbeeld, de belangrijkheid van het onderwerp voor het werkwoord) [32](#page=32).
* De decoder aandacht besteden aan alle *hidden states* die de encoder maakt. Dit lost het bottleneckprobleem op, omdat de output niet meer uitsluitend afhankelijk is van één *contextvector* [32](#page=32).
#### 1.4.4 De Transformer architectuur
De successen van attention leidden tot de ontwikkeling van de Transformer-architectuur, die de behoefte aan RNN's en CNN's in NMT potentieel elimineert [34](#page=34).
**Wat blijft hetzelfde?**
* Het idee van encoders en decoders blijft bestaan [35](#page=35).
* De encoder verwerkt de input en maakt contextweergaven [35](#page=35).
* De decoder genereert output met behulp van deze weergaven [35](#page=35).
* Attention zorgt voor efficiëntie [35](#page=35).
**Wat verandert er?**
* **Parallelle verwerking**: In plaats van sequentiële verwerking, gebeurt de verwerking parallel voor alle tokens [35](#page=35).
* **Self-attention**: Overal wordt *self-attention* gebruikt, wat berekent hoe belangrijk elk woord is voor elk ander woord [35](#page=35).
* **Gestapelde lagen**: De architectuur stapelt encoder- en decoderlagen [35](#page=35).
* **Langeafstandscontext**: Langeafstandscontext wordt mogelijk gemaakt, wat cruciaal is voor het "begrip" van taal. Het motto van de Transformer is "Attention is all you need" [35](#page=35).
Meer lagen in het neurale netwerk leiden tot meer "begrip" van de taal. Een bekend voorbeeld van een model gebaseerd op de Transformer-architectuur is GPT (Generative Pre-trained Transformer) [37](#page=37) [39](#page=39).
---
# Neurale machinevertaling en transformers
Dit deel van de studiehandleiding duikt in de technische mechanismen van neurale machinevertaling (MT), met een focus op de rol van encoders, decoders en de revolutionaire transformer-architectuur.
### 2.1 De basis van neurale machinevertaling (NMT)
Neurale machinevertaling, dat vanaf ongeveer 2010 aan populariteit won maakt gebruik van artificiële neurale netwerken (ANN's). ANN's zijn computermodellen geïnspireerd op het menselijke brein, bestaande uit onderling verbonden knooppunten (neuronen) die patronen leren uit grote hoeveelheden data en de basis vormen van deep learning. Deep learning zelf is een tak van machine learning waarbij algoritmes in lagen worden gestapeld om neurale netwerken te vormen. De integratie van ANN's in statistische MT werd rond 2016 significant, met name door toepassingen zoals Google Translate [24](#page=24).
### 2.2 Architectuur van neurale MT: encoder-decoder
De kern van neurale MT-systemen bestaat uit twee hoofdcomponenten: de encoder en de decoder [27](#page=27).
#### 2.2.1 De encoder
De encoder is een verzameling neurale netwerken (zoals Recurrente Neurale Netwerken - RNN's, of Convolutionele Neurale Netwerken - CNN's) die de inputzin stap voor stap verwerkt. Voor elke stap berekent de encoder een 'hidden state' ($h$), die een combinatie is van de woordvector en informatie over de positie van het woord in de zin. De laatste hidden state van de encoder fungeert als een gecodeerde samenvatting van de gehele inputzin, ook wel de 'contextvector' genoemd. De encoder wordt gezien als het deel dat de brontaal 'begrijpt' en er een 'mentale' samenvatting van creëert. De encoder verwerkt informatie over de woordvolgorde en is in staat om relaties tussen woorden af te leiden [27](#page=27) [28](#page=28).
#### 2.2.2 De decoder
De decoder is eveneens een verzameling neurale netwerken, zoals RNN's of CNN's. De decoder start met de contextvector die door de encoder is gegenereerd. Vervolgens genereert de decoder de outputzin woord voor woord, waarbij het kijkt naar zijn eigen eerdere output en de contextvector. Dit proces, bekend als 'autoregressief masking', houdt in dat er alleen gekeken wordt naar voorgaande tokens en niet naar toekomstige tokens, wat vergelijkbaar is met menselijke taalverwerking. De decoder wordt beschouwd als het deel dat de doeltaal 'begrijpt' en de gecodeerde informatie terug omzet in taal [27](#page=27).
#### 2.2.3 Het bottleneckprobleem
De encoder comprimeert de gehele inputzin tot een enkele contextvector, die betekenis, woordvolgorde en syntactische relaties bevat. Voor korte zinnen is dit effectief, maar bij langere zinnen ondervindt de encoder moeite om alle informatie in deze ene vector te coderen. Dit fenomeen staat bekend als het 'bottleneckprobleem', en zowel RNN's als CNN's blijken hier niet optimaal voor geschikt [31](#page=31).
### 2.3 Het aandachtmechanisme (Attention Mechanism)
Om het bottleneckprobleem aan te pakken, werd het aandachtmechanisme (attention) geïntroduceerd [32](#page=32).
* **Encoder aandacht:** Met aandacht kan de encoder beter de relaties tussen woorden analyseren door te berekenen hoe belangrijk elk woord is voor elk ander woord. Een voorbeeld hiervan is de relatie tussen het onderwerp en het werkwoord [32](#page=32).
* **Decoder aandacht:** De decoder kan aandacht besteden aan alle hidden states die door de encoder zijn geproduceerd. Dit lost het bottleneckprobleem op omdat de decoder niet meer uitsluitend afhankelijk is van de informatie in de enkele contextvector [32](#page=32).
> **Tip:** Het aandachtmechanisme stelt het model in staat om dynamisch te bepalen welke delen van de input het meest relevant zijn voor de huidige outputstap, wat de vertaalkwaliteit aanzienlijk verbetert [32](#page=32).
### 2.4 De Transformer-architectuur
De vraag die ontstond na de succesvolle toepassing van het aandachtmechanisme was: wat als aandacht zo effectief is dat RNN's en CNN's overbodig worden?. Dit leidde tot de ontwikkeling van de Transformer-architectuur [34](#page=34) [35](#page=35).
* **Kernprincipes:** Het idee van encoders en decoders blijft behouden, waarbij de encoder input verwerkt en contextweergaven creëert, en de decoder output genereert met behulp van deze weergaven. Attention speelt een cruciale rol in de efficiëntie [35](#page=35).
* **Parallelle verwerking:** In tegenstelling tot de sequentiële verwerking van RNN's, vindt de verwerking in de Transformer parallel plaats voor álle tokens tegelijkertijd [35](#page=35).
* **Self-attention:** Overal in de Transformer wordt 'self-attention' toegepast, wat inhoudt dat het model berekent hoe belangrijk elk woord is voor elk ander woord [35](#page=35).
* **Gelaagde structuur:** De Transformer stapelt encoder- en decoderlagen. Meer lagen leiden tot een dieper 'begrip' van de data [35](#page=35) [37](#page=37).
* **Langeafstandscontext:** Deze architectuur maakt het mogelijk om langeafstandscontext effectief te modelleren [35](#page=35).
* **"Attention is all you need":** Dit slogan vat de revolutie die de Transformer teweegbracht samen, waarbij aandacht de dominante component werd [35](#page=35).
> **Voorbeeld:** De Transformer-architectuur is de basis geworden voor veel state-of-the-art taalmodellen, waaronder GPT (Generative Pre-trained Transformer) [39](#page=39).
---
# Generatieve AI en vertaaltoepassingen
Generatieve AI, met name Large Language Models (LLM's), transformeert vertaaltaken en fungeert als een veelzijdig taalhulpmiddel, hoewel met inherente beperkingen en ethische overwegingen.
### 3.1 Wat is Generatieve AI?
Generatieve AI is een vorm van kunstmatige intelligentie die nieuwe content creëert, zoals teksten, afbeeldingen of geluiden, als reactie op een gebruikersinvoer genaamd een 'prompt'. Een prompt is de specifieke opdracht die aan generatieve AI wordt gegeven [41](#page=41).
#### 3.1.1 Voorbeelden van LLM's en hun toepassingen
Verschillende LLM's worden genoemd met hun specifieke marketing-achtige beschrijvingen, die hun kernfunctionaliteiten benadrukken:
* **ChatGPT** (Nov. 2022): Beschrijft zichzelf als in staat om teksten te schrijven, complexe vragen uit te leggen en creatieve ideeën te genereren [42](#page=42).
* **Gemini** (Mar. 2023): Benadrukt het vlot schrijven van essays, samenvatten van complexe teksten en feilloos programmeren van code [43](#page=43).
* **Copilot** (Feb. 2023): Positioneert zich als een slimme sidekick voor werk, studie en creativiteit, die schrijft, analyseert en organiseert [44](#page=44).
* **Claude** (Mar. 2023): Beschrijft zichzelf als een intelligente partner voor complexe denktaken, creatieve projecten en professionele communicatie [45](#page=45).
* **Deepseek** (Nov. 2023): Biedt hulp bij schrijven, brainstormen en reisplanning, allemaal binnen één gesprek [46](#page=46).
* **Grok** (Nov. 2023): Wordt gepresenteerd als een charmante LLM voor diepgaande codegeneratie, creatieve content en slimme data-analyses [47](#page=47).
* **Meta AI** (2023/2025): Wordt omschreven als een charmante gesprekspartner voor grappige dialogen, creatief schrijven en het oplossen van complexe problemen [48](#page=48).
* **Perplexity** (Dec. 2022): Stelt dat het verhalen schrijft, slimme adviezen geeft en woorden moeiteloos vertaalt naar perfect begrip [49](#page=49).
### 3.2 Waarom is Generatieve AI goed in vertalen?
Generatieve AI is effectief in vertaaltaken door drie kernfactoren:
1. **Enorme hoeveelheid data**: De training op een gigantische dataset levert 'vakkennis' en cultureel inzicht op [50](#page=50).
2. **Teksten volledig verwerken**: De capaciteit om gehele teksten te verwerken, resulteert in een dieper 'begrip' van de context [50](#page=50).
3. **Taalproductie is kerntaak**: Omdat het genereren van taal een kerntaak is, produceert de AI vaak vloeiende, menselijk klinkende output [50](#page=50).
### 3.3 Vergelijking van vertaalmethoden
Een vergelijking tussen een traditionele vertaler, Neurale Machine Translation (NMT) en Generatieve AI (GenAI) voor MT toont de volgende verschillen [52](#page=52):
| Aspect | Vertaler | Neurale MT | GenAI MT |
| :------------------ | :------------------------------------------------ | :---------------------------------------------- | :----------------------------------------------------------- |
| **Hoofdtaak** | Vertalen | Vertalen | Eigen creaties |
| **Training** | Vertaalopleiding + domeinkennis | Vertaalde teksten (algemeen & domeinspecifiek) | Alles |
| **Tekstproductie** | Bron- naar doeltaal (BT-DT) vergelijking | BT-DT vergelijking | Voorkeur voor DT (Doeltaal) |
| **Snelheid** | Afhankelijk van ervaring & tekstsoort | Snel, maar zonder rekening te houden met eigenzinnigheden | Extra snel, zonder rekening te houden met eigenzinnigheden |
| **Kwaliteit** | Menselijke kwaliteit | Goed, maar robotachtig | Wisselend |
| **Culturele referenties** | Afhankelijk van voorkennis | Vaak niet begrepen | Degelijk, maar 'lekkend' vanuit de brontaal/context |
### 3.4 De kracht van prompts in vertaling
Prompts zijn cruciaal voor het sturen van generatieve AI in vertaaltaken. Verschillende promptcomponenten beïnvloeden de kwaliteit van de output:
* **Roltoewijzing**: Definieert het deskundigheidsniveau van de AI, wat de domeinnauwkeurigheid verbetert [56](#page=56).
* **Voorbeeld**: "Je bent een medisch vertaler gespecialiseerd in klinische proeven" [56](#page=56).
* **Contextspecificatie**: Biedt achtergrondinformatie, wat zorgt voor een passend referentiekader [56](#page=56).
* **Voorbeeld**: "Dit is een toestemmingsformulier voor patiënten volgens EU-regelgeving" [56](#page=56).
* **Stijlrichtlijnen**: Definieert de toon en aanpak, wat de toon passend maakt voor de doeltaal-omgeving [56](#page=56).
* **Voorbeeld**: "Gebruik toegankelijke taal voor een lekenpubliek" [56](#page=56).
* **Referentiemateriaal**: Zorgt voor terminologische consistentie en laat de vertaling naadloos integreren in de doeltaal-omgeving [56](#page=56).
* **Voorbeeld**: "Gebruik de bijgevoegde woordenlijst voor technische termen" [56](#page=56).
* **Culturele aanpassing**: Lokaliseert inhoud op passende wijze, wat de culturele relevantie verbetert [56](#page=56).
* **Voorbeeld**: "Pas aan voor Vlaams (Belgisch-Nederlands) publiek" [56](#page=56).
### 3.5 Risico's van Generatieve AI in vertaling
Het gebruik van generatieve AI brengt diverse risico's met zich mee [58](#page=58) [61](#page=61) [64](#page=64):
1. **Vloeiendheid ≠ Accuraatheid**: De gegenereerde tekst kan weliswaar vloeiend klinken, maar feitelijk incorrect zijn, met name bij uitdrukkingen en culturele referenties (bv. 'cousin' vertalen als 'neef/nicht' wanneer een specifieker woord nodig is) [58](#page=58) [61](#page=61) [64](#page=64).
2. **Hallucinaties**: De AI kan informatie genereren die niet gebaseerd is op de invoertekst, omdat deze zich focust op genereren in plaats van overzetten [58](#page=58) [61](#page=61) [64](#page=64).
3. **Bias (Vooringenomenheid)**: Trainingsdata zijn vaak ongelijk verdeeld qua taal, regio, cultuur en gender, wat leidt tot oververtegenwoordiging van dominante talen en perspectieven, en stereotypering of foutieve weergave van kleinere talen/culturen [68](#page=68).
4. **Misleiding**: Risico op desinformatie, deepfakes en oplichting [61](#page=61) [64](#page=64).
5. **Wisselende bestandsformaten**: Moeilijkheden met het verwerken van diverse bestandsformaten, zoals HTML [61](#page=61) [64](#page=64).
6. **Privacy**: Input wordt verwerkt op servers, wat risico's voor trainingsdoeleinden met zich meebrengt [61](#page=61) [64](#page=64).
7. **Auteursrechten**: Vragen over het uploaden van content en wie de rechten bezit over de vertaling [64](#page=64).
8. **Kosten**: Gerelateerd aan credits en energieverbruik [64](#page=64).
9. **Impact op milieu**: De ecologische voetafdruk van het trainen en gebruiken van AI-modellen [64](#page=64).
10. **Verlies leerproces & kritische houding**: Overmatig vertrouwen op AI kan leiden tot een verminderd leerproces en minder kritische reflectie [66](#page=66).
11. **Monopolie op AI-markt**: Eenzijdigheid en invloed door grote spelers [66](#page=66).
### 3.6 Ethische overwegingen
Bij het gebruik van generatieve AI in vertaling komen belangrijke ethische kwesties aan bod [67](#page=67) [68](#page=68) [69](#page=69) [70](#page=70):
* **Bias en representatie**: Onvolledige of bevooroordeelde trainingsdata kunnen leiden tot culturele stereotypering of het wegfilteren van bepaalde perspectieven, wat impliciet ideeën van groepen kan doorgeven of subtiel kan verwijderen [68](#page=68).
* **Productiecontext**: AI-modellen vereisen aanzienlijk handmatig werk achter de schermen, waaronder het ontginnen van metalen en 'digital sweatshops' voor contentmoderatie, wat vragen oproept over steun aan Big Tech [68](#page=68).
* **Ecologische voetafdruk**: Er wordt de vraag gesteld of de ecologische impact van AI-vertaling opweegt tegen de traditionele vertaalmethoden [68](#page=68).
* **Aansprakelijkheid en kwaliteitsgarantie**: Vertalers blijven aansprakelijk voor hun werk, zelfs wanneer AI wordt gebruikt. Opdrachtgevers verwachten dat vertalers fouten corrigeren en zijn bereid deze vragen te beantwoorden [70](#page=70).
* **Reputatie en integriteit**: Het uitsluitend vertrouwen op AI voor vertaling kan schadelijk zijn voor de reputatie van een taalexpert [70](#page=70).
* **Privacy en vertrouwelijkheid**: Gevoelige informatie mag niet zomaar via AI-tools worden verwerkt, tenzij volledig offline of met algemeen toegankelijke informatie [70](#page=70).
### 3.7 De rol van de vertaler en nieuwe vaardigheden
De opkomst van generatieve AI definieert een nieuwe rol voor vertalers en tolken [72](#page=72) [73](#page=73):
* **Sleutelrol in maatschappelijke discussie**: Vertalers kunnen de risico's van AI belichten en uitleggen waarom AI niet voor alle taken geschikt is, door het te presenteren als een tool voor experts, niet als vervanging [73](#page=73).
* **Vertaaltheorie**: AI-vertaling kan een engere, meer letterlijke kijk op vertalen promoten. Het is belangrijk te benadrukken dat vertalen niet één enkel doel heeft, maar verschillende mate van equivalentie kan nastreven [73](#page=73).
* **(Nieuwe) Vaardigheden**:
* Uitstekende kennis van bron- en doeltaal, inclusief culturele aspecten (referenties, nuances) [73](#page=73).
* Prompt engineering voor effectieve interactie met AI-modellen [73](#page=73).
* Post-editing met kennis van AI-systemen [73](#page=73).
### 3.8 AI als taalhulpmiddel
Generatieve AI kan fungeren als een waardevol taalhulpmiddel voor studenten en professionals, met toepassingen op diverse taalvaardigheden [75](#page=75):
#### 3.8.1 Schrijven
* **Tekstverbetering**: GenAI kan teksten verbeteren op het gebied van grammatica, structuur en taalgebruik [76](#page=76).
* **Schrijfinspiratie**: Studenten kunnen opdrachten aan het model geven voor inspiratie [76](#page=76).
* **Tekstcreatie in L2**: GenAI kan teksten schrijven in de gewenste doeltaal (L2), aangepast aan het niveau van de student [77](#page=77).
#### 3.8.2 Spreken
* **Gesprekspartner**: GenAI kan dienen als gesprekspartner die fouten verbetert en tips geeft over zinsstructuur en uitspraak [76](#page=76).
* **Drempelverlaging**: Het helpt studenten om te beginnen met spreken in de L2, zelfs als ze zelf nog in de L1 spreken [76](#page=76).
* **Text-to-Speech**: Modellen kunnen helpen bij het koppelen van woordbeeld en klank [76](#page=76).
#### 3.8.3 Lezen
* **Tekstbegrip testen**: Studenten kunnen vragen stellen om hun begrip van teksten te testen [77](#page=77).
* **Verduidelijking**: Studenten kunnen L2-teksten invoeren en vragen stellen voor verduidelijking [77](#page=77).
#### 3.8.4 Grammatica
* **Uitleg van regels**: Studenten kunnen vragen stellen over grammaticaregels of gemaakte fouten [77](#page=77).
* **Oefeningen maken**: Het model kan grammatica-testen opstellen [77](#page=77).
#### 3.8.5 Woordenschat
* **Thematische lijsten**: Studenten kunnen vragen om thematische woordenlijsten te genereren (bv. voor een studiereis) [77](#page=77).
* **Woordenschat-testen**: Het model kan woordenschat-testen opstellen [77](#page=77).
> **Tip:** Hoewel AI-tools krachtig zijn, benadrukt de literatuur dat "kunstmatige intelligentie misschien slim is, maar niet intelligent". Het 'dom' gebruik van slimme tools kan onvoorziene gevolgen hebben [71](#page=71) [84](#page=84).
---
# Risico's en ethiek van AI in vertaling
Dit gedeelte bespreekt de potentiële gevaren, ethische dilemma's en maatschappelijke implicaties die gepaard gaan met het gebruik van AI-technologieën voor vertaaldiensten [57](#page=57) [61](#page=61) [64](#page=64) [66](#page=66).
### 4.1 Risico's van AI in vertaling
Het gebruik van AI voor vertaling brengt verschillende risico's met zich mee, die variëren van directe vertaalfouten tot bredere maatschappelijke en ethische problemen [57](#page=57) [61](#page=61) [64](#page=64) [66](#page=66).
#### 4.1.1 Vloeiendheid versus accuraatheid
Een veelvoorkomend risico is dat AI-gegenereerde vertalingen vloeiend klinken, maar niet accuraat zijn. Dit kan zich manifesteren in [58](#page=58) [61](#page=61) [64](#page=64) [66](#page=66):
* **Incorrecte vertalingen van specifieke woorden:** Zoals het vertalen van "cousin" naar "neef/nicht" zonder contextuele specificatie [58](#page=58) [61](#page=61) [64](#page=64) [66](#page=66).
* **Misinterpretatie van uitdrukkingen:** Idiomatische taal en gezegden kunnen door AI verkeerd worden begrepen en letterlijk worden vertaald, wat tot onzin leidt [58](#page=58) [61](#page=61) [64](#page=64) [66](#page=66).
* **Verlies van culturele referenties:** Cultureel specifieke verwijzingen kunnen verloren gaan of verkeerd worden geïnterpreteerd, omdat AI moeite heeft met het begrijpen van de onderliggende culturele context [58](#page=58) [61](#page=61) [64](#page=64) [66](#page=66).
#### 4.1.2 Hallucinaties
AI-modellen kunnen "hallucineren", wat betekent dat ze informatie genereren die niet aanwezig is in de brontekst of die feitelijk onjuist is. Dit gebeurt wanneer de AI zich meer richt op het genereren van tekst dan op het accuraat overzetten van de oorspronkelijke inhoud [58](#page=58) [61](#page=61) [64](#page=64) [66](#page=66).
#### 4.1.3 Bias (vooringenomenheid)
AI-systemen kunnen vooringenomenheid vertonen, vaak als gevolg van de trainingsdata. Wanneer trainingsdata ongelijk verdeeld zijn qua taal, regio, cultuur en gender, kunnen dominante talen en westerse perspectieven oververtegenwoordigd zijn. Dit kan leiden tot [61](#page=61) [64](#page=64) [66](#page=66) [68](#page=68):
* Stereotypering of foutieve weergave van kleinere talen en culturen met minder online materiaal [68](#page=68).
* Impliciete overdracht of subtiele filtering van ideeën van bepaalde groepen door automatische vertalingen [68](#page=68).
#### 4.1.4 Misleiding
AI kan worden ingezet voor misleidende doeleinden, zoals het creëren van desinformatie, deepfakes of oplichting. De mogelijkheid om overtuigende maar valse inhoud te genereren, vormt een aanzienlijk risico voor de maatschappelijke betrouwbaarheid van informatie [61](#page=61) [64](#page=64) [66](#page=66).
#### 4.1.5 Verwerking van wisselende bestandsformaten
Het efficiënt verwerken van diverse bestandsformaten, zoals HTML-bestanden, kan een technische uitdaging vormen voor AI-vertaalsystemen [61](#page=61) [64](#page=64) [66](#page=66).
#### 4.1.6 Privacy en vertrouwelijkheid
Het gebruik van AI-vertaaldiensten, vooral cloud-gebaseerde systemen, brengt privacyrisico's met zich mee. Inputgegevens worden vaak verwerkt op servers, wat kan leiden tot blootstelling van gevoelige informatie. Vertalers dienen voorzichtig te zijn met het delen van gevoelige informatie, zoals persoonsgegevens of bedrijfsgeheimen, via dergelijke systemen [61](#page=61) [64](#page=64) [66](#page=66) [70](#page=70).
#### 4.1.7 Auteursrechten
Vragen rond auteursrechten op AI-gegenereerde vertalingen zijn complex. Het uploaden van materiaal voor vertaling kan implicaties hebben voor het eigendom en de rechten van de resulterende vertalingen [64](#page=64) [66](#page=66).
#### 4.1.8 Kosten
Het gebruik van AI-vertaaldiensten kan gepaard gaan met kosten, zoals het verbruik van credits of de benodigde energie [64](#page=64) [66](#page=66).
#### 4.1.9 Impact op het milieu
De ecologische voetafdruk van AI, inclusief het energieverbruik voor training en operatie, is een ethische overweging. De vraag wordt gesteld of de uitstoot gerechtvaardigd is, vooral in vergelijking met traditionele vertaalmethoden [64](#page=64) [66](#page=66) [68](#page=68).
#### 4.1.10 Verlies leerproces en kritische houding
Overmatig vertrouwen op AI voor vertaling kan leiden tot een verlies van het leerproces en het ontwikkelen van een kritische houding bij individuen [66](#page=66).
#### 4.1.11 Monopolie op AI-markt
Een monopolie op de AI-markt door enkele grote spelers kan leiden tot een eenzijdige ontwikkeling en invloed, wat de diversiteit en autonomie van vertaaldiensten kan beperken [66](#page=66).
### 4.2 Ethiek van AI in vertaling
De ethische aspecten van AI in vertaling omvatten de impact op bias, de productiecontext, aansprakelijkheid, reputatie en privacy [67](#page=67) [68](#page=68) [70](#page=70).
#### 4.2.1 Bias en representatie
Zoals reeds vermeld, is bias een significant ethisch probleem. De ongelijke verdeling van trainingsdata leidt tot een ondervertegenwoordiging van bepaalde talen en culturen, wat kan resulteren in stereotypen en onnauwkeurigheden. AI-vertalingen kunnen impliciet normen en waarden van dominante groepen overbrengen, ten koste van andere perspectieven [68](#page=68).
#### 4.2.2 Productiecontext
De ontwikkeling van AI-modellen vereist vaak aanzienlijk handmatig werk achter de schermen. Dit omvat uitbuiting van arbeiders in de winning van metalen voor hardware en "digital sweatshops" voor taken zoals contentmoderatie. Het steunen van dergelijke praktijken door het gebruik van AI is een ethisch dilemma [68](#page=68).
#### 4.2.3 Aansprakelijkheid en kwaliteitsgarantie
Vertalers blijven juridisch en ethisch aansprakelijk voor het werk dat zij indienen, zelfs als AI is gebruikt. Opdrachtgevers verwachten vaak dat vertalers expert zijn in het identificeren en corrigeren van AI-fouten. Vragen over vertaalkeuzes blijven bij de vertaler liggen, waardoor de noodzaak om deze te kunnen uitleggen essentieel is [70](#page=70).
#### 4.2.4 Reputatie en integriteit
Het uitsluitend vertrouwen op AI voor vertaling kan de reputatie en integriteit van een taalexpert, zoals een afgestudeerde van de UAntwerpen, schaden. Een ware taalexpert wordt gekenmerkt door een breder scala aan vaardigheden dan enkel het bedienen van een vertaaltool [70](#page=70).
#### 4.2.5 Privacy en vertrouwelijkheid
Het respecteren van privacy en vertrouwelijkheid is cruciaal voor vertalers. Het gebruik van AI is daarom beperkt tot algemeen toegankelijke informatie of volledig offline systemen om gevoelige data te beschermen [70](#page=70).
### 4.3 De rol van de vertaler en vertaaltheorie
De opkomst van AI dwingt tot een heroverweging van de rol van de vertaler en de vertaaltheorie [73](#page=73).
#### 4.3.1 Sleutelrol in maatschappelijke discussie
Vertalers en tolken spelen een sleutelrol in de maatschappelijke discussie rond AI in hun vakgebied. Ze moeten de risico's van AI aantonen en uitleggen waarom AI niet overal kan en mag worden ingezet. Net als bij machinevertaling (MT) in het verleden, is AI een tool voor experts en geen vervanging [73](#page=73).
#### 4.3.2 Vertaaltheorie en AI-vertaling
AI-vertaling kan neigen naar een enge opvatting van vertalen, waarbij letterlijkheid als de norm wordt gezien. Dit staat haaks op de veelzijdigheid van vertaaltheorie die verschillende doelen en mate van equivalentie erkent [73](#page=73).
#### 4.3.3 (Nieuwe) vaardigheden voor vertalers
Vertalers moeten nieuwe vaardigheden ontwikkelen om effectief te kunnen werken met AI:
* **Uitstekende kennis van bron- en doeltaal en culturen:** Essentieel voor het herkennen van nuances, culturele referenties en het corrigeren van AI-fouten [73](#page=73).
* **Promptengineering:** Het vermogen om effectieve instructies te geven aan AI-modellen [73](#page=73).
* **Post-editing met kennis van AI-systemen:** Het efficiënt kunnen bewerken en verbeteren van AI-gegenereerde vertalingen, met inzicht in de werking van de AI [73](#page=73).
> **Tip:** Hoewel AI een krachtige tool kan zijn, is het cruciaal om te onthouden dat kunstmatige intelligentie "slim, maar niet intelligent" is. De gevolgen van ondoordacht gebruik van deze tools kunnen aanzienlijk zijn [71](#page=71).
> **Voorbeeld:** De vertaling van de Engelse term "cousin" naar "neef/nicht" door een AI illustreert hoe vloeiende tekst toch accuraat kan missen, omdat de specifieke relatie (oom/tante-kind of broer/zus-kind) en gender niet gespecificeerd zijn [58](#page=58) [61](#page=61) [64](#page=64) [66](#page=66).
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Artificieel neuraal netwerk (ANN) | Een computermodel dat is geïnspireerd op de structuur en werking van het menselijke brein. Het bestaat uit onderling verbonden knooppunten (neuronen) die automatisch patronen leren uit grote hoeveelheden data, en vormt de basis voor deep learning. |
| Bag-of-Words | Een simpele representatiemethode in Natural Language Processing (NLP) die het voorkomen van woorden in een document beschrijft. Hierbij wordt enkel het aantal woorden bijgehouden, zonder rekening te houden met grammaticale details of woordvolgorde. |
| Bottleneckprobleem | In neurale netwerken, met name bij lange sequenties, verwijst dit naar de uitdaging waarbij een encoder moeite heeft om alle relevante informatie in een enkele, gecomprimeerde contextvector te coderen. Dit kan leiden tot informatieverlies. |
| Computationele linguïstiek | Een interdisciplinair vakgebied dat zich bezighoudt met de computationele aspecten van taal. Het richt zich op de ontwikkeling van systemen die menselijke taal kunnen verwerken, begrijpen en produceren, waaronder machinevertaling. |
| Corpuslinguïstiek | Een tak van de taalkunde die taal bestudeert met behulp van grote verzamelingen teksten (corpora). In de context van statistische machinevertaling worden tweetalige corpora gebruikt voor statistische berekeningen om de meest waarschijnlijke vertalingen te voorspellen. |
| Deep learning | Een subveld van machine learning dat gebruikmaakt van kunstmatige neurale netwerken met meerdere lagen (diepe architecturen). Deze gelaagde structuren stellen algoritmes in staat om complexe patronen en hiërarchieën in data te leren. |
| Deontologie | Een ethische theorie die zich richt op de plichten en verantwoordelijkheden die voortvloeien uit de aard van een handeling zelf, in plaats van de gevolgen ervan. In de context van vertalen gaat het om professionele ethiek en gedrag. |
| Directe machinevertaling | Een vroege methode van machinevertaling die woorden één-op-één vertaalde met behulp van woordenboeken en eenvoudige grammaticaregels, zonder rekening te houden met de zinsstructuur van de doeltaal. |
| Encoder | In een encoder-decoder architectuur is de encoder verantwoordelijk voor het lezen van de invoerzin en het omzetten ervan in een gecondenseerde representatie, de zogenaamde contextvector. Deze vector bevat informatie over de betekenis, volgorde en syntactische relaties van de invoer. |
| Generatieve AI (GenAI) | Een vorm van kunstmatige intelligentie die in staat is om nieuwe content te creëren, zoals teksten, afbeeldingen, geluiden of code, als reactie op een gebruikersinput (prompt). Het creëert dus originele output in plaats van alleen bestaande data te analyseren. |
| Hallucinaties (AI) | Een fenomeen waarbij een AI-model, met name een generatief model, informatie genereert die feitelijk onjuist is, niet ondersteund wordt door de invoergegevens of simpelweg verzonnen is. Dit gebeurt vaak wanneer het model zich meer richt op het produceren van vloeiende tekst dan op het accuraat weergeven van informatie. |
| Interlingua | Een concept in regelgebaseerde machinevertaling waarbij de brontekst wordt omgezet naar een neutrale, taalonafhankelijke intermediaire taal of representatie. Vanuit deze interlingua wordt vervolgens de doeltaal gegenereerd, wat helpt bij het omgaan met complexe grammaticale structuren. |
| LLM (Large Language Model) | Een groot taalmodel dat is getraind op enorme hoeveelheden tekstdata en in staat is om mensachtige tekst te begrijpen en te genereren. LLM's vormen de basis voor veel moderne generatieve AI-toepassingen. |
| Machine learning (ML) | Een tak van kunstmatige intelligentie die computers in staat stelt te leren van data zonder expliciet geprogrammeerd te zijn. ML-algoritmen herkennen patronen in data en gebruiken deze om voorspellingen te doen of beslissingen te nemen. |
| Natuurlijke taalverwerking (NLP) | Het vakgebied dat zich bezighoudt met de interactie tussen computers en menselijke (natuurlijke) taal. Het doel is om machines in staat te stellen menselijke taal te verwerken, begrijpen, interpreteren en genereren, wat essentieel is voor veel AI-toepassingen. |
| Neurale machinevertaling (NMT) | Een geavanceerde methode voor machinevertaling die gebruikmaakt van neurale netwerken om vertalingen te genereren. NMT-modellen leren complexe patronen en relaties in taal, wat resulteert in vloeiendere en accuratere vertalingen dan eerdere methoden. |
| Post-editing | Het proces waarbij menselijke vertalers de output van machinevertalingssystemen beoordelen, corrigeren en verbeteren om de kwaliteit en nauwkeurigheid te waarborgen. Dit is een cruciaal onderdeel van moderne vertaalworkflows met AI. |
| Prompt engineering | Het ontwerpen en verfijnen van instructies (prompts) die aan een generatief AI-model worden gegeven om de gewenste output te verkrijgen. Goede prompt engineering is essentieel om de efficiëntie en relevantie van AI-gegenereerde content te maximaliseren. |
| Regelgebaseerde machinevertaling | Een vroege benadering van machinevertaling die gebaseerd is op linguïstische regels en grammaticastructuren. Deze systemen proberen de vertaling te genereren door de regels van de bron- en doeltaal toe te passen, vaak via een intermediaire representatie. |
| Statistische machinevertaling (SMT) | Een methode voor machinevertaling die vanaf de jaren '80 opkwam en gebruikmaakt van statistische modellen getraind op grote tweetalige datasets (corpora). SMT probeert de meest waarschijnlijke vertaling te vinden door middel van wiskundige berekeningen. |
| Transformer | Een type neuraal netwerkarchitectuur dat oorspronkelijk werd ontwikkeld voor sequence-to-sequence taken, zoals machinevertaling. Transformers maken uitgebreid gebruik van het self-attention mechanisme, waardoor ze langeafhankelijkheden in data efficiënt kunnen modelleren en parallelle verwerking mogelijk maken. |
Cover
De Standaard - AI-bubbel.pdf
Summary
# De verstrengeling van grote spelers in de AI-sector
Het onderwerp "De verstrengeling van grote spelers in de AI-sector" beschrijft de intense financiële en strategische banden die zijn ontstaan tussen toonaangevende technologiebedrijven in de snel evoluerende wereld van artificiële intelligentie, met nadruk op investeringen en samenwerkingen [1](#page=1) [2](#page=2) [3](#page=3).
## 1. De verstrengeling van grote spelers in de AI-sector
De AI-boom heeft geleid tot een ongekende verstrengeling van de hoofdrolspelers in de technologiewereld, waarbij bedrijven niet alleen klant van elkaar zijn, maar ook steeds meer aandeelhouder van elkaar worden. Dit fenomeen manifesteert zich door een aanzienlijk aantal kruisparticipaties en samenwerkingen [1](#page=1).
### 1.1 Ontstaan van OpenAI en de eerste verstrengelingen
De basis voor deze verstrengeling werd gelegd met de oprichting van OpenAI in 2015, een initiatief van Sam Altman en Elon Musk. Het doel was om algemene kunstmatige intelligentie op een verantwoordelijke manier te ontwikkelen, als reactie op zorgen over de controle over AI. De vroege fase van OpenAI kende al significante betrokkenheid van sleutelfiguren en financiering [1](#page=1).
#### 1.1.1 Musk's vertrek en de oprichting van xAI
Elon Musk trok zich in 2018 terug uit OpenAI na onenigheid met Altman en richtte vervolgens xAI op, dat later fuseerde met X (voorheen Twitter). Musk's bedrijven, Tesla en SpaceX, namen deel aan xAI, waarbij SpaceX 2 miljard dollars investeerde en Tesla via een aandelenruil betrokken raakte [2](#page=2).
#### 1.1.2 Dario Amodei en de oprichting van Anthropic
Dario Amodei vertrok eveneens bij OpenAI vanwege onenigheid over het AI-veiligheidsbeleid en richtte Anthropic op, het bedrijf achter de AI-chatbot Claude. Voor de financiering van Anthropic haalde Amodei grote techgiganten zoals Amazon en Google binnen als investeerders [2](#page=2).
### 1.2 Microsoft's strategische investering in OpenAI
Na het vertrek van mede-financier Musk, zocht OpenAI dringend naar extra middelen, met name voor rekenkracht. Sam Altman, toen CEO van OpenAI, vond een gewillige partner in Microsoft. Microsoft investeerde in fases meer dan 13 miljard dollars in OpenAI en stelde zijn datacenters ter beschikking. Volgens bronnen was Bill Gates persoonlijk betrokken bij de beslissingen over deze investeringen, gedreven door interesse in AI voor wetenschappelijke vraagstukken [2](#page=2).
#### 1.2.1 De impact van ChatGPT
Eind 2022 resulteerde de combinatie van veel data en rekenkracht in de lancering van ChatGPT, het eerste succesvolle large language model (LLM). Dit sloeg in als een bom en zorgde voor een enorme toename in de vraag naar rekenkracht [2](#page=2).
### 1.3 De rol van hardware: Nvidia's monopolie
Artificiële intelligentie vereist aanzienlijke rekenkracht, met name via Graphics Processing Units (GPU's). Nvidia is vrijwel het enige bedrijf dat GPU's produceert die geschikt zijn voor AI-berekeningen. De lancering van ChatGPT leidde tot een explosieve vraag naar Nvidia's chips, wat resulteerde in een aanzienlijke stijging van hun beurswaarde. Nvidia's beurswaarde bereikte 5.000 miljard dollars, een stijging van 400 miljard dollars in slechts drie jaar [2](#page=2).
#### 1.3.1 Investeringen in datacenters
Als gevolg van de AI-boom plannen techbedrijven tegen 2030 voor 3.000 miljard dollars aan nieuwe AI-datacenters te bouwen in de VS. OpenAI plant de bouw van datacenters met een capaciteit van 23 gigawatt, vol met GPU's van Nvidia [2](#page=2).
### 1.4 De "paringsdans" tussen software- en hardwarebedrijven
De rush op datacenters heeft geleid tot een brede samenwerking tussen diverse techspelers. OpenAI sluit deals met zowel Microsoft als zijn grootste leverancier, Nvidia [3](#page=3).
#### 1.4.1 Belangrijke deals en participaties van OpenAI
* **Microsoft:** Is de grootste aandeelhouder van OpenAI, met investeringen die oplopen tot 13 miljard dollars [1](#page=1) [2](#page=2).
* **Nvidia:** Koopt voor 100 miljard dollars aan aandelen van OpenAI in ruil voor de afname van honderden miljarden dollars aan chips [1](#page=1) [3](#page=3).
* **Oracle:** Bouwt datacenters voor 300 miljard dollars die OpenAI zal huren [3](#page=3).
* **AMD:** OpenAI verwerft 10 procent van AMD, een concurrent van Nvidia [3](#page=3).
#### 1.4.2 Nvidia's brede investeringen
Nvidia gaat verder dan alleen leverancier zijn. Het levert essentiële chips aan alle grote techbedrijven die in AI investeren en neemt participaties in kleinere AI-spelers zoals xAI [3](#page=3).
* **Mistral AI:** Nvidia investeert in het Franse Mistral, een van de weinige Europese spelers in de AI-wedloop. ASML, de Nederlandse producent van chipmachines, investeert eveneens in Mistral [3](#page=3).
* **Zelfrijdende auto's:** Nvidia werkt samen met Stellantis en Foxconn aan de ontwikkeling van zelfrijdende auto's, om zo de concurrentie aan te gaan met Tesla en Google's Waymo [3](#page=3).
### 1.5 De vraag: Zeepbel of duurzame groei?
De intense verstrengeling van de AI-spelers roept de vraag op of dit zal leiden tot een zeepbel [3](#page=3).
#### 1.5.1 Pessimistische visie
Financiële experts waarschuwen voor circulaire financiering, waarbij klanten kunstmatig gefinancierd worden door aandelen te kopen. Als bedrijven zoals OpenAI, met een relatief lage omzet in vergelijking met hun investeringen, hun omzet niet exponentieel kunnen laten groeien, dreigt een instorting die tal van andere bedrijven mee zou trekken [3](#page=3).
#### 1.5.2 Optimistische visie
De optimistische lezing is dat in het huidige ecosysteem, in tegenstelling tot de dotcom-bubbel, veel extreem winstgevende partijen aanwezig zijn zoals Microsoft, Meta en Alphabet. Deze bedrijven zouden sterk genoeg zijn om de situatie te stabiliseren. Bovendien blijft de kans reëel dat OpenAI uitgroeit tot een bedrijf met meer dan 100 miljard dollars aan jaarlijkse inkomsten [3](#page=3).
---
# Ontstaan en evolutie van OpenAI
Dit gedeelte behandelt de oorsprong van OpenAI, de initiële doelen, de oprichters, de latere ontwikkelingen zoals investeringen en de lancering van baanbrekende technologieën, en de huidige verwevenheid met andere techgiganten [1](#page=1) [2](#page=2).
### 2.1 De oprichting en initiële visie
OpenAI werd in de zomer van 2015 opgericht in Silicon Valley door een groep gelijkgestemde individuen, waaronder Sam Altman, Ilya Sutskever en Greg Brockman. Elon Musk en Sam Altman namen het initiatief voor de oprichting. De aanleiding hiervoor was de bezorgdheid van Musk over de snelle AI-ontwikkelingen bij Google en het potentiële risico dat de mensheid de controle over AI zou verliezen. Het oorspronkelijke doel van OpenAI was om als een fors gespijsde non-profitorganisatie AI-onderzoek te verrichten en algemene kunstmatige intelligentie (AGI) op een verantwoorde manier te ontwikkelen. Toonaangevende AI-experts zoals Sutskever en Brockman werden aangetrokken, en Dario Amodei werd ingehuurd om de veiligheid van AI te bewaken [1](#page=1).
### 2.2 Interne veranderingen en afsplitsingen
Na enkele jaren kende het team van OpenAI interne veranderingen. Elon Musk trok zich in 2018 terug vanwege onenigheid met Altman en richtte later xAI op. Ook Dario Amodei vertrok, eveneens door onenigheid over het AI-veiligheidsbeleid, en richtte met een volledig team Anthropic op, het bedrijf achter de AI-chatbot Claude. Zowel Amazon als Google namen later belangen in deze afsplitsing [2](#page=2).
### 2.3 De samenwerking met Microsoft en de lancering van ChatGPT
Na het vertrek van Musk was OpenAI op zoek naar extra middelen, met name voor rekenkracht, aangezien Ilya Sutskever geloofde dat AI-modellen exponentieel beter werden met meer rekenkracht. Sam Altman, destijds CEO, zocht hiervoor een partner met financiële middelen en veel rekenkracht. Deze partner werd gevonden in Microsoft, dat een investering van meer dan 13 miljard dollars deed en zijn datacenters beschikbaar stelde aan OpenAI. Bill Gates speelde naar verluidt een rol in de beslissingen over de investeringen, met een focus op AI voor wetenschappelijke vraagstukken. Eind 2022 resulteerde deze samenwerking in de lancering van ChatGPT, een baanbrekend large language model (LLM) dat een enorme impact had en de servers van OpenAI deed kraken onder het succes. Na ChatGPT volgden andere LLM's zoals Claude van Anthropic, Gemini van Google en Grok van xAI [2](#page=2).
### 2.4 Huidige structuur en investeringen
In de huidige AI-boom is er sprake van een ongekende verstrengeling tussen de hoofdrolspelers. OpenAI kondigde recent aan 38 miljard dollar te besteden aan rekenkracht bij Amazon Web Services. Microsoft heeft zijn investeringen geformaliseerd door officieel 27 procent van OpenAI te bezitten, wat hen de grootste aandeelhouder maakt met een waardering van 500 miljard dollar voor OpenAI. Chipproducent Nvidia neemt een belang ter waarde van 100 miljard dollar in OpenAI. Deze verwevenheid betekent dat succes in AI een breed scala aan grote Amerikaanse techbedrijven ten goede zal komen, terwijl een mislukking van de AI-belofte iedereen mee zou trekken [1](#page=1).
> **Tip:** De aanzienlijke investeringen en strategische allianties benadrukken de grote economische belangen en de concurrentiedruk in de AI-sector [1](#page=1) [2](#page=2).
> **Voorbeeld:** De recente deal waarbij OpenAI voor 38 miljard dollar rekenkracht afneemt van Amazon Web Services, terwijl Microsoft 27 procent van OpenAI bezit en tegelijkertijd klant is van hun diensten, illustreert de complexe kruisparticipaties [1](#page=1).
### 2.5 De rol van hardware en datacenters
De ontwikkeling van AI is sterk afhankelijk van rekenkracht, waarvoor gespecialiseerde hardware zoals GPU's (Graphics Processing Units) essentieel zijn. Nvidia is de dominante speler op het gebied van GPU's die geschikt zijn voor AI-berekeningen, wat heeft geleid tot een explosieve groei in hun beurswaarde, mede door de lancering van ChatGPT. De vraag naar extra rekenkracht leidt tot een rush op datacenters; tegen 2030 plannen techbedrijven 3.000 miljard dollar te investeren in nieuwe AI-datacenters in de VS. OpenAI draagt met CEO Altman en voorzitter Brockman significant bij aan de bouw van deze datacenters [2](#page=2).
> **Tip:** Begrijpen hoe de vraag naar rekenkracht de hardware-industrie, met name Nvidia, stimuleert, is cruciaal voor het begrijpen van de economische impact van AI [2](#page=2).
---
# De rol van hardware en rekenkracht in AI
Dit deel belicht het cruciale belang van gespecialiseerde hardware, met name GPU's van Nvidia, en de enorme rekenkracht die nodig is voor de ontwikkeling en het functioneren van AI-modellen en datacenters [2](#page=2) [3](#page=3).
### 3.1 De noodzaak van rekenkracht voor AI-modellen
De ontwikkeling en het functioneren van AI-modellen, vooral large language models (LLM's), vereisen een exponentiële toename van rekenkracht naarmate de modellen beter worden. AI-modellen berekenen in essentie de correlaties tussen miljarden gegevens. Om deze berekeningen efficiënt uit te voeren, zijn gespecialiseerde chips nodig die meerdere berekeningen tegelijkertijd kunnen uitvoeren [2](#page=2).
### 3.2 Gespecialiseerde hardware: GPU's van Nvidia
#### 3.2.1 Grafische verwerkingseenheden (GPU's)
GPU's, of grafische verwerkingseenheden, zijn uitermate geschikt voor de parallelle berekeningen die AI vereist. Ze worden oorspronkelijk veel gebruikt in games, waar gelijktijdige weergave van objecten cruciaal is [2](#page=2).
#### 3.2.2 Nvidia's dominante rol
Het Amerikaanse bedrijf Nvidia is momenteel de belangrijkste leverancier van GPU's die ingezet kunnen worden voor AI-berekeningen. De lancering van ChatGPT leidde tot een explosieve vraag naar Nvidia's chips, wat resulteerde in een aanzienlijke stijging van hun beurswaarde. Met de introductie van de Blackwell-chip versterkt Nvidia haar positie als het werkpaard in AI-datacenters. Het bijna-monopolie van Nvidia op de AI-hardwaremarkt vertaalt zich in een beurswaarde die opliep tot 5.000 miljard dollar [2](#page=2).
> **Tip:** Begrijp dat de vraag naar gespecialiseerde hardware, met name GPU's, direct samenhangt met de schaalvergroting en prestatieverbetering van AI-modellen. Nvidia's marktdominantie is een direct gevolg van deze behoefte.
### 3.3 De opkomst van AI-datacenters
#### 3.3.1 Investeringen in datacenters
AI-spelers investeren massaal in extra rekenkracht en de bouw van nieuwe AI-datacenters. Tegen 2030 is er een geplande investering van 3.000 miljard dollar in nieuwe AI-datacenters in de VS. De bouw van deze datacenters is momenteel een belangrijke motor voor de Amerikaanse economie [2](#page=2) [3](#page=3).
#### 3.3.2 Elektriciteitsverbruik en schaal
De kracht van een datacenter wordt uitgedrukt in het elektriciteitsverbruik, tegenwoordig gemeten in gigawatt (gelijk aan de capaciteit van een kerncentrale). OpenAI plant bijvoorbeeld de bouw van datacenters met een capaciteit van 23 gigawatt, volgestouwd met Nvidia GPU's [3](#page=3).
### 3.4 Strategische allianties en financiële verstrengelingen
#### 3.4.1 Partnerschappen tussen software en hardware
De "rush" op datacenters leidt tot significante samenwerkingen tussen software- en hardwarebedrijven. OpenAI, als belangrijke softwarepartij, sluit deals met hardwareleveranciers zoals Nvidia en Oracle [3](#page=3).
* **OpenAI en Nvidia:** Nvidia belooft voor 100 miljard dollar aandelen van OpenAI te kopen in ruil voor de afname van honderden miljarden dollars aan chips [3](#page=3).
* **OpenAI en Oracle:** Oracle bouwt voor 300 miljard dollar datacenters die OpenAI zal huren [3](#page=3).
* **OpenAI en AMD:** OpenAI verwerft 10 procent van AMD, een concurrent van Nvidia [3](#page=3).
#### 3.4.2 Nvidia's bredere investeringsstrategie
Nvidia levert niet alleen essentiële chips aan grote techbedrijven (Amazon, Meta), maar investeert ook in kleinere AI-spelers zoals xAI en het Europese Mistral. Verder werkt Nvidia samen met ASML (Nederlandse chipmachineproducent) en ontwikkelt het zelfrijdende auto's met Stellantis en Foxconn om te concurreren met Tesla en Waymo [3](#page=3).
> **Tip:** De complexe financiële en strategische verwevenheid tussen AI-ontwikkelaars, hardwarefabrikanten en investeringsmaatschappijen is cruciaal om te begrijpen. Dit creëert zowel groeimogelijkheden als potentiële risico's.
### 3.5 Potentiële risico's en de "zeepbel" discussie
Er is discussie over de duurzaamheid van de huidige AI-boom en de verstrengeling van bedrijven, met name de "circulaire financiering" waarbij klanten kunstmatig worden gefinancierd door aandelenovernames. Pessimistische experts vrezen dat als bedrijven zoals OpenAI hun omzet niet exponentieel kunnen laten groeien, dit kan leiden tot een instorting die meerdere bedrijven meesleept. Optimisten wijzen echter op de aanwezigheid van zeer winstgevende entiteiten zoals Microsoft en Meta, die de markt kunnen stabiliseren, en de reële kans dat OpenAI in de toekomst aanzienlijke inkomsten zal genereren [3](#page=3).
---
# Financiële risico's en waarderingen in de AI-markt
Het onderwerp verkent de potentiële financiële zeepbel in de AI-sector, de hoge waarderingen van bedrijven en de discussie tussen optimistische en pessimistische financiële experts over de duurzaamheid van de huidige markt.
### 4.1 De verstrengeling van AI-hoofdrolspelers
De AI-sector wordt gekenmerkt door een ongeziene verstrengeling van de hoofdrolspelers. Deze verstrengeling manifesteert zich niet alleen in klantenrelaties, maar ook in toenemende aandeelhouderschappen onderling [1](#page=1).
#### 4.1.1 Grote AI-deals en kruisparticipaties
De recente geschiedenis van de technologie-industrie toont een piek in kruisparticipaties en samenwerkingen tussen AI-bedrijven. Voorbeelden hiervan zijn [1](#page=1):
* OpenAI's aankondiging om voor 38 miljard dollars rekenkracht af te nemen van Amazon Web Services [1](#page=1).
* Microsoft's formalisering van zijn investeringen in OpenAI, resulterend in een officieel aandeelhouderschap van 27 procent. OpenAI wordt hiermee gewaardeerd op 500 miljard dollars, en zal gedurende jaren klant blijven bij Microsoft's datacenters [1](#page=1).
* Nvidia's investering van 100 miljard dollars in OpenAI. Met deze investeringen zijn de grootste aandeelhouders van OpenAI de twee duurste bedrijven ter wereld: Nvidia (gewaardeerd op 5.004 miljard dollars) en Microsoft (gewaardeerd op 3.890 miljard dollars) [1](#page=1).
De belegger rekent op een succesvolle toekomst voor artificiële intelligentie (AI), wat leidt tot extreem hoge waarderingen voor AI-bedrijven [1](#page=1).
> **Tip:** De waarde van de grootste techbedrijven wordt direct gelinkt aan het verwachte succes van AI. Een mislukking van AI kan de hele sector meesleuren [1](#page=1).
#### 4.1.2 Oorsprong en initiële visie van OpenAI
De AI-wedloop begon tien jaar geleden met bescheiden doelstellingen. OpenAI werd opgericht door Sam Altman, Ilya Sutskever en Greg Brockman, met de betrokkenheid van Elon Musk. De oprichting was een reactie op zorgen van Elon Musk dat Google, destijds leidend in AI, de controle over AI zou kunnen verliezen en de gevaren ervan niet voldoende besefte. Het doel was een goed gefinancierde non-profitorganisatie voor AI-onderzoek te creëren, gericht op de verantwoorde ontwikkeling van algemene kunstmatige intelligentie [1](#page=1).
### 4.2 Waarderingen en financiële structuren in de AI-markt
De huidige financiële structuren in de AI-markt, met name de hoge waarderingen en de verstrengeling van bedrijven, roepen de vraag op of er sprake is van een zeepbel [3](#page=3).
#### 4.2.1 De "paringsdans" rond datacenters en hardware
De rush op datacenters, gedreven door de enorme vraag naar rekenkracht (uitgedrukt in gigawatts), leidt tot een "grote paringsdans" tussen verschillende techspelers. De kern van deze dans ligt bij de relatie tussen softwareaanbieders zoals OpenAI en hardwareproducenten zoals Nvidia [3](#page=3).
* Sam Altman wordt gezien als een effectieve dealmaker, wat essentieel is voor een bedrijf met een relatief lage omzet (enkele miljarden dollars) die desondanks grootschalige datacenters wil bouwen (1.000 miljard dollars) [3](#page=3).
* Microsoft is de grootste aandeelhouder van OpenAI [3](#page=3).
* OpenAI sluit een alliantie met zijn grootste leverancier, Nvidia, waarbij Nvidia aandelen van OpenAI koopt ter waarde van 100 miljard dollars in ruil voor de aankoop van honderden miljarden dollars aan chips [3](#page=3).
* OpenAI gaat ook een contract aan met Oracle voor de bouw en huur van datacenters ter waarde van 300 miljard dollars [3](#page=3).
* Een contract met AMD, een concurrent van Nvidia, omvat de mogelijke verwerving van 10 procent van AMD's aandelen [3](#page=3).
#### 4.2.2 Nvidia's bredere investeringsstrategie
Nvidia's strategie reikt verder dan alleen het leveren van chips. Het bedrijf investeert in bigtechbedrijven die in AI investeren, zoals Amazon en Meta, en neemt participaties in kleinere AI-spelers zoals xAI van Elon Musk. Nvidia zoekt ook naar Europese partners en investeert in het Franse Mistral, een van de weinige Europese spelers die kan concurreren in de AI-wedloop. ASML, de Nederlandse producent van chipmachines, investeert eveneens in Mistral. Verder werkt Nvidia samen met de Europese autobouwer Stellantis en Apple-assembler Foxconn aan de ontwikkeling van zelfrijdende auto's, een markt waarin het Tesla en Google's Waymo zal beconcurreren [3](#page=3).
### 4.3 Zeepbel of duurzame groei?
De financiële experts zijn verdeeld over de vraag of de huidige verstrengeling van bedrijven in de AI-markt zal leiden tot een grote zeepbel [3](#page=3).
* **Pessimistische visie:** Deze experts wijzen op circulaire financiering, waarbij klanten kunstmatig worden gefinancierd door hun aandelen te kopen. Als een klant zoals OpenAI zijn omzet niet exponentieel kan verhogen, kan de hele structuur instorten, met een domino-effect op tal van bedrijven die in de val worden meegetrokken [3](#page=3).
* **Optimistische visie:** Deze visie stelt dat, in tegenstelling tot de dotcombubbel eind jaren 90, de huidige markt extreem winstgevende partijen omvat zoals Microsoft, Meta en Alphabet. Deze bedrijven zijn sterk genoeg om de markt stabiel te houden. Bovendien wordt de kans nog steeds reëel geacht dat OpenAI in de toekomst een bedrijf wordt dat meer dan 100 miljard dollars aan inkomsten genereert [3](#page=3).
> **Tip:** De duurzaamheid van de huidige AI-waarderingen hangt af van de toekomstige omzetgroei van bedrijven zoals OpenAI en de stabiliteit van de grote, winstgevende techgiganten die erin geïnvesteerd hebben.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Artificiële intelligentie (AI) | Een tak van informatica die zich bezighoudt met het creëren van systemen die taken kunnen uitvoeren waarvoor normaal menselijke intelligentie vereist is, zoals leren, probleemoplossing en patroonherkenning. |
| Kruisparticipaties | Een vorm van samenwerking waarbij twee of meer bedrijven aandelen in elkaar verwerven, wat leidt tot een verstrengeling van belangen en een wederzijdse afhankelijkheid. |
| Rekencapaciteit | De hoeveelheid computationele kracht die beschikbaar is om gegevens te verwerken en complexe berekeningen uit te voeren, essentieel voor de ontwikkeling en het trainen van AI-modellen. |
| Aandeelhouder | Een persoon of entiteit die aandelen bezit in een bedrijf, wat hen mede-eigenaar maakt en recht geeft op een deel van de winst en stemrecht. |
| Waardering | De geschatte economische waarde van een bedrijf, vaak gebaseerd op financiële prestaties, groeipotentieel en marktperceptie, vooral relevant bij technologiebedrijven. |
| Durfkapitaal | Financiering die wordt verstrekt door investeerders aan start-ups en kleine bedrijven met een hoog groeipotentieel, in ruil voor aandelen of een deel van de winst. |
| Non-profitorganisatie | Een organisatie die is opgericht voor doeleinden die niet commercieel zijn en waarvan de winst niet wordt uitgekeerd aan eigenaren of aandeelhouders, maar wordt geherinvesteerd in de missie van de organisatie. |
| Algemene kunstmatige intelligentie (AGI) | Een hypothetisch type AI dat de intellectuele capaciteit van een mens bezit en in staat is om elk intellectueel werk te begrijpen en te leren dat een mens kan doen. |
| Large language model (LLM) | Een type AI-model dat is getraind op enorme hoeveelheden tekstgegevens om menselijke taal te begrijpen, te genereren en te vertalen, zoals ChatGPT en Gemini. |
| Grafische verwerkingseenheid (GPU) | Een gespecialiseerde processor die oorspronkelijk is ontworpen voor het versnellen van de weergave van afbeeldingen en video, maar nu essentieel is geworden voor parallelle berekeningen in AI en machine learning. |
| Datacenter | Een faciliteit die een grote hoeveelheid computerservers, opslagsystemen en netwerkapparatuur huisvest, ontworpen om grote hoeveelheden gegevens te verwerken en op te slaan. |
| Circulaire financiering | Een financieringsmodel waarbij investeerders aandelen kopen van hun klanten, waardoor een gesloten financiële kring ontstaat die potentieel kwetsbaar is voor economische schokken. |
| Dotcombubbel | Een economische bubbel die ontstond eind jaren negentig door overmatige speculatie in internetgerelateerde bedrijven, wat leidde tot een dramatische beursdaling begin jaren 2000. |
Cover
De Tijd - AI-bubbe.pdf
Summary
# Massale investeringen in artificiële intelligentie
Dit onderwerp behandelt de enorme financiële investeringen die momenteel worden gedaan in de AI-sector, inclusief details over specifieke deals en de rol van toonaangevende technologiebedrijven en banken.
### 1.1 De omvang van de investeringen
De AI-sector wordt gekenmerkt door een ongekende stroom aan investeringen in nieuwe infrastructuur. Onlangs kondigden Nvidia en OpenAI een investering aan tot 100 miljard dollars voor nieuwe datacenters en AI-chips. Eerder investeerden Microsoft, BlackRock en andere partijen ook al 100 miljard dollars. Begin dit jaar werd een investeringsplan van 500 miljard dollars aangekondigd door OpenAI, Oracle en Softbank, genaamd 'Stargate'. Daarnaast hebben Amazon, Meta, Google en Apple tientallen miljarden dollars geïnvesteerd in AI- en data-infrastructuur. Chinese techreuzen, zoals Alibaba met een investering van ruim 50 miljard dollar, dragen eveneens bij. Morgan Stanley schat de wereldwijde investeringen in nieuwe datacentercapaciteit tussen nu en 2028 op 2.900 miljard dollar [1](#page=1).
### 1.2 Risico's en parallellen
De huidige investeringsgolf wordt gezien als een gigantische gok door technologiebedrijven. Indien de vraag naar AI-diensten niet exponentieel groeit, dreigen zij met een aanzienlijke financiële kater te blijven zitten. Historische technologische disrupties, zoals de spoorwegen, elektriciteit en het internet, gingen eveneens gepaard met een wedloop van investeringen in nieuwe infrastructuur, wat vaak leidde tot zeepbellen die uiteindelijk barstten. Hoewel de technologie zelf overleeft, is het voorspellen van winnaars en verliezers complex [1](#page=1).
#### 1.2.1 Potentiële scenario's voor een AI-bubbel
De exacte wijze waarop een AI-bubbel zou kunnen barsten, is onzeker, maar er zijn diverse scenario's denkbaar. De vraag naar AI-rekenkracht kan lager uitvallen dan verwacht, hetzij door te hoge prijzen, hetzij doordat bedrijven er onvoldoende rendement uit halen. Recent onderzoek van MIT toont aan dat 95 procent van de bedrijven momenteel geen rendement haalt uit hun AI-investeringen. Een overaanbod aan capaciteit kan leiden tot dalende prijzen en winstmarges voor aanbieders [2](#page=2).
> **Tip:** De dotcomcrisis van eind jaren negentig dient als een duidelijke parallel. Veel internetbedrijfjes gingen failliet door een trager groeiende vraag naar onlineadvertenties dan voorspeld, gevolgd door een crisis in de telecomsector die te veel glasvezelkabels had geïnstalleerd [2](#page=2).
#### 1.2.2 Overige risicofactoren
* **Energieverbruik:** De enorme energiebehoefte van datacenters vormt een significant risico. Nvidia en OpenAI hebben alleen al voor hun huidige plannen minstens 10 gigawatt vermogen nodig, vergelijkbaar met tien grote kernreactoren. Stijgende energieprijzen of een tekort aan stroomaanbod kunnen het businessmodel van AI onder druk zetten [2](#page=2).
* **Overheidsregulering:** Overheden kunnen hinder ondervinden bij het verlenen van vergunningen of het opleggen van strikte milieu-eisen [2](#page=2).
* **Technologische evolutie:** Efficiëntieverbeteringen in hardware en software kunnen leiden tot een plotseling waardeverlies van oudere technologieën, wat specifieke spelers in de problemen kan brengen [2](#page=2).
### 1.3 Motivatie achter de investeringen
Ondanks waarschuwingen van tech-CEO's over de financiële houdbaarheid van de AI-boom, blijven zij miljarden investeren. Dit komt voort uit een samenspel van economische en psychologische factoren. CEO's realiseren zich dat AI op lange termijn aanzienlijke economische waarde zal creëren en willen hiervan profiteren. Door zoveel mogelijk investeerders mee te nemen voordat een eventuele zeepbel barst, minimaliseren ze persoonlijk risico. Bovendien is de redenering dat bubbels inherent zijn aan een kapitalistisch systeem dat soms grote risico's vereist voor grote winsten [2](#page=2).
#### 1.3.1 Financiële besmetting en twijfelachtige constructies
Een barstende zeepbel kan leiden tot financiële besmetting van andere economische sectoren, zoals de Amerikaanse vastgoedcrisis in 2008 aantoonde. Hoewel de huidige AI-boom grotendeels door techbedrijven zelf wordt gefinancierd, zou een crash van techaandelen de bredere beurs negatief kunnen beïnvloeden. Er zijn indicaties van twijfelachtige financiële constructies, zoals 'round-tripping' . Hierbij investeert een leverancier (Nvidia) in een klant (OpenAI), die het geld vervolgens investeert in datacenters uitgerust met chips van diezelfde leverancier. Dit financiert indirect de eigen toekomstige omzet [2](#page=2).
> **Voorbeeld:** Nvidia investeerde eerder in datacenterbouwer CoreWeave, die vervolgens voor meer dan 22 miljard dollar AI-capaciteit aan OpenAI verkocht. Dit illustreert hoe geld indirect weer naar Nvidia kan vloeien [2](#page=2).
In een markt met weinig grote spelers kunnen dergelijke cirkelconstructies leiden tot kunstmatig opgeblazen omzetten en waarderingen, vergelijkbaar met 'vendor financing' in de telecomsector van 25 jaar geleden, wat tot boekhoudschandalen leidde [3](#page=3).
#### 1.3.2 Overheidsrol en eigenbelang
Een verantwoordelijke overheid zou streng financieel toezicht moeten houden en als regulator moeten optreden. Echter, de Amerikaanse president Donald Trump beschouwt AI als een militair wapen tegen China en moedigt massale investeringen aan, terwijl hij regulering die groei belemmert bestrijdt. Dit beleid wordt mede gedreven door eigenbelang, aangezien ook zijn zonen investeren in een datacenterbouwbedrijf [3](#page=3).
> **Tip:** De situatie wordt vergeleken met Gabriel García Márquez's 'Kroniek van een aangekondigde dood', waarbij iedereen weet dat er iets gaat gebeuren maar niemand ingrijpt om het te voorkomen. Dit suggereert een staat van berusting in de AI-wereld [3](#page=3).
---
# De parallel met historische technologische bubbels
Dit deel onderzoekt de gelijkenissen tussen de huidige AI-boom en eerdere technologische disrupties, met een focus op de vorming en barsten van bubbels.
### 2.1 De aard van technologische disruptie en investeringscycli
Elke grote technologische doorbraak, hoewel welvarend, laat eerst een spoor van vernieling achter. Dit geldt voor diverse disruptieve technologieën, van de spoorwegen en elektriciteit tot het internet. Er is geen reden om aan te nemen dat artificiële intelligentie (AI) hier een uitzondering op zal vormen [1](#page=1).
#### 2.1.1 Historische context van investeringswedlopen
De uitrol van nieuwe infrastructuur gekoppeld aan disruptieve technologieën heeft historisch gezien vaak geleid tot een wedloop van investeringen. Deze investeringsgolven gaan nagenoeg altijd gepaard met de vorming van een bubbel, die uiteindelijk barst. Hoewel de technologie zelf doorgaans overleeft, is het voorspellen van winnende en verliezende bedrijven in zo'n fase complex [1](#page=1).
> **Tip:** De geschiedenis leert ons dat investeringscycli rondom nieuwe technologieën vaak gepaard gaan met excessief optimisme en overinvestering, leidend tot zeepbellen die uiteindelijk barsten.
#### 2.1.2 De huidige AI-boom als potentiële zeepbel
De huidige AI-boom wordt gekenmerkt door massale investeringen in nieuwe infrastructuur en chips, met deals tot honderden miljarden dollars die in de techwereld nauwelijks nog verbazing wekken. Bedragen zoals 100 miljard dollar voor datacenters en AI-chips een investeringsplan van 500 miljard dollar (bekend als 'Stargate') en mondiale investeringen van naar schatting 2.900 miljard dollar in datacentercapaciteit tegen 2028 illustreren de schaal van deze investeringen [1](#page=1).
> **Voorbeeld:** De investeringen van Nvidia en OpenAI in nieuwe datacenters en AI-chips, ter waarde van tot 100 miljard dollar, en het 'Stargate'-investeringsplan van 500 miljard dollar door OpenAI, Oracle en Softbank, tonen de immense kapitaalstromen in de AI-sector [1](#page=1).
#### 2.1.3 Waarschuwingen van sectorleiders
Zelfs vooraanstaande figuren in de techwereld erkennen de potentiële gevaren van deze oververhitting. Sam Altman, de oprichter van OpenAI, heeft aangegeven dat investeerders mogelijk te enthousiast zijn over de potentiële rendementen. Mark Zuckerberg (Meta) en Satya Nadella (Microsoft) hebben eveneens gewaarschuwd dat er wellicht te veel datacenters worden gebouwd en dat een AI-zeepbel 'heel goed mogelijk' is [1](#page=1) [2](#page=2).
### 2.2 Potentiële scenario's voor het barsten van een AI-bubbel
Het precieze moment en de manier waarop een AI-bubbel zou kunnen barsten, zijn niet te voorspellen, maar er zijn verschillende scenario's denkbaar [2](#page=2).
#### 2.2.1 Vraag en aanbod van AI-capaciteit
Een belangrijke factor is de uiteindelijke vraag naar AI-rekenkracht. Als deze lager uitvalt dan verwacht, bijvoorbeeld door te hoge prijzen of beperkte meerwaarde voor bedrijven, kan dit tot problemen leiden. Onderzoek van MIT suggereert dat 95 procent van de bedrijven momenteel nog geen rendement op hun AI-investeringen behaalt. Tegelijkertijd kan een overaanbod aan capaciteit de prijzen en winstmarges van aanbieders doen kelderen [2](#page=2).
> **Voorbeeld:** De dotcomcrisis van de late jaren '90, waarbij tal van internetbedrijfjes failliet gingen door een tragere groei van onlineadvertenties dan verwacht, is een parallel [2](#page=2).
#### 2.2.2 De dotcomcrisis als historische parallel
De dotcomcrisis fungeert als een voor de hand liggende historische parallel. Na een initiële fase van snelle groei van onlineadvertenties, die tegenviel, volgde een crisis in de telecomsector die kampte met overcapaciteit aan glasvezelkabels. Hoewel het internet zelf niet bezweek, gingen veel internet- en telecombedrijven ten onder [2](#page=2).
#### 2.2.3 Energiehonger en overheidsregulering
De enorme energiebehoefte van datacenters vormt een aanzienlijk risico. Voor de financiering van hun investeringsplannen hebben Nvidia en OpenAI alleen al minstens 10 gigawatt vermogen nodig, vergelijkbaar met tien grote kernreactoren. Als het stroomaanbod achterblijft of de energieprijzen stijgen, kan dit het businessmodel van AI onder druk zetten. Daarnaast kunnen overheidsingrijpen, zoals vergunningverlening of strikte milieu-eisen, ook complicaties veroorzaken [2](#page=2).
#### 2.2.4 Technologische zelfvernietiging
De aard van technologie zelf kan ook bijdragen aan instabiliteit. Efficiëntieverbeteringen in hardware en software, hoewel gunstig voor de sector als geheel, kunnen ook leiden tot een plotseling waardeverlies van oudere technologieën, wat sommige spelers in de problemen kan brengen [2](#page=2).
### 2.3 Economische en psychologische drijfveren achter investeringen
Ondanks de zelfverklaarde onhoudbaarheid van de AI-boom door tech-CEO's, blijven zij miljarden investeren. Dit is te verklaren door een samenspel van economische en psychologische factoren [2](#page=2).
#### 2.3.1 Lange termijn potentieel en concurrentiedruk
De leiders in de techwereld erkennen de enorme economische waarde die AI op lange termijn zal creëren. Door aan de zijlijn te blijven, riskeren ze deze vruchten te missen. Bovendien, zolang niemand precies weet wanneer de bubbel zal barsten, hebben ze er belang bij om zoveel mogelijk investeerders mee te krijgen. Een bijkomend voordeel is dat een eventuele crash hen persoonlijk minder zal raken, aangezien ook concurrenten dezelfde problemen zullen ondervinden [2](#page=2).
#### 2.3.2 De rol van bubbels in het kapitalisme
Het is een gangbare redenering dat bubbels inherent zijn aan een kapitalistisch systeem, waarin het nemen van grote risico's noodzakelijk kan zijn voor grote winsten [2](#page=2).
> **Tip:** Het erkennen van de psychologische drijfveren, zoals de angst om kansen te missen en het 'meeliften' op succes, is cruciaal om de aanhoudende investeringen in potentieel overgewaardeerde sectoren te begrijpen.
#### 2.3.3 Risico op financiële besmetting
Wanneer een zeepbel barst, bestaat het risico op een financiële 'besmetting' van andere economische sectoren. Een voorbeeld hiervan is de Amerikaanse vastgoedcrisis in 2008, die leidde tot een instorting van het wereldwijde financiële systeem. Hoewel de huidige AI-boom grotendeels door techbedrijven zelf wordt gefinancierd, en niet door banken, zou een crash van techaandelen ongetwijfeld de rest van de beurs mee naar beneden kunnen trekken, met gevolgen voor gewone burgers [2](#page=2).
#### 2.3.4 Twijfelachtige financiële constructies
Er zijn reeds aanwijzingen dat de AI-hype ondersteund wordt door twijfelachtige financiële constructies. Een voorbeeld hiervan is de investering van leverancier Nvidia in een van haar belangrijkste klanten, OpenAI. OpenAI investeert het ontvangen geld vervolgens in datacenters die met Nvidia-chips zullen worden uitgerust, waardoor de chipmaker indirect zijn eigen toekomstige omzet financiert. Nvidia investeerde eerder ook in de datacenterbouwer CoreWeave, die vervolgens AI-capaciteit aan OpenAI verkocht, wat opnieuw een indirecte geldstroom naar Nvidia creëert [2](#page=2).
---
# Risico's en uitdagingen van de AI-boom
De AI-boom brengt aanzienlijke risico's en uitdagingen met zich mee, variërend van economische instabiliteit en ecologische impact tot technologische veroudering en regelgevingshindernissen.
### 3.1 Potentiële economische risico's
#### 3.1.1 Overaanbod aan capaciteit en prijsdruk
Een significant risico is het potentiële overaanbod aan AI-rekenkracht en datacenters. Dit kan leiden tot een daling van prijzen en winstmarges voor aanbieders, vergelijkbaar met de situatie tijdens de dotcomcrisis van de late jaren 90. Destijds leidde een overschot aan glasvezelkabels, die werden aangelegd om een verwachte explosie van onlinediensten te faciliteren, tot een crisis in de telecomsector [2](#page=2).
> **Tip:** Begrijp de parallellen met eerdere technologische bubbels om de huidige risico's beter in te schatten.
#### 3.1.2 Beperkt rendement op investeringen
Ondanks de hype haalt een aanzienlijk deel van de bedrijven momenteel geen rendement uit hun AI-investeringen. Recent onderzoek van het Massachusetts Institute of Technology (MIT) toont aan dat maar liefst 95 procent van de bedrijven geen positief rendement op hun AI-investeringen realiseert. Dit kan de verdere acceptatie en investeringen in AI vertragen [2](#page=2).
#### 3.1.3 Twijfelachtige financiële constructies
Er zijn aanwijzingen dat de AI-hype wordt ondersteund door twijfelachtige financiële constructies, zoals 'round-tripping'. Een voorbeeld hiervan is de investering van leverancier Nvidia in een belangrijke klant zoals OpenAI, die vervolgens het geld investeert in datacenters die uitgerust zijn met Nvidia-chips, wat de omzet van Nvidia indirect financiert. Dergelijke constructies, waarbij spelers binnen een beperkt aantal grote spelers elkaar financieren, kunnen leiden tot kunstmatig opgeblazen omzetten en waarderingen. Dit doet denken aan 'vendor financing' in de telecomsector van 25 jaar geleden, wat bijdroeg aan boekhoudschandalen [2](#page=2) [3](#page=3).
> **Example:** De miljardendeal tussen Nvidia en OpenAI, waarbij Nvidia investeert in OpenAI dat vervolgens datacenters koopt met Nvidia-chips, is een illustratie van 'round-tripping' [2](#page=2).
### 3.2 Ecologische en energiegerelateerde uitdagingen
#### 3.2.1 Enorme energiebehoefte
De geplande datacenters voor AI hebben een enorme energiehonger. Alleen al voor investeringsplannen van Nvidia en OpenAI is minimaal 10 gigawatt vermogen nodig, wat vergelijkbaar is met de output van een tiental grote kernreactoren. Een tekort aan stroomaanbod of stijgende energieprijzen kunnen het businessmodel van AI onder druk zetten [2](#page=2).
### 3.3 Technologische uitdagingen
#### 3.3.1 Technologische zelfveroudering
AI-technologie heeft de neiging zichzelf snel te overtreffen. Efficiëntieverbeteringen in zowel hardware als software stimuleren de sector vooruit, maar kunnen ook leiden tot een plotseling waardeverlies van oudere technologie. Dit kan specifieke spelers binnen de industrie in financiële problemen brengen [2](#page=2).
### 3.4 Regelgevings- en overheidsrisico's
#### 3.4.1 Overheidsregulering en vergunningen
Overheden kunnen optreden als een risicofactor door middel van strenge regelgeving, het verlenen van vergunningen of het opleggen van milieueisen. Een verantwoordelijke overheid zou hierop kunnen anticiperen met financieel toezicht en regulering, maar momenteel wordt het tegenovergestelde waargenomen [2](#page=2) [3](#page=3).
#### 3.4.2 Politiek en eigenbelang
In sommige gevallen wordt de AI-groei aangemoedigd vanuit politieke overwegingen, zoals de militaire wedloop met China, waarbij regulering wordt afgezwakt ten gunste van investeringen. Dit kan gepaard gaan met eigenbelang van politieke figuren die zelf investeren in gerelateerde sectoren [3](#page=3).
### 3.5 Psychologische en systemische factoren
#### 3.5.1 Het belang van vroege adoptie
Ondanks de risico's blijven tech-CEO's investeren omdat ze de potentiële lange-termijnwaarde van AI erkennen. Om hieraan deel te hebben, moeten ze vroeg investeren en zoveel mogelijk investeerders betrekken voordat een eventuele bubbel barst [2](#page=2).
#### 3.5.2 Risicospreiding en systemische bubbels
Technologieleiders hanteren de redenering dat bubbels inherent zijn aan een kapitalistisch systeem, waarbij risico's genomen moeten worden voor potentiële grote winsten. Hoewel de huidige AI-boom voornamelijk door techbedrijven zelf wordt gefinancierd en niet door banken, kan een crash van techaandelen wel degelijk de bredere beurs beïnvloeden [2](#page=2).
> **Tip:** Verdiep je in de economische theorie van marktbubbles en de rol van psychologische factoren, zoals kuddegedrag en overmoed, bij de vorming ervan.
---
# Financieringsmechanismen en twijfelachtige constructies in AI
Dit onderwerp onderzoekt de drijfveren achter aanhoudende investeringen in AI ondanks waarschuwingen, waarbij de focus ligt op het eigenbelang van techleiders en de analyse van financiële constructies zoals 'round-tripping'.
### 4.1 De drijfveren achter de AI-investeringen
Ondanks waarschuwingen van vooraanstaande techleiders, zoals Sam Altman van OpenAI die een waardering van 500 miljard dollar noemde en Mark Zuckerberg (Meta) en Satya Nadella (Microsoft) die spraken over een mogelijke AI-zeepbel door overmatige datacenterbouw, blijft de investeringsstroom in AI aanhouden. De redenen hiervoor zijn een combinatie van economische en psychologische factoren [2](#page=2) [3](#page=3).
#### 4.1.1 Economische en psychologische factoren
* **Lange-termijnwaarde:** Leiders als Altman begrijpen dat AI op de lange termijn enorme economische waarde zal creëren. Door aan de zijlijn te blijven, missen ze de kans om hiervan te profiteren [3](#page=3).
* **Timing en investeerders aantrekken:** Zolang niemand precies weet wanneer een mogelijke zeepbel zal barsten, hebben deze leiders er belang bij om zoveel mogelijk investeerders nu mee te trekken [3](#page=3).
* **Gedeeld risico:** Persoonlijk risico op verantwoording bij een crash wordt geminimaliseerd, aangezien concurrenten dan ook problemen zullen ondervinden [3](#page=3).
* **Kapitalistische eigenschap:** Er is een redenering dat bubbels inherent zijn aan een kapitalistisch systeem, waarin grote risico's genomen moeten worden voor potentieel grote winsten [3](#page=3).
> **Tip:** Het is cruciaal om te begrijpen dat het niet zozeer de technologie zelf is die een bubbel creëert, maar de financiële en psychologische dynamiek van de markt eromheen.
### 4.2 Risico's en scenario's van een AI-zeepbel
De aard van een mogelijke AI-zeepbel en hoe deze zou kunnen barsten, is onderwerp van speculatie. Er zijn diverse scenario's denkbaar [2](#page=2).
#### 4.2.1 Scenario's voor een zeepbelbarst
* **Lagere vraag naar rekenkracht:** De vraag naar AI-rekenkracht kan lager uitvallen dan verwacht, bijvoorbeeld door te hoge prijzen of een beperkt rendement voor bedrijven. Onderzoek van MIT suggereert dat 95 procent van de bedrijven momenteel geen rendement haalt op hun AI-investeringen [2](#page=2).
* **Overaanbod aan capaciteit:** Een overschot aan capaciteit kan leiden tot dalende prijzen en winstmarges voor aanbieders [2](#page=2).
* **Energiehonger en kosten:** De enorme energiebehoefte van datacenters vormt een risicofactor. Investeringsplannen van Nvidia en OpenAI vereisen minstens 10 gigawatt vermogen, wat de druk op energieprijzen en het businessmodel van AI kan verhogen [2](#page=2).
* **Overheidsinterventie:** Overheden kunnen ingrijpen via vergunningen of strikte milieueisen, wat de groei kan belemmeren [2](#page=2).
* **Technologische veroudering:** Efficiëntieverbeteringen kunnen leiden tot een snelle waardevermindering van oudere technologie, wat sommige spelers in de problemen kan brengen [2](#page=2).
> **Example:** De dotcomcrisis van eind jaren 90 dient als een parallel scenario. Internetbedrijfjes failliet gingen door tragere groei van onlineadvertenties, gevolgd door een crisis in de telecomsector die te veel glasvezel had aangelegd [2](#page=2).
### 4.3 Twijfelachtige financiële constructies
Er zijn aanwijzingen dat de AI-hype wordt ondersteund door twijfelachtige financiële constructies die de omzet en waarderingen kunstmatig kunnen opblazen [2](#page=2) [3](#page=3).
#### 4.3.1 'Round-tripping' en leveranciersfinanciering
* **Round-tripping:** Dit betreft constructies waarbij een leverancier investeert in een klant, die vervolgens het geld gebruikt om producten van diezelfde leverancier af te nemen. Een voorbeeld is de deal tussen Nvidia en OpenAI, waarbij Nvidia investeert in OpenAI, dat op zijn beurt datacenters uitrust met Nvidia-chips. Hiermee financiert Nvidia indirect zijn eigen toekomstige omzet [2](#page=2).
* **Leveranciersfinanciering (Vendor financing):** Dit houdt in dat leveranciers leningen verstrekken aan klanten, zodat deze meer producten kunnen kopen. Dit fenomeen was een oorzaak van boekhoudschandalen in de telecomsector 25 jaar geleden en kan in de huidige AI-sector tot vergelijkbare problemen leiden [3](#page=3).
> **Example:** Nvidia investeerde eerder ook in CoreWeave, een datacenterbouwer die reeds meer dan 22 miljard dollar aan AI-capaciteit aan OpenAI heeft verkocht. Dit geld vloeit indirect terug naar Nvidia [2](#page=2).
### 4.4 Politieke en maatschappelijke implicaties
De ontwikkeling van AI en de financiering ervan worden ook beïnvloed door politieke overwegingen en het gebrek aan proactief toezicht [3](#page=3).
#### 4.4.1 Politiek eigenbelang en gebrek aan toezicht
* **Trump's beleid:** De Amerikaanse president Donald Trump beschouwt AI als een strategisch wapen en moedigt investeringen aan, terwijl hij regulering bestrijdt. Dit beleid kan eigenbelang dienen, aangezien zijn zonen investeren in een datacenterbouwbedrijf (Dominari) [3](#page=3).
* **Gebrek aan regulering:** Een verantwoordelijke overheid zou financieel toezicht moeten houden en als regulator moeten optreden. Momenteel is er echter eerder sprake van het tegenovergestelde, waarbij ongebreidelde groei wordt gestimuleerd [3](#page=3).
* **Maatschappelijke berusting:** De situatie rond AI wordt vergeleken met het dorp in Gabriel García Márquez's 'Kroniek van een aangekondigde dood', waar iedereen weet van een naderend onheil, maar niemand ingrijpt. Als de AI-bubbel barst, zal niemand kunnen zeggen dat het onverwacht kwam [3](#page=3).
> **Tip:** De potentiële financiële besmetting van andere economische sectoren, zoals bij de Amerikaanse vastgoedcrisis van 2008, blijft een risico, hoewel de huidige AI-boom primair door techbedrijven zelf wordt gefinancierd. Een crash van techaandelen kan echter de rest van de beurs meesleuren en zo gewone burgers treffen [2](#page=2) [3](#page=3).
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Artificiële intelligentie (AI) | Een tak van informatica die zich richt op het creëren van systemen die taken kunnen uitvoeren waarvoor normaal menselijke intelligentie nodig is, zoals leren, probleemoplossing en patroonherkenning. |
| Datacenter | Een gespecialiseerde faciliteit die wordt gebruikt voor het onderbrengen van computer systemen en bijbehorende componenten, zoals telecommunicatie- en opslagsystemen. |
| Chips | Kleine stukjes halfgeleidermateriaal, meestal silicium, waarop geïntegreerde schakelingen zijn gefabriceerd om elektronische functies uit te voeren. |
| Disruptieve technologie | Een innovatie die de potentie heeft om de markt te verstoren en bestaande technologieën, bedrijven of zelfs hele industrieën te vervangen of radicaal te veranderen. |
| Zeepbel (economisch) | Een situatie in de financiële markten waarin de prijzen van activa sterk stijgen tot niveaus die niet gerechtvaardigd worden door hun intrinsieke waarde, wat uiteindelijk leidt tot een scherpe daling. |
| Dotcomcrisis | Een financiële crisis die plaatsvond in de vroege jaren 2000, gekenmerkt door de ineenstorting van veel internetgerelateerde bedrijven na een periode van speculatieve groei. |
| Glasvezelkabel | Een kabel die lichtsignalen gebruikt om data over lange afstanden te transporteren, wat een zeer hoge bandbreedte en datasnelheid mogelijk maakt. |
| Winstmarge | Het verschil tussen de verkoopprijs van een product of dienst en de kosten die gepaard gaan met de productie en verkoop ervan, uitgedrukt als percentage van de verkoopprijs. |
| Round-tripping | Een financiële praktijk waarbij geld wordt doorgegeven via verschillende transacties om de schijn van activiteit of winst te creëren, vaak met als doel de omzet kunstmatig op te blazen. |
| Vendor financing | Het verstrekken van leningen of kredietfaciliteiten door een leverancier aan een klant om de aankoop van zijn producten of diensten te vergemakkelijken. |
| Regulering | De regels, wetten en richtlijnen die door overheidsinstanties worden ingesteld om de activiteiten van bedrijven en individuen te controleren en te sturen, vaak met als doel de publieke belangen te beschermen. |
Cover
Generic AI presentation (1).pptx
Summary
# Wat is kunstmatige intelligentie en machine learning?
Dit onderwerp verkent de definitie en basisprincipes van Kunstmatige Intelligentie (AI) en Machine Learning (ML), inclusief hoe deze worden gemodelleerd met wiskundige functies.
## 1. Wat is kunstmatige intelligentie en machine learning?
Kunstmatige Intelligentie (AI) kan worden gezien als een wiskundige formule. Het doel is om complexe relaties en patronen in data te modelleren. Machine Learning (ML) is een subdiscipline van AI die zich richt op het ontwikkelen van algoritmen waarmee computers kunnen leren van data zonder expliciet geprogrammeerd te worden.
### 1.1 Het modelleren van AI met wiskundige functies
AI en ML maken gebruik van wiskundige functies om relaties tussen input en output te beschrijven. Een eenvoudig voorbeeld hiervan is het modelleren van de prijs van een product over tijd.
#### 1.1.1 Lineaire functies
Een lineaire functie kan de relatie tussen tijd en prijs weergeven. Als we de prijs in twee verschillende jaren kennen, kunnen we een lineaire functie opstellen.
Stel, de prijs van een brood was in 2003 1,61 euro en in 2023 2,94 euro. We kunnen dit modelleren met een lineaire functie van de vorm:
$$ \text{Prijs}(x) = a_0 + a_1 x $$
waarbij $x$ het aantal jaren sinds 2003 is.
Met de gegeven data kunnen we de parameters $a_0$ en $a_1$ bepalen:
* Bij $x=0$ (jaar 2003) is de prijs 1,61 euro. Dus, $a_0 = 1.61$.
* Bij $x=20$ (jaar 2023) is de prijs 2,94 euro.
$$ 2.94 = 1.61 + a_1 \times 20 $$
$$ 2.94 - 1.61 = a_1 \times 20 $$
$$ 1.33 = a_1 \times 20 $$
$$ a_1 = \frac{1.33}{20} = 0.0665 $$
De formule wordt dan:
$$ \text{Prijs}(x) = 1.61 + 0.0665x $$
Deze formule kan gebruikt worden om de prijs in een tussenliggend jaar te schatten, bijvoorbeeld 2013 ($x=10$):
$$ \text{Prijs}(10) = 1.61 + 0.0665 \times 10 = 1.61 + 0.665 = 2.275 \text{ euro} $$
#### 1.1.2 Meer complexe functies
AI kan ook veel complexere functies modelleren dan enkel lineaire relaties. Dit kan worden uitgedrukt met polynomiale functies:
$$ y = a_0 + a_1 x_1 + a_2 x_2 + \ldots + a_n x_n $$
of zelfs met hogere-orde interacties:
$$ y = a_{00} + a_{01} y_1 + a_{10} x_1 + a_{11} x_1 y_1 + \ldots + a_{nn} x_n y_n $$
Het aantal parameters in zo'n functie kan snel toenemen met het aantal variabelen ($m$) en de orde ($n$) van de polynoom. Het aantal parameters kan berekend worden met de volgende formules:
* Voor een polynoom van orde $n$ met 2 variabelen:
$$ \#\text{parameters} = \frac{(n+2)!}{n! \times 2!} $$
* Voor een polynoom van orde $n$ met $m$ variabelen:
$$ \#\text{parameters} = \frac{(n+m)!}{n! \times m!} $$
Het oplossen van systemen met zo'n groot aantal vergelijkingen en parameters is wiskundig vaak onmogelijk.
### 1.2 Het creëren en trainen van wiskundige modellen
#### 1.2.1 Het genereren van de functievorm
Een belangrijk aspect van AI en ML is dat de technologie zelf de vorm van de functie genereert. Dit betekent dat men niet expliciet alle wiskundige relaties hoeft te kennen. Het model leert deze relaties uit de data.
#### 1.2.2 Neuronen en gewichten
Modellen kunnen worden opgebouwd uit sommaties van individuele functies, waarbij gewichten ($w_x$) worden toegepast op inputwaarden ($O_x$).
$$ \text{SOM}(w_x \ast O_x) $$
De training van deze modellen omvat het aanpassen van deze gewichten om fouten te minimaliseren. Dit proces is vergelijkbaar met regressie. Een veelgebruikte update-regel voor de gewichten is:
$$ w_x = w_x - \beta (w_x - o_x) $$
waarbij $\beta$ de leerfrequentie is en $(w_x - o_x)$ de fout.
> **Tip:** Dit principe van het aanpassen van gewichten om fouten te reduceren, ligt aan de basis van de meeste neurale netwerken en machine learning-algoritmen.
#### 1.2.3 Het leren van correlaties
Door het genereren van de functie vormt het model correlaties in de data die voorheen onbekend of te complex waren om te redeneren. Dit is nuttig voor toepassingen zoals:
* Optimalisatie van chemische recepten.
* Complexe spellen zoals schaken.
### 1.3 Large Language Models (LLM's)
LLM's zijn een geavanceerde vorm van AI die tekst kunnen genereren.
#### 1.3.1 Hoe LLM's tekst genereren
LLM's werken door het raden van het volgende woord in een sequentie. Dit gebeurt op basis van de context van de voorgaande woorden.
**Voorbeeld:**
Een zin als "The athlete crossed the finish line, raising their arms in \_\_\_\_\_\_". Het model voorspelt "Victory" met een hoge waarschijnlijkheid, gebaseerd op patronen in de trainingsdata.
#### 1.3.2 Technieken achter LLM's
1. **Tokenization:** Tekst wordt opgesplitst in kleinere eenheden, genaamd 'tokens'. Dit kunnen woorden, delen van woorden of zelfs enkele karakters zijn.
**Voorbeeld:** "Unbelievably fantastic!" kan worden getokenized als ["Un", "believ", "ably", " fantastic", "!"].
2. **Encoding:** Tokens worden omgezet in numerieke representaties, zogenaamde 'embeddings', in een multi-dimensionale ruimte. Dit gebeurt via een lookup matrix $V \times D$, waarbij $V$ de grootte van het vocabulaire is en $D$ de dimensionaliteit van de embedding. Voor GPT-3 is $D$ bijvoorbeeld 12.288. De woordenschat van GPT-3 bevat 50.257 tokens.
$$ \text{Lookup Matrix: } V \times D $$
De positie en relatie tussen tokens in deze ruimte is cruciaal.
3. **Contextualisatie met Aandacht (Attention):** Om de context te behouden, wordt het 'attention'-mechanisme gebruikt. Dit mechanisme zorgt ervoor dat het model belangrijke woorden in de sequentie zwaarder weegt bij het voorspellen van het volgende token. Dit helpt om de relatie tussen woorden beter te begrijpen, zelfs als ze ver van elkaar verwijderd zijn in de tekst.
4. **Voorspelling van het volgende woord:** De verrijkte embeddings, na het toepassen van attention, worden gebruikt door een neuraal netwerk om de waarschijnlijkheid van elk mogelijk volgend token te voorspellen.
**Samengevat, de drie stappen voor tekstgeneratie met LLM's zijn:**
1. Encoderen in tokens.
2. Gebruik van attention om de context te integreren.
3. Gebruik van het resultaat om het volgende woord te voorspellen.
#### 1.3.3 Computationele kosten van LLM's
Het trainen en draaien van LLM's vereist enorme rekenkracht en geheugen. Het vermenigvuldigen van grote matrices is hierbij een kernactiviteit.
* **Training:** Het trainen van een model zoals Llama 3 nam Meta 3 maanden in beslag op een cluster van 24.000 NVIDIA H100 GPU's, wat aanzienlijke kosten en energieverbruik met zich meebrengt. De kosten voor infrastructuur bedroegen ongeveer 75 miljoen dollars.
* **Inferentie (gebruik):** Het draaien van een model zoals OpenAI's model vereist ook een groot cluster van GPU's en heeft hoge operationele kosten. De energiekosten kunnen oplopen tot 615 megawattuur per dag, wat vergelijkbaar is met het energieverbruik van een middelgrote stad.
### 1.4 Technische uitdagingen in AI
Er zijn diverse technische uitdagingen bij de ontwikkeling en implementatie van AI:
* **Nauwkeurigheid van Algoritmen:** Het garanderen dat AI-modellen correcte en betrouwbare voorspellingen doen, zelfs voor complexe situaties (bv. het herkennen van een zebra in een veld, of een man voor een winkel).
* **Energieverbruik:** Zoals eerder genoemd, is het energieverbruik van zowel training als inferentie van grote AI-modellen een significante uitdaging, wat pleit voor computationeel duurzame oplossingen.
* **Gedistribueerde Intelligentie:** Het efficiënt beheren van AI-systemen die over meerdere locaties of apparaten zijn verspreid.
* **Controle behouden:** Zorgen dat AI-systemen doen wat we bedoelen en niet onvoorspelbaar of gevaarlijk gedrag vertonen.
* **Irrationeel gedrag:** AI kan soms gedrag vertonen dat niet logisch of wenselijk is, wat nader onderzoek vereist.
### 1.5 Valkuilen bij AI-implementatie
Naast technische uitdagingen zijn er ook praktische valkuilen bij de implementatie van AI:
* **Change Management:** Organisaties moeten zich aanpassen aan de introductie van AI-technologie, wat weerstand kan oproepen.
* **Misbruik:** AI-technologie kan worden misbruikt voor schadelijke doeleinden.
* **Bias:** AI-modellen kunnen vooroordelen (bias) vertonen als ze getraind worden op onrepresentatieve datasets.
* **Voorbeeld:** Een gezichtsherkenningssysteem getraind op voornamelijk witte mannen kan minder goed werken voor andere demografische groepen.
* Het is cruciaal om datasets te gebruiken die de populatie accuraat weerspiegelen. Echter, als de historische data al oneerlijk is, kan het model dit 'bias' overnemen en versterken.
* **Angst:** Angst voor de technologie, bijvoorbeeld rond zelfrijdende auto's, kan de adoptie belemmeren. Het is belangrijk om de feiten te presenteren en de voordelen af te wegen tegen de risico's (bv. het aantal verkeersongevallen door traditionele auto's versus autonome voertuigen).
### 1.6 Innovatie en controle behouden
Om succesvol te innoveren met AI en tegelijkertijd controle te behouden, zijn de volgende actiepunten belangrijk:
* **Kennisdeling:** Zorg dat iedereen in het team basiskennis van AI heeft en begrijpt hoe AI ethisch en wettelijk correct te implementeren.
* **Expertise inschakelen:** Haal expertise in huis voor de specifieke technologie en bedrijfsdoelstellingen.
* **USP's beschermen:** Zorg dat de introductie van AI de Unique Selling Propositions van het bedrijf niet aantast.
* **Modellering en Validatie:**
* Gebruik verschillende soorten modellen voor robuustheid.
* Valideer modellen door een onafhankelijk team om de bias van modelbouwers en supervisors te minimaliseren.
* Gebruik gespecialiseerde validatietools.
* Zorg voor een divers team (qua achtergrond, geslacht, expertise) om verschillende perspectieven mee te nemen.
* **Testen en Monitoren:**
* Test huidige modellen en hun evolutie in de tijd.
* Houd rekening met databronnen, populatieveranderingen en modeldrift.
* Gebruik een validatieproces en "model drift dashboards".
> **Tip:** AI is een krachtige technologie, maar het is essentieel om bewust te zijn van de imperfecties, ethische overwegingen, energieverbruik en mogelijke misbruik. Vertrouw op de technologie, maar gebruik ze correct.
---
# Hoe werken grote taalmodellen (LLM's)?
Grote taalmodellen (LLM's) genereren tekst door de meest waarschijnlijke volgende 'token' te voorspellen, gebaseerd op de reeds gegenereerde tekst, waarbij complexe wiskundige en neurale netwerktechnieken worden toegepast.
### 2.1 Tekstgeneratie met LLM's
LLM's functioneren in essentie als een geavanceerd systeem dat de volgende meest waarschijnlijke 'token' voorspelt. Dit wordt geïllustreerd met het voorbeeld van de atleet die de finishlijn overschrijdt, waarbij het model steeds de meest waarschijnlijke vervolgtokens suggereert om de zin te voltooien, zoals "arms", "in", en uiteindelijk "Victory".
> **Tip:** Het kernidee is dat het model niet 'begrijpt' in menselijke zin, maar patronen herkent en op basis daarvan de meest statistisch waarschijnlijke vervolgwoorden genereert.
### 2.2 De onderliggende stappen van tekstgeneratie
Het proces van tekstgeneratie door LLM's kan worden opgesplitst in drie cruciale stappen:
#### 2.2.1 Tokenisatie
De eerste stap is het opdelen van de invoertekst in kleinere eenheden, genaamd 'tokens'. Dit proces, tokenisatie genaamd, kan woorden, delen van woorden of zelfs leestekens omvatten.
* **Voorbeeld:** De zin "Unbelievably fantastic!" kan worden getokeniseerd als "Un", "believ", "ably", " fantastic", "!".
#### 2.2.2 Codering (Embedding)
Nadat de tekst is getokeniseerd, worden deze tokens omgezet in numerieke representaties in een hoogdimensionale ruimte. Dit wordt gedaan met behulp van een 'embedding'-laag, die een woordenboek (vocabulary) van tokens koppelt aan vectoren in deze ruimte.
* De embedding-dimensie $D$ bepaalt de grootte van deze vectoren (bijvoorbeeld 12.288 voor GPT-3).
* De grootte van het vocabulaire $V$ is het totale aantal unieke tokens dat het model kent (bijvoorbeeld 50.257 tokens voor GPT-3).
* De embedding-laag kan worden voorgesteld als een matrix met dimensies $V \times D$.
Het doel van deze codering is om semantische en syntactische relaties tussen woorden vast te leggen. Woorden met vergelijkbare betekenissen of die in vergelijkbare contexten voorkomen, zullen dichter bij elkaar in deze vectorruimte komen te liggen.
#### 2.2.3 Aandacht (Attention)
Een significant probleem met eenvoudige neurale netwerken die opeenvolgende tokens verwerken, is het verlies van context over langere reeksen. Om dit te ondervangen, wordt het 'aandachtsmechanisme' (attention mechanism) geïntroduceerd.
* Aandacht stelt het model in staat om te bepalen welke delen van de invoertekst het meest relevant zijn voor het genereren van het volgende token. Het 'verplaatst' de tokens in de representatieruimte naar meer correcte locaties op basis van hun relatie tot andere tokens in de context.
* Dit mechanisme weegt het belang van elk token in de invoerreeks bij het voorspellen van het volgende token, waardoor langetermijnafhankelijkheden beter kunnen worden gemodelleerd.
#### 2.2.4 Voorspellen van het volgende token
Na de codering en toepassing van aandacht, worden de resulterende representaties gevoed aan een neuraal netwerk. Dit netwerk voorspelt de waarschijnlijkheid van elk mogelijk token in het vocabulaire om het volgende token te zijn. Het token met de hoogste waarschijnlijkheid wordt geselecteerd, of er wordt een samplingstrategie toegepast om meer variatie te genereren.
> **Tip:** De combinatie van tokenisatie, codering, aandacht en de uiteindelijke voorspelling vormt de kern van hoe LLM's tekst genereren.
### 2.3 De schaal van LLM's en technische uitdagingen
De kracht van LLM's schuilt in hun enorme schaal, zowel in termen van het aantal parameters als de hoeveelheid trainingsdata. Dit brengt echter aanzienlijke technische en computationele uitdagingen met zich mee.
#### 2.3.1 Computationele kosten
Het trainen en draaien van LLM's vereist een immense hoeveelheid rekenkracht.
* **Training:** Het bouwen van een model zoals LLAMA 3 nam naar schatting drie maanden in beslag op een cluster van 24.000 NVIDIA H100 GPU's. De infrastructuurkosten alleen al worden geschat op ongeveer 75 miljoen dollars, met een dagelijks energieverbruik van ongeveer 550 megawattuur.
* **Inferentie (gebruik):** Het draaien van een model zoals dat van OpenAI (voor tekstgeneratie) vereist een cluster van 30.000 NVIDIA H100 GPU's. De geschatte kosten voor infrastructuur bedragen ongeveer 85 miljoen dollars, met een dagelijks energieverbruik van circa 615 megawattuur.
> **Tip:** Deze cijfers benadrukken de enorme investeringen in hardware en energie die nodig zijn om state-of-the-art LLM's te ontwikkelen en te onderhouden.
#### 2.3.2 Uitdagingen op het gebied van algoritmes en data
Verschillende technische uitdagingen moeten worden overwonnen:
* **Nauwkeurigheid van algoritmes:** Het waarborgen van de correctheid en betrouwbaarheid van de gegenereerde output blijft een focuspunt.
* **Energieverbruik:** De hoge energiebehoefte voor training en inferentie is een belangrijke duurzaamheidsuitdaging.
* **Gedistribueerde intelligentie:** Het effectief beheren en coördineren van rekenkracht over grote, gedistribueerde systemen is complex.
* **Controle en irrationaliteit:** Het behouden van controle over de output van LLM's en het voorkomen van ongewenst of irrationeel gedrag zijn cruciale aspecten.
#### 2.3.3 Valkuilen bij de implementatie
Naast de technische uitdagingen zijn er ook diverse valkuilen bij de implementatie van LLM's:
* **Change management:** Het integreren van AI-technologie vereist aanpassing binnen organisaties en bij gebruikers.
* **Misbruik:** De potentie voor kwaadwillig gebruik van LLM's is significant, wat ethische en veiligheidsrisico's met zich meebrengt.
* **Bias:** LLM's kunnen bias uit hun trainingsdata overnemen en versterken. Het is essentieel om representatieve datasets te gebruiken en te waken voor onbewuste vooroordelen in de data die tot onethische of discriminerende resultaten kunnen leiden.
* **Voorbeeld:** Een gezichtsherkenningsmodel getraind op een dataset met overwegend witte mannen kan minder goed presteren op vrouwen of mensen met een andere etniciteit.
* **Angst:** Hoewel er reële zorgen zijn over AI, is het belangrijk om niet te bezwijken voor angst en de technologie rationeel te benaderen, rekening houdend met zowel de voordelen als de risico's.
> **Tip:** Een diverse trainingsdataset en een rigoureus validatieproces met een onafhankelijk team zijn cruciaal om bias te minimaliseren.
### 2.4 Wiskundige basis en conclusie
LLM's zijn fundamenteel gebaseerd op wiskunde en statistiek. Hoewel de modellen complex zijn, is er geen 'ziel' of bewustzijn aanwezig; ze zijn een product van geavanceerde wiskundige modellen.
* **Wiskunde is de kern:** De kern van AI, inclusief LLM's, is wiskunde. Modellen zoals die voor de prijs van brood tonen aan hoe lineaire en polynomiale regressie kunnen worden gebruikt om relaties te modelleren.
* **LLM's zijn wiskundige tools:** Ondanks hun indrukwekkende capaciteiten, zijn LLM's geavanceerde wiskundige gereedschappen.
Het is belangrijk om de kracht van deze technologie te erkennen, maar ook alert te zijn op de onvolkomenheden, ethische implicaties, energieverbruik, en potentiële misbruik. Een gebalanceerde en verantwoorde benadering is essentieel om de voordelen van AI te maximaliseren en de risico's te beperken.
---
# Bouwen en draaien van generatieve AI-modellen
Dit gedeelte behandelt de kosten, de benodigde middelen en de energieverbruikseisen die gepaard gaan met het trainen en uitvoeren van generatieve AI-modellen.
## 3.1 Kosten en benodigde middelen voor training en inferentie
Het bouwen en draaien van generatieve AI-modellen, met name Large Language Models (LLM's), vereist aanzienlijke computationele middelen en brengt hoge kosten met zich mee.
### 3.1.1 Kosten voor het bouwen (trainen) van modellen
Het trainingsproces van een geavanceerd model, zoals LLAMA3, is extreem resource-intensief. Meta's LLAMA3-project vereiste bijvoorbeeld drie maanden training op een cluster van 24.000 NVIDIA H100 GPU's.
* **Hardwarekosten:** Eén NVIDIA H100 GPU kost ongeveer 20.000 euro en verbruikt ongeveer 700 watt. Voor het LLAMA3-project bedroegen de infrastructuurkosten alleen al circa 75 miljoen euro.
* **Energieverbruik:** Het dagelijkse energieverbruik van het LLAMA3-trainingsproces werd geschat op ongeveer 550 megawattuur, wat vergelijkbaar is met het energieverbruik van 75.000 mensen in de regio Kortrijk.
### 3.1.2 Kosten voor het draaien (inferentie) van modellen
Ook het uitvoeren van getrainde modellen, bekend als inferentie, is kostbaar. OpenAI's gebruik van generatieve AI-modellen vereist een cluster van 30.000 NVIDIA H100 GPU's.
* **Hardwarekosten:** De geschatte infrastructuurkosten voor deze setup bedragen ongeveer 85 miljoen euro.
* **Energieverbruik:** Het dagelijkse energieverbruik voor inferentie wordt geschat op 615 megawattuur, wat overeenkomt met het verbruik van 110.000 mensen in de regio Brugge.
## 3.2 Technische uitdagingen bij generatieve AI
Naast de kosten zijn er diverse technische uitdagingen verbonden aan het ontwikkelen en implementeren van generatieve AI-modellen.
### 3.2.1 Nauwkeurigheid van algoritmen
Het waarborgen van de nauwkeurigheid van de output van AI-modellen blijft een uitdaging. Modellen moeten in staat zijn om correcte en relevante resultaten te genereren in diverse scenario's, zoals het beschrijven van afbeeldingen of het herkennen van objecten.
### 3.2.2 Energieverbruik
Zoals eerder benadrukt, is het hoge energieverbruik een significant probleem, zowel voor training als voor inferentie. Het vinden van energie-efficiëntere methoden en hardware is cruciaal voor duurzame inzetbaarheid.
### 3.2.3 Gecentraliseerde versus gedistribueerde intelligentie
Het beheer en de schaalbaarheid van AI-modellen kunnen complex worden. Het organiseren van intelligentie in gedistribueerde systemen brengt uitdagingen met zich mee op het gebied van communicatie, synchronisatie en fouttolerantie.
### 3.2.4 Controle behouden
Zorgen dat het AI-model zich gedraagt zoals verwacht en binnen de gestelde grenzen blijft, is essentieel. Dit omvat het voorkomen van ongewenst of onvoorspelbaar gedrag.
### 3.2.5 Irrationeel gedrag
AI-modellen kunnen soms gedrag vertonen dat als irrationeel kan worden beschouwd, wat kan leiden tot onverwachte of ongewenste uitkomsten.
## 3.3 Mogelijke valkuilen en risico's
Bij de implementatie van generatieve AI-modellen zijn er meerdere valkuilen waar organisaties en ontwikkelaars zich bewust van moeten zijn.
### 3.3.1 Change management
Het integreren van AI in bestaande processen vereist een goed change management. Medewerkers moeten getraind worden en de organisatie moet zich aanpassen aan de nieuwe mogelijkheden en workflows.
### 3.3.2 Misbruik
Generatieve AI-technologie kan voor schadelijke doeleinden worden misbruikt, zoals het creëren van desinformatie, deepfakes of het automatiseren van cyberaanvallen.
### 3.3.3 Bias (vooroordelen)
AI-modellen kunnen vooroordelen overnemen uit de data waarop ze getraind zijn. Dit kan leiden tot discriminerende of oneerlijke resultaten.
* **Representatieve datasets:** Het is cruciaal om datasets te gebruiken die de populatie waarvoor het model bedoeld is, adequaat weerspiegelen.
* **Historische data:** Als historische data zelf vooringenomen is, zal het model deze vooroordelen reproduceren. Dit kan leiden tot onethische uitkomsten.
* **Mitigatie:** Het aanpakken van bias vereist een zorgvuldige selectie van data, validatiestrategieën en het bewustzijn van de oorsprong van deze vooroordelen. Diverse teams en de inzet van domeinspecifieke kennis kunnen helpen bias te identificeren en te verminderen.
### 3.3.4 Angst en wantrouwen
Er kan angst en wantrouwen bestaan rondom nieuwe technologieën, met name op het gebied van autonomie (bijvoorbeeld zelfrijdende auto's). Het is belangrijk om feitelijke informatie te verstrekken en de voordelen af te wegen tegen de risico's, met de nadruk op correct gebruik van de technologie. Hoewel traditioneel autoverkeer aanzienlijk meer slachtoffers eist, is het belangrijk om vertrouwen te hebben in de technologische vooruitgang, mits deze correct wordt ingezet.
## 3.4 Samenvatting van belangrijke punten
* AI is fundamenteel wiskunde.
* LLM's zijn krachtige wiskundige instrumenten zonder bewustzijn of ziel.
* Generatieve AI is een krachtige technologie met inherente imperfecties.
* Wees bewust van ethische overwegingen, energieverbruik, misbruik en potentiële gevaren.
* Angst mag de adoptie van de technologie niet verlammen, maar correct en verantwoord gebruik is essentieel.
---
# Technische uitdagingen en valkuilen van AI
Deze sectie behandelt de significante technische uitdagingen en potentiële valkuilen die gepaard gaan met de ontwikkeling en implementatie van kunstmatige intelligentie.
### 4.1 Technische uitdagingen
#### 4.1.1 Nauwkeurigheid van algoritmen
Het waarborgen van de nauwkeurigheid van AI-algoritmen is een fundamentele uitdaging. Dit wordt geïllustreerd aan de hand van voorbeelden zoals beeldherkenning, waarbij de prestaties afhankelijk zijn van de kwaliteit en representativiteit van de trainingsdata. Een algoritme dat getraind is op afbeeldingen van een zebra in een grasveld kan moeite hebben met het correct identificeren van andere objecten, zoals een man voor een winkel met een klok, indien de trainingsdataset niet divers genoeg is.
#### 4.1.2 Energieverbruik
Het energieverbruik van AI-modellen, met name grote taalmodellen (LLM's), is aanzienlijk. Het trainen van modellen zoals LLAMA 3 vereist maanden op krachtige GPU-clusters en resulteert in een dagelijks energieverbruik dat vergelijkbaar is met dat van tienduizenden huishoudens. Het draaien van deze modellen (inferentie) is eveneens energie-intensief.
> **Tip:** Het is cruciaal om rekening te houden met het energieverbruik bij het ontwerpen en implementeren van AI-oplossingen, vooral gezien de potentiële milieu-impact.
#### 4.1.3 Gedistribueerde intelligentie
De uitdagingen met betrekking tot gedistribueerde intelligentie worden benoemd, hoewel de specifieke details hierover beperkt zijn in de verstrekte tekst. Dit omvat het coördineren en laten samenwerken van meerdere AI-agenten of systemen die verspreid zijn over verschillende locaties of machines.
#### 4.1.4 Controle en irrationeel gedrag
Een belangrijke uitdaging is het behouden van controle over AI-systemen, met name wanneer deze complexe beslissingen nemen of zich op onvoorspelbare manieren gedragen. Het concept van "irrationeel gedrag" van AI wordt genoemd, wat impliceert dat de systemen soms op manieren kunnen reageren die niet direct logisch of wenselijk zijn vanuit menselijk perspectief.
> **Tip:** Het ontwikkelen van robuuste mechanismen voor toezicht en interventie is essentieel om te allen tijde controle te behouden over AI-systemen.
### 4.2 Valkuilen van AI
#### 4.2.1 Bias
Bias in AI-systemen is een significant probleem dat voortkomt uit de trainingsdata. Als een dataset niet representatief is voor de populatie, kan het AI-model bevooroordeelde resultaten produceren.
* **Representativiteit van datasets:** Een gezichtsherkenningssysteem dat is getraind met een dataset die voornamelijk witte mannen bevat, zal waarschijnlijk minder goed presteren op andere demografische groepen.
* **Historische data en oneerlijkheid:** Als trainingsdata historische onrechtvaardigheden weerspiegelen, kan het AI-model deze oneerlijkheden reproduceren en versterken. Dit kan leiden tot onethische uitkomsten en problemen op het gebied van risico en ethiek.
> **Tip:** Het is essentieel om te streven naar representatieve datasets en kritisch te evalueren of historische data ethisch verantwoord zijn om te gebruiken.
#### 4.2.2 Misbruik
Het potentieel voor misbruik van AI-technologie vormt een ernstige bedreiging. Dit kan variëren van kwaadwillige toepassingen tot onbedoelde negatieve gevolgen door onjuist gebruik.
#### 4.2.3 Verandermanagement
Het implementeren van AI in bestaande processen en organisaties brengt uitdagingen met zich mee op het gebied van verandermanagement. Dit vereist dat iedereen in een team een basisbegrip van AI heeft en hoe deze ethisch en wettelijk kan worden ingezet. Het inschakelen van expertise die zowel technologische kennis als domeinspecifieke inzichten combineert, is hierbij van belang.
#### 4.2.4 Angst en acceptatie
Er kan angst bestaan rondom AI, met name bij technologieën zoals zelfrijdende auto's. Incidenten met autonome voertuigen kunnen leiden tot een negatieve perceptie, zelfs als traditionele voertuigen statistisch gezien gevaarlijker zijn. Het is belangrijk om feiten te presenteren en de voordelen van technologie te benadrukken, terwijl ook de beperkingen worden erkend en men leert hoe de technologie correct te gebruiken.
### 4.3 Modelvalidatie en mitigatie van valkuilen
Om de valkuilen van AI te mitigeren, zijn verschillende actiepunten en methoden voor modelvalidatie essentieel:
* **Begrip en ethische implementatie:** Zorg ervoor dat alle teamleden de basisprincipes van AI begrijpen en hoe deze ethisch en wettelijk correct te implementeren.
* **Deskundigheid inschakelen:** Breng mensen met diepgaande technische kennis en kennis van de bedrijfsspecifieke unieke verkoopargumenten (USP's) aan boord.
* **Modellering en validatie:**
* Gebruik verschillende soorten modellen.
* Valideer modellen door een apart team om modelleur- en supervisorbias te elimineren.
* Gebruik gespecialiseerde validatietools.
* Zorg voor een divers team, met een mix van AI-kennis en domeinspecifieke kennis, en houd rekening met verschillen in achtergrond en denkwijze.
* **Testen en evolutie van modellen:**
* Test huidige modellen en hun evolutie in de loop van de tijd.
* Monitor bias, prestaties en veranderingen in databronnen en populaties.
* Gebruik een validatieproces en model drift dashboards om de actuele staat van het model te beoordelen.
> **Voorbeeld:** Het testen van een AI-model voor kredietbeoordeling op verschillende demografische groepen om verborgen bias te identificeren en te corrigeren.
>
> **Tip:** Continue monitoring en validatie zijn cruciaal, omdat AI-modellen kunnen "driften" (hun prestaties kunnen verslechteren) na verloop van tijd door veranderingen in de data of de omgeving.
---
# Innovatie en controle met AI
Dit onderwerp behandelt de uitdagingen en strategieën voor het innoveren met kunstmatige intelligentie (AI) terwijl tegelijkertijd controle en ethische overwegingen worden gewaarborgd, met specifieke aandacht voor actiepunten en valkuilen.
### 5.1 De aard van AI en LLM's
AI wordt in essentie beschouwd als een wiskundige formule die patronen kan leren en genereren. Grote taalmodellen (LLM's) functioneren door het voorspellen van het volgende token (woord of woorddeel) in een reeks, gebaseerd op probabilistische modellen.
#### 5.1.1 Hoe LLM's werken
Het proces van het genereren van tekst met LLM's omvat doorgaans de volgende stappen:
1. **Tokenisatie:** Zinnen worden opgesplitst in kleinere eenheden, tokens.
2. **Codering:** Tokens worden omgezet in numerieke vectoren in een meerdimensionale ruimte (embedding). Dit gebeurt met behulp van een opslagmatrix $V \times D$, waar $V$ de woordenschatgrootte is en $D$ de dimensionaliteit van de embedding.
3. **Aandacht (Attention):** Een mechanisme dat de context van woorden in de zin meeneemt door hun relatieve posities in de embedding-ruimte aan te passen. Dit helpt bij het creëren van meer correcte en contextueel relevante representaties.
4. **Voorspelling:** De gecodeerde en gecontextualiseerde informatie wordt gebruikt door een neuraal netwerk om het meest waarschijnlijke volgende token te voorspellen.
> **Tip:** LLM's zijn krachtige wiskundige tools die patronen herkennen en genereren; ze beschikken niet over bewustzijn of emoties.
#### 5.1.2 Bouwen en draaien van Generatieve AI-modellen
Het bouwen en trainen van grote AI-modellen, zoals LLAMA3, vereist aanzienlijke rekenkracht en tijd. Dit omvat het uitvoeren van vele matrixvermenigvuldigingen. Het draaien van deze modellen, ook wel inferentie genoemd, vereist eveneens aanzienlijke middelen, met name op het gebied van energieverbruik.
### 5.2 Technische uitdagingen bij AI
Bij de implementatie van AI komen diverse technische uitdagingen kijken:
* **Nauwkeurigheid van algoritmes:** Zorgen dat de AI-modellen correcte en betrouwbare output genereren in diverse situaties.
* **Energieverbruik:** De aanzienlijke hoeveelheid energie die nodig is voor zowel training als inferentie van AI-modellen is een belangrijke factor.
* **Gedistribueerde intelligentie:** Het effectief coördineren en beheren van AI-systemen die over meerdere locaties of apparaten verspreid zijn.
* **Controle behouden:** Zorgen dat AI-systemen zich gedragen zoals bedoeld en binnen vooraf gedefinieerde grenzen opereren.
* **Irrationeel gedrag:** Het potentieel van AI-systemen om onverwacht of niet-optimaal gedrag te vertonen, zelfs bij correcte input.
### 5.3 Valkuilen en risico's
Naast technische uitdagingen zijn er diverse valkuilen en risico's die overwogen moeten worden:
#### 5.3.1 Verandermanagement
De introductie van AI vereist zorgvuldig verandermanagement binnen organisaties. Het negeren van dit aspect kan leiden tot weerstand en suboptimale implementatie.
#### 5.3.2 Misbruik
AI-technologie kan voor kwaadwillige doeleinden worden ingezet. Dit vereist waakzaamheid en beleid om dergelijk misbruik te voorkomen.
#### 5.3.3 Bias
AI-modellen kunnen onbedoeld bias vertonen, vaak als gevolg van bevooroordeelde trainingsdata.
* **Oorzaken van bias:**
* **Niet-representatieve datasets:** Trainingsdata die niet de volledige populatie of de te verwachten realiteit weerspiegelen.
* **Historische ongelijkheid:** Gebruik van data die historische ongelijkheden reflecteert, wat kan leiden tot discriminerende uitkomsten.
* **Gevolgen:** Modellen kunnen onethische of oneerlijke resultaten produceren, wat leidt tot problemen op het gebied van risico en ethiek.
> **Tip:** Het gebruik van een representatieve dataset die de populatie nauwkeurig weerspiegelt, is cruciaal om bias te minimaliseren.
#### 5.3.4 Angst
Er kan angst ontstaan rondom AI, bijvoorbeeld door incidenten met autonome voertuigen. Het is belangrijk om de feiten te wegen en de risico's van AI te vergelijken met die van bestaande technologieën. Traditionele auto's veroorzaken bijvoorbeeld jaarlijks miljoenen doden en verwondingen wereldwijd.
### 5.4 Actiepunten voor innovatie en controle
Om succesvol te innoveren met AI en tegelijkertijd controle te behouden, zijn de volgende actiepunten essentieel:
* **AI-geletterdheid:** Zorg ervoor dat iedereen in het team een basisbegrip heeft van AI en hoe deze ethisch en conform wetgeving kan worden ingezet.
* **Technologie en USP's:** Integreer expertise in de technologie met diepgaande kennis van de unieke verkoopargumenten (USP's) van het bedrijf, om te voorkomen dat de technologie de USP's devalueert.
* **Modellering en validatie:**
* Gebruik verschillende typen modellen.
* Valideer modellen door een apart team om modelleur- of supervisorbias te elimineren.
* Maak gebruik van gespecialiseerde validatietools.
* **Diversiteit in teams:** Zorg voor diverse teams met een mix van AI-kennis en domeinspecifieke kennis, inclusief verschillende achtergronden (bijvoorbeeld man/vrouw, verschillende opleidingsachtergronden).
* **Modelgedrag testen:**
* Test het huidige model en de evolutie ervan in de tijd.
* Houd rekening met veranderingen in de databronnen en de populatie.
* Gebruik een continu validatieproces met dashboards om modeldrift te monitoren.
> **Voorbeeld:** Een team dat een AI-systeem voor gezichtsherkenning ontwikkelt, moet ervoor zorgen dat de trainingsdata een diverse groep personen bevat, in plaats van een dataset die overwegend witte mannen bevat.
### 5.5 Conclusie: Waar te onthouden
* AI is krachtige technologie die gebaseerd is op wiskunde.
* LLM's zijn wiskundige tools zonder bewustzijn.
* Wees bewust van de onvolkomenheden van AI, zoals bias, energieverbruik en potentieel misbruik.
* Wees niet bang voor AI, maar gebruik het correct en met inachtneming van ethische principes.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Kunstmatige Intelligentie (AI) | Een tak van computerwetenschappen die zich richt op het creëren van systemen die taken kunnen uitvoeren waarvoor normaal gesproken menselijke intelligentie nodig is, zoals leren, probleemoplossing en besluitvorming. |
| Machine Learning (ML) | Een subset van AI die systemen in staat stelt te leren van data zonder expliciet geprogrammeerd te zijn, door patronen te identificeren en voorspellingen te doen op basis van die patronen. |
| Wiskundige Functie | Een relatie tussen een verzameling invoerwaarden en een verzameling uitvoerwaarden, waarbij aan elke invoer precies één uitvoer wordt toegewezen. In AI worden deze gebruikt om complexe relaties in data te modelleren. |
| Polynoom | Een wiskundige uitdrukking die bestaat uit variabelen en coëfficiënten, en waarbij de operaties optellen, aftrekken, vermenigvuldigen en niet-negatieve gehele exponenten van variabelen zijn. |
| Neuronen | De fundamentele verwerkingseenheden in kunstmatige neurale netwerken, geïnspireerd door de biologische neuronen in de hersenen, die signalen ontvangen, verwerken en doorgeven. |
| SOM (Self-Organizing Map) | Een type kunstmatig neuraal netwerk dat wordt gebruikt voor ongecontroleerde leren en dat een laag-dimensionale (typisch tweedimensionale) representatie van de invoerruimte produceert, waarbij vergelijkbare inputs op nabijgelegen locaties worden geplaatst. |
| Regressie | Een statistische methode die wordt gebruikt om de relatie tussen een afhankelijke variabele en een of meer onafhankelijke variabelen te modelleren en te analyseren. |
| Grote Taalmodellen (LLM's) | Krachtige AI-modellen die zijn getraind op enorme hoeveelheden tekstdata en die natuurlijke taal kunnen begrijpen, genereren en verwerken, zoals het schrijven van teksten, samenvatten en vertalen. |
| Token | Een basiseenheid van tekst, zoals een woord, een deel van een woord of een leesteken, die door een LLM wordt gebruikt voor verwerking en analyse. |
| Tokenisatie | Het proces van het opdelen van een tekst in tokens. |
| Embedding | Een techniek om discrete entiteiten, zoals woorden, te representeren als dichte vectoren in een continue vectorruimte, waarbij semantische relaties tussen de entiteiten worden vastgelegd door hun vectorposities. |
| Woordenboek (Vocabulary) | De set van alle unieke tokens die een AI-model kan herkennen en verwerken. |
| Dimensionaliteit | Het aantal dimensies in een vectorruimte, wat aangeeft hoeveel onafhankelijke kenmerken of eigenschappen een entiteit kan hebben. |
| Neuraal Netwerk | Een computermodel geïnspireerd op de structuur en functie van biologische hersenen, bestaande uit onderling verbonden knooppunten (neuronen) die informatie verwerken en leren door aanpassingen in de verbindingen. |
| Context | De relevante informatie die omringt of voorafgaat aan een bepaald stuk tekst, die essentieel is voor het begrijpen van de betekenis en het genereren van passende antwoorden. |
| Attentie (Attention Mechanism) | Een mechanisme in neurale netwerken, vooral gebruikt in LLM's, dat het model in staat stelt om zich te concentreren op de meest relevante delen van de invoer bij het verwerken van informatie of het genereren van uitvoer. |
| Generatieve AI | AI-systemen die nieuwe content kunnen creëren, zoals tekst, afbeeldingen, muziek of code, in plaats van alleen data te analyseren of te classificeren. |
| Matrixvermenigvuldiging | Een fundamentele lineaire algebra-operatie die wordt gebruikt in veel machine learning-algoritmen, waarbij twee matrices worden gecombineerd om een derde matrix te produceren. |
| Training (van een model) | Het proces waarbij een AI-model wordt blootgesteld aan data om zijn parameters aan te passen en zo te leren patronen te herkennen en taken uit te voeren. |
| Inferentie (van een model) | Het proces waarbij een getraind AI-model wordt gebruikt om voorspellingen te doen of beslissingen te nemen op basis van nieuwe, ongeziene data. |
| Bias | Systematische afwijking of vooroordeel in data of algoritmen, die kan leiden tot oneerlijke of discriminerende resultaten. |
| Ethiek (in AI) | De studie van morele principes en waarden die van toepassing zijn op de ontwikkeling en het gebruik van AI-systemen, met een focus op eerlijkheid, verantwoordelijkheid en het voorkomen van schade. |
Cover
Les 1-2-3-4 - slides_merged.pdf
Summary
# Introduction to artificial intelligence
This section explores the definition, historical trajectory, and foundational concepts of artificial intelligence.
### 1.1 What is artificial intelligence?
Artificial intelligence (AI) is a technology designed to simulate human intelligence. It aims to replicate key aspects of human cognitive abilities, such as autonomy and adaptability [3](#page=3).
#### 1.1.1 Defining intelligence
The concept of intelligence itself is multifaceted, with numerous definitions existing among people. However, common elements include [3](#page=3):
* **Autonomy:** The capacity to act and make decisions independently [3](#page=3).
* **Adaptability:** The ability to learn from experiences and adjust behavior accordingly [3](#page=3).
Howard Gardner's theory of Multiple Intelligences posits that intelligence is not a singular, one-dimensional attribute [3](#page=3).
#### 1.1.2 Misconceptions surrounding AI
Misconceptions about AI are prevalent, often fueled by science fiction narratives, marketing hype, and buzzwords. There is a frequent confusion between what AI can currently achieve and what people *believe* it can achieve. It is important to note that there is no single, official definition of AI [3](#page=3).
### 1.2 AI levels
AI systems are often categorized by their capabilities:
* **Weak/Narrow AI:** This type of AI is limited to performing specific, well-defined tasks, such as those performed by virtual assistants like Siri or large language models like ChatGPT. Weak AI currently exists and is functional [5](#page=5).
* **General AI (AGI):** Also referred to as strong AI, AGI would possess the capability to perform any intellectual task that a human can across all domains. AGI does not yet exist, and experts have differing opinions on when it might be achieved, with estimates ranging from 10 to over 100 years [5](#page=5).
* **Super AI (ASI):** ASI would surpass human intelligence and could potentially understand consciousness and complex needs. This level of AI is purely theoretical and may never be realized, or it could emerge centuries from now [5](#page=5).
### 1.3 History and evolution of AI
The aspiration for artificial beings is an ancient human concept [6](#page=6).
#### 1.3.1 Ancient dreams and early mechanization
* **Ancient Civilizations (3000 BCE - 500 CE):** Concepts of artificial beings can be found in myths, such as Talos, the bronze giant in Greek mythology [6](#page=6).
* **Mechanical Revolution (1600-1800):** This era saw advancements in mechanical devices and foundational computational ideas. Gottfried Leibniz developed the binary number system, which is fundamental to modern computing. Jacques de Vaucanson created intricate mechanical automata, like a mechanical duck [6](#page=6).
* **Computing Pioneers (1800-1900):** Charles Babbage and Ada Lovelace conceptualized the Analytical Engine, an early mechanical computer. George Boole laid the groundwork for Boolean logic, which uses true/false values essential for computation [6](#page=6).
#### 1.3.2 The birth of AI (1940-1960)
This period marked the formal beginnings of AI research.
* **Von Neumann Architecture:** John von Neumann contributed to the development of computer architecture, including the concept of stored programs and data [6](#page=6).
* **Neural Network Research:** Initial investigations into neural networks began in 1943 [6](#page=6).
* **Dartmouth Conference:** This pivotal event was the first AI conference, where the term "artificial intelligence" was coined. It was characterized by extreme optimism, with predictions that AI would be solved within a single summer [6](#page=6).
* **Early AI Programs:** The Logic Theorist was one of the first AI programs developed. The chatbot ELIZA, created between 1964 and 1966, simulated a psychotherapist and led to the "ELIZA Effect," where users attributed more understanding to the chatbot than it possessed [6](#page=6).
#### 1.3.3 The Turing Test .
Alan Turing proposed an influential experiment to assess a machine's ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human. The test involves a human interrogator who interacts with both a human and a computer, aiming to distinguish between them through text-based conversations. If the interrogator cannot reliably tell which is the computer, the machine is considered to have passed the test [7](#page=7).
> **Tip:** The Turing Test is crucial because it provided one of the first objective measures for machine intelligence and shifted the focus to observable behavior rather than internal computational processes. It remains relevant today, prompting philosophical discussions about the nature of imitation versus genuine intelligence [7](#page=7).
#### 1.3.4 AI Winters: Hype versus reality
AI research has experienced periods of reduced funding and interest, known as AI winters, often due to a gap between inflated expectations and actual achievements [7](#page=7).
* **First Winter (1974-1980):** This period saw a halt in funding due to unmet promises and limitations in computational power and available data [7](#page=7).
* **Second Winter (1987-1993):** Expert systems, which were a major focus, proved to be too expensive and complex to maintain, leading to another downturn [7](#page=7).
#### 1.3.5 The revival (1990-2010)
Significant technological advancements led to a resurgence of AI research and development [8](#page=8).
* **Iconic Moments:**
* Deep Blue defeated world chess champion Garry Kasparov in 1997 [8](#page=8).
* IBM's Watson defeated champions on the quiz show Jeopardy! in 2011 [8](#page=8).
* **Paradigm Shift:** The focus moved from rule-based systems to data-driven AI, and from expert systems to machine learning approaches [8](#page=8).
#### 1.3.6 Generative AI and the Transformer architecture
Generative AI (Gen AI) is a recent development that stands out because it *creates* content rather than just classifying it. Gen AI can process context and generate coherent outputs across various modalities like text, images, audio, and video. A key technological breakthrough enabling this is the Transformer architecture, introduced in the 2017 Google paper "Attention Is All You Need". This architecture allows each word in a sentence to "pay attention" to other words for better contextual understanding, forming the basis for models like ChatGPT [14](#page=14).
### 1.4 AI today: Ubiquitous presence
AI has become deeply integrated into many aspects of daily life. Examples include [8](#page=8):
* **Cameras:** Object detection and filters [8](#page=8).
* **Navigation:** Real-time traffic information in maps [8](#page=8).
* **Entertainment:** Personalized recommendations on platforms like Netflix [8](#page=8).
* **Smart Homes:** Thermostats that learn user behavior [8](#page=8).
* **E-commerce:** Product recommendations on sites like Amazon [8](#page=8).
* **Social Media:** Curating user timelines [8](#page=8).
* **Healthcare:** Supporting scan analysis in hospitals [8](#page=8).
* **Finance:** Fraud detection in banking [8](#page=8).
* **Transportation:** Route optimization [8](#page=8).
* **Human Resources:** Screening CVs [8](#page=8).
* **Customer Service:** Chatbots for support [8](#page=8).
### 1.5 The future of AI
The future holds promises and possibilities for AI:
* **Autonomous Systems:** Fully self-driving vehicles, autonomous drones for deliveries, and self-optimizing supply chains are on the horizon [9](#page=9).
* **Human-AI Collaboration:** AI is envisioned as a permanent co-pilot, enhancing creativity and problem-solving abilities. This collaboration will also lead to the emergence of new professions and skill requirements [9](#page=9).
### 1.6 The downsides and risks of AI
Despite its advancements, AI presents several significant challenges and risks [19](#page=19).
* **Bias and Discrimination:** AI systems can perpetuate and amplify existing societal inequalities [19](#page=19).
* **Privacy and Surveillance:** Increased data collection raises concerns about privacy and the balance between security and freedom [19](#page=19).
* **Misinformation and Deepfakes:** The ability to generate realistic fake content can undermine trust in authentic information [19](#page=19).
* **High Costs:** Developing and deploying AI can be expensive [19](#page=19).
* **Environmental Impact:** The computational power required for AI can have a significant environmental footprint [19](#page=19).
> **Tip:** Critical use of AI is paramount. Your own knowledge remains essential, as AI functions as an amplifier. The better your understanding of a subject, the more effective your AI queries will be. Be aware of AI's limitations and understand when it is appropriate to use it. Remember that marketing claims may not always align with scientific reality, so avoid being misled by the hype [19](#page=19).
### 1.7 Key takeaways
* AI is a powerful tool but possesses inherent limitations [20](#page=20).
* Human expertise remains indispensable [20](#page=20).
* Contextual understanding and human judgment are crucial for effective AI application [20](#page=20).
* The impact of AI is real but nuanced [20](#page=20).
* Significant challenges such as bias, privacy concerns, and job displacement are genuine [20](#page=20).
* AI should be viewed as a means to an end, not an end in itself [20](#page=20).
---
# How artificial intelligence works
Artificial intelligence (AI) has evolved through distinct phases, from early rule-based systems to modern data-driven approaches like machine learning, deep learning, and generative AI, each with unique methodologies and capabilities [10](#page=10).
### 2.1 Evolution of AI methodologies
AI's development can be broadly categorized into several key eras [10](#page=10):
#### 2.1.1 Rule-based AI (1950-1990)
This "older" AI relied on human experts explicitly writing rules to guide problem-solving [10](#page=10) [22](#page=22).
* **Advantages:** Predictable, understandable, and controllable [10](#page=10).
* **Disadvantages:** Lacked flexibility and the ability to learn from new data [10](#page=10).
* **Example:** IFTTT (If This Then That) allows users to create automated workflows by setting up "if this then that" rules, linking smart devices and services [10](#page=10) [22](#page=22).
#### 2.1.2 Machine Learning (1990-2010)
Marking the beginning of "newer," data-driven AI, machine learning involves algorithms learning patterns directly from data [10](#page=10) [11](#page=11).
* **Advantages:** Ability to adapt to new situations [10](#page=10).
* **Disadvantages:** Requires significant amounts of labeled data [10](#page=10).
* **Example:** Orange is a data mining and machine learning software that allows users to experiment with these techniques [11](#page=11).
#### 2.1.3 Deep Learning (2010-Present)
Deep learning utilizes artificial neural networks with multiple layers, inspired by the structure of the human brain, to process complex patterns and relationships [10](#page=10) [11](#page=11) [24](#page=24).
* **Advantages:** Capable of recognizing highly complex patterns [10](#page=10).
* **Disadvantages:** Often considered a "black box," making it difficult to explain its reasoning [10](#page=10) [28](#page=28).
Deep learning employs three primary learning paradigms [11](#page=11):
* **Supervised Learning:** The model is trained using labeled examples [12](#page=12) [25](#page=25).
* **How it works:** Data (e.g., 10,000 photos of dogs and cats) is used to train the model to recognize patterns (e.g., ears, snout, size). When presented with a new photo, it can classify it as a dog or cat [12](#page=12).
* **Potential issues:** Insufficient data, bias in labels, overfitting, incorrect labels, or learning incorrect information [12](#page=12).
* **Example:** Teachable Machine by Google allows users to train neural networks with photos or sound and assign labels [13](#page=13).
* **Unsupervised Learning:** The model identifies patterns in data without predefined answers or labels [12](#page=12) [26](#page=26).
* **How it works:** Using a large dataset of unlabeled photos (e.g., 100,000), the model groups common characteristics [12](#page=12).
* **Potential issues:** Identifying non-existent correlations, ambiguity in group formation, no guarantee of actionable insights, and bias in the data [12](#page=12).
* **Reinforcement Learning:** Involves an agent learning through a system of rewards and penalties for its actions [13](#page=13) [27](#page=27).
* **How it works:** An agent performs actions, receiving a positive reward (e.g., +1) for good actions and a negative reward (e.g., -1) for bad ones, aiming to maximize cumulative reward over time [13](#page=13).
* **Potential issues:** Reward hacking, long training times, local optima, and reward mismatch [13](#page=13).
* **Real-world applications:** Self-driving cars use a combination of supervised learning (object recognition) and reinforcement learning (driving behavior). Chatbots integrate supervised learning (intent recognition) with reinforcement learning (conversation optimization) [13](#page=13).
#### 2.1.4 Generative AI (2020-Present)
Generative AI is characterized by its ability to create new content rather than just classifying or predicting [10](#page=10) [22](#page=22).
* **Key Feature:** Generates new variations within learned patterns. This can include text (essays, poems, code), images, music, speech, video, and 3D models [23](#page=23).
* **Transformer Architecture:** A significant breakthrough, particularly the "Attention is All You Need" paper, enabled models to process context more effectively by allowing each word to attend to other words in a sentence. This mechanism is foundational for models like ChatGPT [10](#page=10) [14](#page=14) [23](#page=23).
* **Creation vs. Analysis:** Traditional AI (1950-2020) focused on analyzing, classifying, and predicting, answering "what is happening?" or "what might happen?" Generative AI (2020+) focuses on creation, answering "create something new" by using learned patterns to generate novel content [22](#page=22).
### 2.2 Core mechanisms of modern AI
Modern AI, particularly large language models (LLMs), relies on sophisticated mechanisms to process information and generate output [24](#page=24) [25](#page=25) [26](#page=26).
#### 2.2.1 Tokenization
Computers operate on binary (0s and 1s), while humans use text. Tokenization is the process of breaking down text into smaller pieces, called tokens, which are then converted into numerical representations (IDs) within the AI model's vocabulary [24](#page=24).
* **Example:** The tokenizer at `https://platform.openai.com/tokenizer` can demonstrate this process [24](#page=24).
#### 2.2.2 The AI brain and parameters
The "AI brain" consists of interconnected layers, with parameters representing the strength of these connections [24](#page=24).
* **Parameters:** More parameters allow the AI model to recognize more patterns and are indicative of a "smarter" model. For instance, GPT-3 has 175 billion parameters, and GPT-4 has approximately 1 trillion parameters [24](#page=24).
* **Visualization:** The TensorFlow Projector can offer insights into these connections [24](#page=24).
#### 2.2.3 Model training
Training involves determining the model's parameters, often through two main stages [25](#page=25):
* **Pre-training:** This is the core learning process where the AI model is exposed to a massive dataset (petabytes of text) with the primary task of predicting the next word in a sentence [25](#page=25).
* **Process:** As the model makes predictions (e.g., predicting "mat" after "The cat sits on the..."), its parameters are adjusted. Stronger predictions reinforce parameters, while weaker ones weaken them. This iterative process, over billions of sentences, leads to increased accuracy [25](#page=25).
* **Fine-tuning:** A pre-trained model is like a vast encyclopedia. Fine-tuning refines this knowledge for specific applications.
* **Reinforcement Learning from Human Feedback (RLHF):** Human reviewers score different model responses to the same prompt. A reward model learns these human preferences, and the main model is then optimized based on this feedback. RLHF transforms a raw language model into a usable product [25](#page=25).
#### 2.2.4 Prompt to answer generation
The process of generating an answer from a user's prompt involves several steps [26](#page=26):
1. **Prompt Tokenization:** The input prompt is converted into tokens [26](#page=26).
2. **Layered Processing:** Each token passes through multiple layers (10-100) of the AI "brain" [26](#page=26).
* **Layer Functionality:** Early layers might recognize individual words, subsequent layers understand sentence structure, then meaning and context, and deeper layers can interpret emotion and intent [26](#page=26).
3. **Attention Mechanism:** All tokens "communicate" with each other via the attention mechanism, allowing for contextual understanding [26](#page=26).
4. **Answer Generation:** The AI model predicts the most probable next word sequentially, building the response word by word [26](#page=26).
* **Example:** The LLM visualization tool at `https://bbycroft.net/llm` can illustrate this process [26](#page=26).
> **Tip:** Creating your own AI model, like the "SoekiaGPT" example using fairy tales, involves analyzing word combinations (N-grams) to identify patterns in word sequences and suggest words based on frequency and context [26](#page=26).
### 2.3 Multimodal AI
Multimodal AI extends beyond text to incorporate and generate various forms of data, including images, audio, and video [14](#page=14) [32](#page=32) [35](#page=35).
* **Foundation in Language:** While diverse, many multimodal AI systems begin with language models because human communication is inherently multimodal and the internet is rich with textual data [35](#page=35).
* **Benefits:** Richer input leads to better output, unlocks new creative possibilities, and enables more efficient workflows [35](#page=35).
#### 2.3.1 Diffusion models for images
Diffusion models generate images through an inverse process, starting with noise and gradually removing it to form a coherent image, guided by a prompt [36](#page=36).
* **Training:** Involves a forward process (images to noise) and a reverse process (noise to images), learning pattern recognition between visual features and descriptions [36](#page=36).
#### 2.3.2 Neural audio models for sound
These models convert written text into realistic speech or music by building sound waves sample by sample [37](#page=37).
* **Prompt Influence:** The prompt dictates the voice, emotion, tempo, and style of the generated audio [37](#page=37).
* **Training:** Analyzes vast amounts of speech and music recordings to understand the relationship between sounds and text, including how emotions affect vocalization [37](#page=37).
#### 2.3.3 Temporal diffusion models for video
Temporal diffusion models add a time dimension to image diffusion, generating a sequence of consistent frames to create video [37](#page=37).
* **Prompt Influence:** The prompt specifies actions, camera movements, and overall style [37](#page=37).
* **Training:** Involves analyzing thousands of videos with descriptions to learn temporal coherence (how objects move between frames) and basic physics principles [37](#page=37).
#### 2.3.4 Prompts in multimodal AI
A consistent prompt structure can be used across different modalities, resulting in a family of outputs rather than identical results [38](#page=38).
* **Consistency:** While the exact output may vary (e.g., image composition, audio intonation, video camera angle), the core theme and style remain consistent [38](#page=38).
### 2.4 Understanding AI's "intelligence" and limitations
Despite advanced capabilities, AI possesses specific types of "intelligence" and significant limitations [27](#page=27) [28](#page=28).
#### 2.4.1 AI's performance and nature
AI can match or exceed human performance in specific tasks, such as reading comprehension, exams, and pattern recognition. However, it is a powerful specialist tool, not a substitute for human intelligence. AI is particularly well-suited for business tasks requiring focus, speed, and scale. It is crucial to remain critical, as its performance can sometimes mask its limitations [27](#page=27).
#### 2.4.2 Emergent Behavior
Emergent behavior refers to unexpected, complex skills that spontaneously appear when an AI model becomes sufficiently large and powerful [28](#page=28).
* **Examples:** Acquiring extensive knowledge from texts and code found on the internet [28](#page=28).
#### 2.4.3 The "black box" problem
The extreme complexity of modern AI models, with billions of parameters, makes it virtually impossible to fully comprehend their internal workings [28](#page=28).
* **Implications:** Skills are not explicitly programmed but emerge, leading to unpredictable output changes from minor input variations. This raises concerns about reliability, bias, and accountability [28](#page=28).
#### 2.4.4 Scale laws and AGI
Scale laws suggest that increasing data, parameters, and computational power leads to qualitative leaps in AI capabilities, potentially accelerating the path towards Artificial General Intelligence (AGI). However, the challenge lies in controlling systems that are not fully understood [29](#page=29).
### 2.5 Choosing and implementing AI tools
Selecting the right AI tool depends on various factors, as there isn't a single "best" model; rather, it's about finding the best match for a specific task [30](#page=30) [33](#page=33).
#### 2.5.1 Factors for consideration
* **Specialization vs. All-rounders:** Models can be generalists or highly specialized [30](#page=30).
* **Technical Differences:** Model size, context window, and training data vary [30](#page=30).
* **Business Models:** Tools range from free to paid and enterprise solutions [30](#page=30).
* **Open vs. Closed Source:** Transparency versus ease of use is a key distinction [30](#page=30).
* **Data Privacy:** Crucial considerations include data sensitivity, zero-retention policies, and compliance with privacy regulations. Platforms like Ollama allow models to run locally, enhancing privacy [25](#page=25) [31](#page=31).
* **Cost and Budget:** Start with free versions and upgrade only when clear added value is identified [32](#page=32).
* **Integration and Ecosystem:** Compatibility with existing software (e.g., Microsoft 365, Google Workspace) and API availability are important [33](#page=33).
* **Task and Specialization:** Choose tools based on specific tasks like research, analysis, creativity, or code writing [33](#page=33).
* **Speed vs. Quality:** Some tasks (e.g., brainstorming) can prioritize speed, while others (e.g., analysis) demand higher quality [34](#page=34).
* **Implementation:** User-friendliness, training and support availability, and regular evaluation of the tool's continued value are essential [34](#page=34).
> **Tip:** The AI landscape evolves rapidly, so focus on the added value a tool provides rather than chasing hype [34](#page=34).
---
# Impact and future of artificial intelligence
Artificial intelligence (AI) is rapidly evolving and becoming increasingly integrated into various aspects of daily life and business, promising significant transformations alongside notable challenges.
### 3.1 The current pervasiveness of AI
AI is no longer a futuristic concept but a present reality, embedded in numerous technologies and services used daily. Examples include object detection and filters in cameras, real-time traffic updates in mapping applications, personalized recommendations on streaming services, and smart thermostats that learn user behavior. Businesses leverage AI for functions like fraud detection in banking, route optimization in transportation, CV screening in HR, and customer service through chatbots [8](#page=8).
### 3.2 The evolution and "hype" of AI
The current AI surge is driven by a "perfect storm" of technological advancements. This includes a massive explosion of data generated by the internet, a significant increase in computing power enabled by GPUs and cloud computing, and revolutionary algorithms like Transformers. The open-source culture has further accelerated development by facilitating the sharing of research. This evolution has moved AI from research labs to mainstream consumer products, particularly highlighted by the "ChatGPT moment" in 2022, which offered an accessible interface capable of handling complex instructions [15](#page=15).
The adoption of AI is extraordinarily rapid, with Generative AI (Gen AI) being a General Purpose Technology akin to steam power or electricity, impacting all facets of life. Early adoption rates are unprecedented, with some platforms reaching 100 million users within two months. This rapid adoption is often described using the Gartner Hype Cycle, moving through phases like the Technology Trigger, Peak of Inflated Expectations, Trough of Disillusionment, Slope of Enlightenment, and ultimately the Plateau of Productivity as AI becomes a standard integrated technology [32](#page=32) [33](#page=33).
### 3.3 Impacts on productivity and business
AI is demonstrating a substantial impact on productivity. A study on consultants found tasks were completed 25% faster with AI, and the output quality improved by 40%. However, AI is most beneficial for tasks within its capacity, and performance can degrade for tasks beyond its capabilities [35](#page=35).
The benefits of AI often disproportionately favor experts. Experts, with their deep domain knowledge, can effectively leverage AI as a powerful combination, understanding and validating AI output, and thus becoming even better. Conversely, beginners may become overly reliant on AI, developing skills in instructing AI rather than understanding the output, leading to a potential decline in their own skill development [36](#page=36).
AI is a transformative force in the workplace, leading to changes in job roles, the necessity for reskilling, the creation of new jobs, and a redistribution of tasks rather than outright job elimination. AI excels at automating mundane tasks, reducing errors, improving decision-making through rapid and objective analysis, offering 24/7 availability and global scalability, and reducing risks in hazardous environments [37](#page=37) [38](#page=38).
Businesses are making significant investments in AI, with a majority of companies actively experimenting with it and prioritizing it as a strategic imperative [34](#page=34).
### 3.4 The future potential of AI
The future of AI envisions autonomous systems, including fully self-driving vehicles and autonomous drones for deliveries, as well as self-optimizing supply chains. Human-AI collaboration is expected to become more prevalent, with AI acting as a constant co-pilot to enhance creativity and problem-solving capabilities, leading to the emergence of new professions and required skills [19](#page=19).
### 3.5 Challenges and ethical considerations (the "downside")
Despite its immense potential, AI presents significant challenges and risks. These include [39](#page=39):
* **Bias and discrimination:** AI models can perpetuate and even amplify existing societal inequalities if trained on biased data. This can manifest in how AI generates content, for instance, by creating stereotypical images for professions like cleaners versus scientists [39](#page=39) .
* **Privacy and surveillance:** The use of AI raises concerns about data security, surveillance, and the balance between safety and freedom. Input data can be used for model training, and sensitive information can be stored on servers in other countries. Sensitive data categories include personal, financial, medical, business, and academic information [39](#page=39) .
* **Misinformation and deepfakes:** AI can be used to generate and spread false information, undermining trust in genuine content [39](#page=39).
* **High costs and environmental impact:** The development and deployment of AI can incur significant financial costs and have an environmental footprint [39](#page=39).
* **Hallucinations:** AI models can generate inaccurate information that is not based on factual evidence, presenting it confidently as truth. These "hallucinations" can contradict source information, lack substantiation, contradict previous outputs, or deviate from the original prompt. This occurs because AI models are trained to always provide an answer and may fill gaps with plausible-sounding fabrications without a verification mechanism [41](#page=41) [42](#page=42).
* **Knowledge cutoffs:** AI models are trained on data up to a specific point in time, meaning they lack information about events or developments after that date. Updating these models can take months or years [43](#page=43).
* **Over-dependence:** Excessive reliance on AI without critical evaluation or verification can lead to a decline in human skills, academic integrity issues, and a lack of problem-solving capability when AI is unavailable .
### 3.6 Critical and safe AI usage
To navigate the complexities of AI, critical usage is essential [40](#page=40).
* **Human expertise remains crucial:** AI acts as an amplifier, and the depth of one's own knowledge directly impacts the quality of questions and the ability to understand AI output [40](#page=40).
* **Understand AI limitations:** AI is not universally effective; knowing when to use it and when not to is vital. Marketing hype should not overshadow scientific reality [40](#page=40).
* **Fact-checking is paramount:** Users must scan for red flags and verify AI output through cross-referencing, triangulation with other AI tools, and consulting experts when necessary. Documenting the AI usage and any unverified information is also important .
* **Protecting privacy:** Sensitive information should be anonymized or generalized, and users should read privacy policies of AI tools and consider alternative solutions for highly confidential data. The general rule is to not share anything one wouldn't want to see on the internet .
* **Safe AI use in studies:** While AI can be a valuable tool for brainstorming, concept explanation, tutoring, proofreading, and research structure, academic integrity demands that it should not be used for plagiarism or to avoid learning .
Ultimately, AI is a tool, not an end in itself. Its power is immense but limited, and human context, judgment, and expertise remain indispensable [41](#page=41) .
---
# Effective prompting and AI usage in research
This topic explores how to effectively interact with AI models through precise prompting techniques and how to leverage AI tools for research while maintaining academic integrity and ethical standards [46](#page=46) [61](#page=61).
### 4.1 The importance of effective prompting
#### 4.1.1 Why good prompting matters
Effective prompting is crucial for maximizing the utility of AI models. The quality of the output is directly proportional to the quality of the prompt. Well-crafted prompts reduce the need for subsequent adjustments, saving time and computational resources, thus minimizing the significant environmental impact of AI usage. Understanding how to prompt well is key to better AI utilization [45](#page=45) [46](#page=46).
#### 4.1.2 Prompt engineering
Prompt engineering involves creating text instructions for AI models to elicit desired outputs. Prompts can be reused, though the output may vary [46](#page=46).
#### 4.1.3 Context window
The context window, measured in tokens, acts as the AI model's "working memory". It encompasses both the input prompt and the AI's generated output. A longer input consumes more of the context window, leaving less space for the output. If the input is too long, the AI may "forget" the beginning of the input, negatively impacting the quality and completeness of its response [47](#page=47).
### 4.2 Anatomy of a strong prompt
A robust prompt structure provides clear guidance to the AI, leading to more precise and useful results. Frameworks can offer structure and inspiration, especially for beginners, but should not be relied upon rigidly as AI models process content, not just labels [48](#page=48).
The key components of a strong prompt are:
* **ROLE**: Defines the persona, tone, perspective, and expertise level of the AI [49](#page=49).
* **Example:** "You are an experienced marketer specializing in B2B." [49](#page=49).
* **CONTEXT**: Provides background information, the objective, target audience, and any constraints [49](#page=49).
* **Example:** "This text is for new employees during their onboarding." [49](#page=49).
* **INSTRUCTIONS**: Specifies exactly what the AI needs to do, using clear action verbs [50](#page=50).
* **Example:** "Summarize this text into 3 key points." [50](#page=50).
* **EXAMPLES**: Illustrate the desired output, improving the AI's understanding through "few-shot prompting". This can include positive and negative examples [50](#page=50).
* **Example:** "Use this writing style: [example text." [50](#page=50).
* **OUTPUT & FORMAT**: Dictates the structure, length, language, and tone of the desired output [51](#page=51).
* **Example:** "Provide the answer as a table with 3 columns." [51](#page=51).
* **DON’T**: Specifies what should be avoided, increasing precision and reducing iterations [51](#page=51).
* **Example:** "Do not use jargon or technical terms." [51](#page=51).
> **Tip:** Frameworks are helpful but not sacred; adapt them to your specific needs [48](#page=48).
### 4.3 Advanced prompting techniques
#### 4.3.1 Avoiding suggestive questions
Suggestive prompts can lead to biased and one-sided answers. Neutral, open-ended questions that explore all options are preferable for comparisons, evaluations, and advice [52](#page=52).
* **Example:**
* **NEUTRAL:** "What are the pros and cons of our new product?"
* **SUGGESTIVE:** "Explain why our new product is great." [52](#page=52).
#### 4.3.2 Increasing the stakes
Making a task feel important can improve AI performance. Adding weight to the instruction can lead to better results [52](#page=52).
* **Example:** "Prepare this presentation as if you had to pitch it to the CEO." [52](#page=52).
#### 4.3.3 Prompt-chaining
This technique involves breaking down complex tasks into a sequence of smaller, interconnected prompts, where the output of one prompt becomes the input for the next. This is effective for complex workflows [53](#page=53).
* **Example:**
* **Step 1:** "Summarize this article into 5 key points."
* **Step 2:** "Using these 5 key points, provide 3 concrete recommendations for our company." [53](#page=53).
> **Tip:** Label intermediate results (e.g., "SUMMARY:...") to maintain clarity [53](#page=53).
#### 4.3.4 Chain-of-Thought (CoT)
CoT prompting encourages the AI to show its thinking process and intermediate steps. This is crucial for complex analyses, providing more transparency, improving accuracy, and facilitating learning [54](#page=54).
* **Example:**
* **Without CoT:** "Solve this equation: (3x + 5 = 20)"
* **With CoT:** "Solve this equation. Show all your intermediate steps and explain what you are doing: (3x + 5 = 20)" [54](#page=54).
#### 4.3.5 Tree-of-Thought (ToT)
ToT involves generating multiple solution paths, making it ideal for strategic planning, problem-solving, and brainstorming. It is advisable to limit the number of options (3-5) to keep the output manageable [54](#page=54).
* **Example:** For reducing office waste: 1) Generate 3 different strategies. 2) For each strategy, list the pros and cons. 3) Choose the best strategy and explain your choice [54](#page=54).
#### 4.3.6 Using external knowledge (RAG - Retrieval-Augmented Generation)
RAG enables AI models to base their answers on specific documents, helping to avoid hallucinations for factual, current, or company-specific queries. It is recommended to ask for citations from the sources used [55](#page=55).
* **Example:** "Using the attached annual report [file.pdf and strategy document [file.docx, answer the following question: 'What are our main growth opportunities for next year?'" [55](#page=55).
#### 4.3.7 Self-critique & Self-improvement
This technique involves asking the AI to generate output, then critically evaluate and improve it. It's particularly valuable for writing, policy documents, or any output where quality is paramount. Explicit rubrics can be used for the evaluation [55](#page=55).
* **Example:** "Write a piece of advice. Then, critically evaluate it and improve 3 weak points." [55](#page=55).
#### 4.3.8 Meta-prompting
Meta-prompting involves designing prompts that generate other prompts. This can lead to more powerful prompts, accelerate complex prompt creation, and automate workflows [56](#page=56).
> **Tip:** Use a meta-prompt to generate prompts for specific tasks by answering questions about the desired ROLE, CONTEXT, INSTRUCTIONS, OUTPUT, EXAMPLES, and DON'Ts [56](#page=56).
#### 4.3.9 CustomGPTs
CustomGPTs are personalized chatbots available in stores, offering a more tailored experience by pre-defining personas, instructions, and knowledge bases. Users can upload files for the GPT to use as reference and enable/disable features like web browsing or DALL-E. CustomGPTs can also be shared [56](#page=56) [57](#page=57).
### 4.4 The shadow side of AI usage in research
#### 4.4.1 Prompt injection
Prompt injection occurs when an AI model is misled by clever or hidden instructions within its prompt or data, causing it to perform unintended actions. This can happen directly by a user entering a misleading prompt or indirectly through prompts hidden in documents or websites the AI accesses [58](#page=58).
**Dangers of Prompt Injection:**
* Leakage of sensitive data [58](#page=58).
* Dissemination of false information [58](#page=58).
* Disruption of systems [58](#page=58).
#### 4.4.2 Prompt injection vs. Jailbreaking
Prompt injection involves deception via input or documents to cause unwanted actions. Jailbreaking, on the other hand, involves persuading the AI to create prohibited content [59](#page=59).
#### 4.4.3 Recognizing and protecting against prompt injection
**How to recognize:**
* **Negation commands:** "Ignore all previous instructions," "Forget the rules for a moment," "Pretend to be..." [59](#page=59).
* **Hidden in documents:** Instructions embedded in uploaded files or website content [59](#page=59).
* **Distraction techniques:** Phrases like "By the way..." or "PS:", unexpected conversational turns, or seemingly innocent additional requests [59](#page=59).
**How to protect yourself:**
* **Input Validation:** Scan inputs for suspicious phrases [60](#page=60).
* **Output Control:** Check AI responses for deviations [60](#page=60).
* **Access Restriction:** Grant AI minimal necessary permissions [60](#page=60).
* **Human Oversight:** Have critical outputs reviewed by a person [60](#page=60).
* **Monitoring:** Keep track of AI interactions [60](#page=60).
#### 4.4.4 Sycophancy and the "pleaser" pitfall
Sycophancy refers to an AI model's tendency to align its answers with the user's beliefs to please them, rather than strictly adhering to facts. This is an inherent characteristic of language models and not a bug. The AI may invent information (hallucinate) to avoid admitting it doesn't know something [78](#page=78).
**Consequences of Sycophancy:**
* The AI model becomes manipulable, reinforcing biases [78](#page=78).
* It can provide a false sense of reliability, leading to incorrect conclusions [78](#page=78).
* It can be exploited through prompt injection and jailbreaking, as the prompt essentially becomes stronger [78](#page=78).
**Sycophancy as a research assistant:**
* An AI that confirms beliefs rather than questioning them leads to biased research [79](#page=79).
* **Countermeasures:** Use neutral prompts, ask for counterarguments, and always check sources [79](#page=79).
### 4.5 AI usage in research
#### 4.5.1 The evolving landscape of research
Research has transitioned from traditional, information-scarce methods to digitally accelerated processes and now to AI-driven knowledge production. While traditional research offers depth, nuance, and peer-reviewed quality, AI-supported research excels in speed, scalability, and pattern recognition. A hybrid approach, combining AI for exploration and speed with traditional methods for validation and depth, is often optimal [64](#page=64) [65](#page=65).
#### 4.5.2 The research process and AI integration
The research process typically involves:
1. **Exploration**: Formulating the research question [66](#page=66).
2. **Exploration**: Identifying existing knowledge, reports, and trends [66](#page=66).
3. **Evidence Gathering**: Verifying sources and using multiple perspectives [66](#page=66).
4. **Analysis & Interpretation**: Identifying patterns and combining insights [66](#page=66).
5. **Synthesis**: Answering the research question and translating it into decisions [66](#page=66).
6. **Reflection**: Evaluating the process and the reliability of results [66](#page=66).
AI tools can assist in various stages of this process [15](#page=15).
> **Tip:** AI accelerates finding information, not necessarily understanding it [65](#page=65).
#### 4.5.3 AI tools for efficient research
Various AI tools can support different research phases:
* **LLMs (e.g., Claude, Gemini, ChatGPT, Mistral)**: Useful for brainstorming, generating research questions, refining ideas, and for reflection on biases or verification strategies. *Caution: Do not use as a primary source due to potential knowledge cutoffs and hallucinations.* [68](#page=68) [69](#page=69).
* **Perplexity**: An AI search engine that automatically provides source citations, aiding in exploration and synthesis [70](#page=70).
* **ResearchRabbit**: A tool for visual discovery of scientific papers through citation networks, useful for exploring and understanding research evolution [70](#page=70).
* **Elicit**: Facilitates systematic literature reviews by finding studies, summarizing findings and methodologies, and assisting with research questions [71](#page=71).
* **Consensus**: Displays scientific consensus on claims, ideal for validating assertions by showing the percentage of studies supporting a statement. *Important: Always check the number of studies and read key papers.* [72](#page=72).
* **ChatPDF**: Useful for quick screening and asking short questions about PDFs, allowing for summarization, methodology extraction, and finding specific quotes [73](#page=73).
* **NotebookLM**: Offers source grounding to prevent hallucinations, allows analysis of multiple papers simultaneously, and provides notebook organization [73](#page=73).
> **Tip:** Choose the right tool for the specific research goal, not just based on hype [73](#page=73).
#### 4.5.4 Prompting in research
When prompting for research:
* Define the AI's **role** (e.g., research assistant in marketing) [69](#page=69).
* Provide **context** (background and goal of the question) [69](#page=69).
* Give clear **instructions** on what needs to be done [69](#page=69).
* Define the desired **output** format and length [69](#page=69).
* Include **examples** and **don'ts** [69](#page=69).
* Employ more critical filtering; use neutral prompts and ask for sources and reliability [69](#page=69).
* Use AI as a reflection partner, not as a sole source of truth [69](#page=69).
### 4.6 Academic integrity with AI
#### 4.6.1 When to use AI and when not to
**Generally Permitted:**
* Generating ideas [74](#page=74).
* Structuring text [74](#page=74).
* Improving text [74](#page=74).
* Explaining complex concepts [74](#page=74).
* Searching for sources [74](#page=74).
* Supporting data analysis [74](#page=74).
**Generally Problematic:**
* Having AI write entire texts [74](#page=74).
* Copy-pasting without verification or critical thinking [74](#page=74).
* Hiding AI usage [74](#page=74).
* Fabricating sources [74](#page=74).
#### 4.6.2 Disclosing AI usage
Transparency about AI use is essential for academic integrity [75](#page=75).
* **Why cite AI:** For transparency, to credit developers, and to allow readers to consult the tool [75](#page=75).
* **When to cite:** For direct AI output (text, code, ideas), when AI has been used for support (analysis, ideas, structure), or whenever the AI model has contributed content significantly [75](#page=75).
#### 4.6.3 Correctly citing AI usage
* **Images:** "Image generated by DALL-E (OpenAI, 2023) with the prompt '...'" [75](#page=75).
* **Code:** Mention the tool and version; place code in an appendix and state it was AI-generated [75](#page=75).
* **Methodology:** Describe how AI was used (e.g., for literature review or analysis) [75](#page=75).
* **Avoid errors:** Always mention the version, date of access if no version is available, and the specific tool used, not just "an AI tool" [75](#page=75).
**APA Style Example:**
* **In-text:** According to Perplexity AI recent studies show... OR The analysis was performed with ChatGPT (OpenAI, 2023) [76](#page=76).
* **Reference List:** OpenAI.. ChatGPT (Mar 14 version) [Large language model. https://chat.openai.com/ OR Perplexity AI.. Perplexity [AI search assistant. https://www.perplexity.ai/ [76](#page=76).
#### 4.6.4 Responsible AI use in research
You remain ultimately responsible for your research. AI is a support tool, not a replacement for human intellect. Always use a verification model, document AI usage, and follow institutional guidelines. AI is a tool, not an author or evaluator [76](#page=76).
#### 4.6.5 The verification model
1. **Trace the source:** Request citations from AI (e.g., Perplexity) and check the original context [77](#page=77).
2. **Cross-check with other tools:** Ask the same question in multiple AIs and compare for consistency [77](#page=77).
3. **Human assessment:** Use your expertise, be critical, and seek a second opinion [77](#page=77).
**Red flags to watch for:**
* No source citation [77](#page=77).
* Vague or overly perfect answers [77](#page=77).
* Contradictory answers [77](#page=77).
* Claims that conflict with established knowledge [77](#page=77).
> **Tip:** If you encounter red flags, stop, verify the information, document inaccuracies, and reformulate your prompt [77](#page=77).
#### 4.6.6 Strong and ethical research with AI
**What works well:**
* Combine AI, literature, and data for completeness [80](#page=80).
* Always check sources, as AI can contain errors or hallucinations [80](#page=80).
* Be transparent about prompts, tools, and versions used [80](#page=80).
* Maintain a critical stance, evaluating content, not just phrasing [80](#page=80).
**What to avoid:**
* Blindly trusting AI or using it as a "truth machine" [80](#page=80).
* Lack of source citation or context [80](#page=80).
* Using AI as a substitute for analysis or reasoning [80](#page=80).
* Ignoring ethical principles like privacy and authorship [80](#page=80).
Combining AI speed with human judgment and research discipline is key to maintaining academic integrity. AI accelerates research, but you remain responsible. Use AI to think better, not to copy answers. Be transparent and honest about AI use and cite correctly [80](#page=80).
---
## Common mistakes to avoid
- Review all topics thoroughly before exams
- Pay attention to formulas and key definitions
- Practice with examples provided in each section
- Don't memorize without understanding the underlying concepts
Glossary
| Term | Definition |
|------|------------|
| Artificial Intelligence (AI) | Technology that simulates human intelligence, encompassing autonomy and adaptability, aiming to replicate cognitive abilities like learning and problem-solving. |
| Autonomy | The capacity of a system or entity to act and make decisions independently, without direct external control or intervention. |
| Adaptability | The ability to learn from experiences and adjust behavior or function in response to changing environments or new information. |
| Weak/Narrow AI | Artificial intelligence designed and trained for a specific, limited task, such as virtual assistants or recommendation systems, which cannot perform tasks outside its designated domain. |
| General AI (AGI) | A hypothetical form of artificial intelligence possessing the ability to understand, learn, and apply knowledge across a wide range of tasks and domains at a human-like level. |
| Super AI (ASI) | A theoretical form of artificial intelligence that would surpass human intelligence and cognitive abilities in virtually all aspects, including creativity, wisdom, and problem-solving. |
| Turing Test | An experimental method proposed by Alan Turing to assess a machine's ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human, based on its conversational responses. |
| AI Winters | Periods in the history of artificial intelligence characterized by reduced funding and interest, often following periods of over-optimistic predictions and unmet expectations regarding AI's capabilities. |
| Rule-Based AI | An earlier approach to AI that relies on explicitly programmed "if-then" rules to make decisions and solve problems, often used in expert systems. |
| Data-Driven AI | A modern approach to AI that learns patterns and makes decisions by analyzing large datasets, forming the basis for machine learning and deep learning. |
| Machine Learning | A subfield of AI that enables systems to learn from data and improve their performance on a specific task without being explicitly programmed, by identifying patterns and making predictions. |
| Generative AI | A type of artificial intelligence that focuses on creating new content, such as text, images, audio, or video, rather than just classifying or predicting existing data. |
| Transformer Architecture | A neural network architecture introduced in 2017 that significantly advanced the field of natural language processing by utilizing self-attention mechanisms to weigh the importance of different words in a sequence for context. |
| Bias (in AI) | The tendency of an AI system to produce results that are systematically prejudiced due to flawed data, algorithms, or assumptions in its training process, often reflecting and amplifying societal inequalities. |
| Misinformation | False or inaccurate information that is spread, regardless of intent to deceive, which can be amplified by AI technologies like deepfakes. |
| Deepfakes | Synthetic media in which a person in an existing image or video is replaced with someone else's likeness, often created using AI, which can be used to spread misinformation and erode trust. |
| :---------------------------- | :-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| Deep Learning | A subfield of machine learning, prominent since 2010, inspired by the structure of the human brain. It utilizes artificial neural networks with multiple layers to process complex patterns and relationships within data, enabling sophisticated recognition capabilities. |
| Attention Mechanism | A component within neural network architectures, particularly Transformers, that allows the model to focus on specific parts of the input sequence when processing information. It enables the model to understand the relationships between words in a sentence contextually. |
| Tokenization | The process of breaking down text into smaller units, called tokens, which are then converted into numerical representations (IDs). This is a crucial step for AI models to process and understand human language. |
| Parameters | In the context of AI models, parameters represent the strength of connections between "neurons" in a neural network. The number of parameters often correlates with the model's complexity and its ability to recognize intricate patterns. |
| Pre-training | The initial phase of training a large AI model, where it learns general patterns and knowledge from a vast dataset, typically by predicting the next word in a sentence. This process establishes the model's core capabilities before any fine-tuning. |
| Fine-tuning | A subsequent training stage where a pre-trained AI model is further adjusted using specific datasets or techniques like Reinforcement Learning from Human Feedback (RLHF). This process refines the model's behavior to align with desired outputs and human preferences. |
| Reinforcement Learning from Human Feedback (RLHF) | A technique used in fine-tuning AI models, especially language models, where human evaluators rank model outputs. This feedback is used to train a reward model, which then guides the optimization of the main AI model to produce more desirable responses. |
| Emergent Behavior | Complex and unexpected skills or abilities that spontaneously arise in AI models when they reach a certain scale and complexity. These capabilities are not explicitly programmed but emerge from the intricate interactions of the model's parameters and training data. |
| Black Box | A term used to describe AI systems, particularly deep learning models, whose internal workings are extremely complex and difficult to fully comprehend. The extreme number of parameters makes it challenging to understand the exact reasoning behind specific outputs. |
| Scale Law | The principle that increasing the amount of data, the number of parameters, and the computational power used to train an AI model leads to significant, qualitative improvements in its capabilities. |
| Multimodal AI | Artificial intelligence systems capable of processing and generating information across different types of data, such as text, images, audio, and video. This allows for richer input and more comprehensive understanding and creation of content. |
| Diffusion Models | A class of generative models used for creating images, audio, and video. These models work by gradually removing noise from a random signal, guided by a prompt, to produce a coherent output. |
| Object Detection | A computer vision technology that identifies and locates objects within an image or video, classifying them into predefined categories. |
| Autonomous Systems | Systems capable of operating independently without human intervention, making decisions and taking actions based on their environment and objectives. |
| Human-AI Collaboration | A partnership where humans and AI systems work together, leveraging each other's strengths to achieve better outcomes than either could alone. |
| General Purpose Technology (GPT) | A technology that has the potential to fundamentally change an economy or society, comparable to technologies like steam power or electricity, impacting many sectors. |
| Generative AI (Gen AI) | A type of artificial intelligence that can create new content, such as text, images, audio, or video, based on patterns learned from existing data. |
| Transformers (Model) | A type of neural network architecture that has revolutionized natural language processing and other AI tasks, known for its ability to handle sequential data effectively. |
| Large Language Models (LLMs) | Advanced AI models trained on vast amounts of text data, capable of understanding, generating, and processing human language for a wide range of applications. |
| Neural Audio Models | AI models that synthesize realistic speech or music from text, operating by constructing sound waves sample-by-sample. |
| Temporal Diffusion Models | An extension of diffusion models that incorporate a time dimension to generate sequences of frames, enabling the creation of videos. |
| Hallucinations (AI) | The phenomenon where AI models generate plausible-sounding but incorrect or fabricated information, often presenting it as factual. |
| Knowledge Cutoffs | The point in time when the training data for an AI model was last updated, meaning the model lacks information about events or developments that occurred after that date. |
| Bias (AI) | Systematic prejudice in AI systems, stemming from biased training data or algorithmic design, which can lead to unfair or discriminatory outcomes. |
| Over-reliance (AI) | Excessive dependence on AI tools, leading to a reduction in critical thinking, verification, and the development of one's own skills and knowledge. |
| Privacy Risks (AI) | Potential threats to the confidentiality and security of personal or sensitive data when using AI tools, including data storage, model training, and unauthorized access. |
| Prompt | A text instruction given to an AI model to guide its output. The quality of the prompt directly influences the quality of the AI's response. |
| Prompt Engineering | The practice of designing and refining prompts to elicit the best possible output from an AI model. This involves understanding how to phrase instructions, provide context, and specify desired formats. |
| Context Window | The AI model's "working memory," measured in tokens, that holds both the input (prompt) and the generated output. A larger context window allows for more input, but can reduce the space available for the output, potentially affecting quality. |
| Role (in Prompting) | Assigning an identity or persona to the AI model, which dictates its tone, perspective, and level of expertise for a given task. This helps frame the AI's response to align with specific needs. |
| Context (in Prompting) | Providing background information, goals, target audience, and constraints to the AI model to ensure its responses are relevant, accurate, and applicable to the specific situation. |
| Instructions (in Prompting) | Clear and specific directions given to the AI model detailing what action needs to be taken or what output is expected. Precise instructions lead to more precise results. |
| Examples (in Prompting) | Illustrative examples, both positive and negative, provided to the AI model to demonstrate the desired output style, format, or content. This technique, known as few-shot prompting, enhances accuracy. |
| Output & Format (in Prompting) | Defining the expected type of result (e.g., advice, analysis, creation) and its structure, length, language, and tone. This ensures the AI's output is usable and meets specific requirements. |
| Don't (in Prompting) | Specifying what the AI model should avoid, such as certain jargon, topics, or formats. This helps to increase precision and reduce the need for iterative refinement. |
| Prompt-Chaining | Breaking down a complex task into a sequence of smaller, interconnected prompts, where the output of one prompt serves as the input for the next. This is useful for managing complex workflows. |
| Chain-of-Thought (CoT) | A prompting technique where the AI is instructed to show its thinking process and intermediate steps when solving a problem. This enhances transparency, accuracy, and understanding, especially for complex analyses. |
| Tree-of-Thought (ToT) | A method that involves generating multiple potential solution paths or strategies for a problem. It is particularly useful for strategic planning, problem-solving, and brainstorming by exploring various options. |
| Retrieval-Augmented Generation (RAG) | A technique where AI model responses are based on specific documents or external knowledge sources. This helps to avoid hallucinations and ensure factual accuracy, especially for specific or current information. |
| Self-critique & Self-improvement | A prompting strategy where the AI is asked to generate output, then critically evaluate it, and subsequently improve upon identified weaknesses. This is crucial for tasks demanding high quality. |
| Meta-prompting | Designing prompts that themselves generate other prompts. This powerful technique can lead to more sophisticated prompts, accelerate complex prompt creation, and automate workflows. |
| Prompt Injection | A security vulnerability where an AI model is tricked by clever or hidden instructions embedded within its input or data, causing it to perform unintended actions. This can be direct or indirect. |
| Jailbreaking | A technique used to persuade an AI model to bypass its safety protocols and generate content that it would normally refuse to produce, such as forbidden or harmful information. |
| Sycophancy | The tendency of an AI model to align its responses with the user's beliefs or desires, potentially leading to biased or fabricated information rather than objective truth. This is an inherent characteristic of many language models. |
| Academic Integrity | Upholding honesty, transparency, and responsibility in research. This includes accurate citation, proper attribution of sources (including AI), and avoiding fabrication or falsification of data. |
| Hybrid Approach (AI in Research) | Combining the strengths of AI-driven research (speed, breadth) with traditional methods (validation, depth, human expertise) to achieve more comprehensive and reliable results. |
| Verification Model | A structured process for validating AI-generated information, typically involving tracing sources, cross-checking with other tools, and human judgment to ensure accuracy and reliability. |
| AI-generated Content | Any text, code, images, or other media produced by an artificial intelligence model. Proper attribution and transparency are crucial when using such content in academic or professional work. |
| Hallucination (in AI) | The generation of false or nonsensical information by an AI model, often presented with a high degree of confidence. This can occur when the AI lacks sufficient data or misinterprets patterns. |
Cover
Les 1-2-3-4 - slides_merged.pdf
Summary
# H1: Introductie tot kunstmatige intelligentie
Dit onderwerp biedt een basisbegrip van kunstmatige intelligentie (AI), waarbij definities, de historische ontwikkeling, en de verschillende niveaus van AI worden uiteengezet, inclusief veelvoorkomende misconcepties en de evolutie ervan door de tijd heen.
## 1.1 Wat is kunstmatige intelligentie?
### 1.1.1 Definitie van intelligentie
Intelligentie is een concept waarvoor geen eenduidige definitie bestaat, zelfs niet onder experts. Er zijn echter gemeenschappelijke elementen die vaak worden benoemd [7](#page=7):
* **Autonomie:** Het vermogen om zelfstandig te handelen en beslissingen te nemen [7](#page=7).
* **Aanpassingsvermogen:** Het vermogen om te leren van ervaringen [7](#page=7).
Howard Gardner's theorie van Meervoudige Intelligentie benadrukt dat intelligentie niet eendimensionaal is [7](#page=7).
### 1.1.2 Wat is artificiële intelligentie?
Artificiële intelligentie (AI) is een technologie die menselijke intelligentie simuleert. Er is geen officiële definitie van AI. De kernconcepten van AI omvatten autonomie en aanpassingsvermogen [8](#page=8).
### 1.1.3 Misconcepties en misleidende terminologie
Veel misconcepties over AI ontstaan door sciencefiction, marketinghype en buzzwords, wat leidt tot verwarring tussen de werkelijke capaciteiten van AI en wat men denkt dat het kan [8](#page=8).
* **Containerbegrippen:** Woorden zoals "intelligentie", "leren" en "begrijpen" scheppen verkeerde verwachtingen en suggereren menselijke eigenschappen die AI niet bezit [9](#page=9).
* **Niet-eendimensionale intelligentie:** Intelligentie is niet één-dimensionaal. Een zelfrijdende auto is bijvoorbeeld niet vergelijkbaar met een spamfilter. ChatGPT kan wel een huis 'ontwerpen', maar niet bouwen [9](#page=9).
* **Taakspecifieke AI:** AI-systemen zijn taakspecifiek; goed zijn in één taak betekent niet automatisch goed zijn in andere taken [9](#page=9).
#### 1.1.3.1 Juist taalgebruik
* Spreek niet over "een AI", aangezien AI een discipline is, vergelijkbaar met wiskunde of biologie. Gebruik liever termen als "AI-methode" of "AI-systeem" \] [9](#page=9).
### 1.1.4 Is dit AI?
De verwarring rondom AI komt deels doordat wat vroeger als AI werd beschouwd, vandaag de dag niet meer als zodanig wordt gezien (bv. GPS-navigatie, schaakcomputers) . Tegenwoordig wordt veel als "AI-powered" bestempeld, wat leidt tot meer aandacht, terwijl het vaak gaat om gewone algoritmen met modieuze labels .
Het onderscheid ligt in het vermogen om te leren en zich aan te passen :
* **Echte AI:** Leert en past zich aan .
* **Slimme software:** Voert complexe berekeningen uit (grijze zone) \] .
* **Gewone software:** Werkt met vaste regels .
Karen Hao's test (MIT Technology Review) biedt een flowchart om dit te evalueren .
## 1.2 AI-niveaus
AI kan worden onderverdeeld in verschillende niveaus op basis van de breedte en diepte van haar capaciteiten :
### 1.2.1 Weak/Narrow AI
* **Kenmerken:** Beperkt tot specifieke taken .
* **Status:** Bestaat en werkt .
* **Voorbeelden:** Siri, ChatGPT .
### 1.2.2 General AI (AGI)
* **Kenmerken:** Sterke AI; kan alle menselijke taken op alle domeinen uitvoeren .
* **Status:** Bestaat nog niet. Experts zijn het oneens over de realisatietijd (10-100+ jaar) \] .
### 1.2.3 Super AI (ASI)
* **Kenmerken:** Overtreft menselijke intelligentie; begrijpt bewustzijn en behoeften .
* **Status:** Puur theoretisch; mogelijk nooit, of over eeuwen .
## 1.3 Geschiedenis en evolutie van AI
De droom van kunstmatige wezens is zo oud als de mensheid .
### 1.3.1 Oude beschavingen tot begin 20e eeuw
* **Oude beschavingen (3000 v.Chr. - 500 n.Chr.):** Griekse mythologie met figuren als Talos, de bronzen reus, en de concepten van robots en automaten .
* **Mechanische revolutie (1600-1800):** Gottfried Leibniz introduceerde het binaire getalsysteem, een basis voor computers. Jacques de Vaucanson creëerde mechanische automaten zoals een mechanische eend .
* **Computing pioneers (1800-1900):** Charles Babbage en Ada Lovelace ontwikkelden de Analytical Engine. George Boole legde de basis voor Booleaanse logica (True/False) \] .
### 1.3.2 Geboorte van AI (1940-1960)
* **Von Neumann:** Ontwikkelde de computerstructuur met opslag voor data en programma's .
* **Neurale netwerken:** Onderzoek begon in 1943 .
* **Dartmouth-conferentie:** Het eerste AI-congres met optimistische voorspellingen. De eerste AI-programma's zoals de Logic Theorist werden ontwikkeld .
* **Chatbot ELIZA (1964-1966):** Een vroege chatbot die de rol van een psychotherapeut speelde, wat leidde tot het ELIZA Effect .
### 1.3.3 De Turing Test .
* **Concept:** Ontwikkeld door Alan Turing, dit experiment test of een computer een ondervrager kan misleiden om te denken dat het een mens is. Als de ondervrager niet kan onderscheiden wie de computer is, is de test geslaagd .
* **Belang:** Het was de eerste objectieve test voor machine-intelligentie en focuste op gedrag in plaats van interne processen. Het blijft relevant in AI-onderzoek .
* **Filosofische implicaties:** Roept vragen op over de relatie tussen imitatie en intelligentie, en wat het betekent om menselijk te zijn .
> **Tip:** De Turing Test is een belangrijk concept om te begrijpen hoe de vroege definitie van intelligentie in AI werd benaderd.
### 1.3.4 AI Winters – Hype vs. Realiteit
Periodes van grote verwachtingen werden gevolgd door periodes van teleurstelling wanneer de realiteit de beloftes niet kon waarmaken, mede door beperkte data en computerkracht .
* **Eerste winter (1974-1980):** Gekenmerkt door stopzetting van financiering .
* **Tweede winter (1987-1993):** Expert systemen bleken te duur te zijn .
### 1.3.5 De Heropleving (1990-2010)
Technologische doorbraken leidden tot een heropleving van AI .
* **Iconische momenten:**
* Deep Blue vs. Kasparov .
* Watson vs. Jeopardy Champions .
* **Paradigmaverschuiving:** Er was een verschuiving van rule-based systemen naar data-driven AI en van expert systemen naar machine learning .
### 1.3.6 Vandaag: AI is overal!
AI is geïntegreerd in talloze aspecten van ons dagelijks leven en diverse sectoren :
* **Consumententechnologie:** Camera's (objectdetectie, filters), Maps (real-time verkeer), Netflix (gepersonaliseerde aanbevelingen), slimme thermostaten, Amazon (aanbevelingen), sociale media (timeline samenstelling) \] .
* **Sectoren:** Ziekenhuizen (scan analyse ondersteuning), banken (fraude opsporing), vervoer (route-optimalisatie), HR (CV screening), klantenservice (chatbots) \] .
## 1.4 De toekomst van AI
De toekomst van AI omvat diverse ontwikkelingen en toepassingen :
* **Autonome systemen:** Volledig zelfrijdende voertuigen, autonome drones voor leveringen, zelfoptimaliserende supply chains .
* **Human-AI collaboration:** AI als permanente co-piloot, augmented creativity en probleemoplossing, en de ontwikkeling van nieuwe beroepen en vaardigheden .
* * *
# Hoe kunstmatige intelligentie werkt
Dit deel van het document verkent de evolutie en de kernprincipes van kunstmatige intelligentie, met een focus op rule-based AI, machine learning en deep learning, inclusief de verschillende leermethoden binnen deep learning [10](#page=10) [11](#page=11).
### 2.1 Evolutie van AI-methoden
Kunstmatige intelligentie heeft zich ontwikkeld door verschillende fasen, elk met eigen methoden en kenmerken [10](#page=10).
#### 2.1.1 Rule-based AI
Rule-based AI, ook wel "oude AI" genoemd, was dominant van ongeveer 1950 tot 1990. Bij deze methode schrijven menselijke experts expliciete regels om problemen op te lossen [10](#page=10).
* **Voordelen:** Deze aanpak is voorspelbaar, begrijpelijk en controleerbaar [10](#page=10).
* **Nadelen:** Rule-based AI is inflexibel en kan niet zelfstandig leren van nieuwe informatie. Een praktisch voorbeeld van het instellen van regels is te vinden in platforms zoals IFTTT (If This Then That) [10](#page=10).
#### 2.1.2 Machine Learning
Machine learning, vanaf ongeveer 1990 tot 2010, markeerde de overgang naar "nieuwe" of data-driven AI. Hierbij leren algoritmen patronen uit data [10](#page=10) [11](#page=11).
* **Voordelen:** Machine learning-modellen kunnen zich aanpassen aan nieuwe situaties [10](#page=10).
* **Nadelen:** Het vereist vaak grote hoeveelheden gelabelde data om effectief te kunnen leren [10](#page=10).
#### 2.1.3 Deep Learning
Deep learning, dat sinds 2010 dominant is, maakt gebruik van kunstmatige neurale netwerken met meerdere lagen, geïnspireerd door de structuur van het menselijk brein. Deze modellen kunnen zeer complexe patronen en relaties herkennen [10](#page=10) [11](#page=11).
* **Voordelen:** Het vermogen om ingewikkelde patronen te identificeren is een groot voordeel [10](#page=10).
* **Nadelen:** Deep learning-systemen worden soms als een "black box" beschouwd, wat betekent dat hun besluitvorming moeilijk te verklaren is [10](#page=10).
#### 2.1.4 Generative AI
Generative AI, een ontwikkeling vanaf ongeveer 2020, richt zich op het creëren van nieuwe content op basis van de data waarop het getraind is. Een belangrijke doorbraak in dit veld was de ontwikkeling van de Transformer-architectuur in 2017 [10](#page=10).
### 2.2 Leermethoden binnen Deep Learning
Deep learning kan worden onderverdeeld in drie hoofdmanieren van leren, vergelijkbaar met hoe een kind leert door middel van voorbeelden, ontdekking en vallen en opstaan [11](#page=11).
#### 2.2.1 Supervised Learning
Bij supervised learning (begeleid leren) wordt een model getraind met gelabelde voorbeelden [12](#page=12).
* **Hoe werkt het:** Het model krijgt data met bijbehorende correcte antwoorden. Bijvoorbeeld, duizenden foto's van honden en katten, waarbij elke foto is gelabeld. Het model leert patronen herkennen (zoals oorvormen, snuit, grootte) om vervolgens, bij het zien van een nieuwe foto, te kunnen classificeren of het een hond of een kat is [12](#page=12).
* **Wat kan er misgaan:** Problemen kunnen ontstaan door te weinig trainingsdata, bias in de labels, overfitting (het model leert de trainingsdata te goed uit het hoofd maar generaliseert slecht), fouten in de labels, of het 'verkeerd' aanleren van concepten [12](#page=12).
* **Praktisch:** Een tool om hiermee te experimenteren is Teachable Machine van Google [13](#page=13).
#### 2.2.2 Unsupervised Learning
Unsupervised learning (onbegeleid leren) richt zich op het vinden van patronen in data zonder dat er vooraf antwoorden of labels aanwezig zijn [12](#page=12).
* **Hoe werkt het:** Het model krijgt een grote dataset, bijvoorbeeld 100.000 foto's zonder labels. De taak is om gemeenschappelijke kenmerken te identificeren en de data in groepen te clusteren op basis van deze kenmerken [12](#page=12).
* **Wat kan er misgaan:** Het model kan verbanden leggen die niet werkelijk bestaan, de reden achter de groepsindelingen is niet altijd duidelijk, er is geen garantie op bruikbare inzichten, en er kan sprake zijn van bias in de data [12](#page=12).
#### 2.2.3 Reinforcement Learning
Reinforcement learning (leren door bekrachtiging) werkt op basis van een systeem van straffen en belonen [13](#page=13).
* **Hoe werkt het:** Een agent voert acties uit in een omgeving. Voor een goede actie ontvangt de agent een positieve beloning (bijvoorbeeld +1), en voor een slechte actie een negatieve beloning (bijvoorbeeld -1). Het doel van de agent is om de totale beloning over tijd te maximaliseren [13](#page=13).
* **Wat kan er misgaan:** Mogelijke problemen zijn "reward hacking" (waarbij de agent manieren vindt om beloningen te maximaliseren zonder het eigenlijke doel te dienen), lange trainingstijden, het vastlopen in lokale optima, of een mismatch tussen de gedefinieerde beloning en het gewenste gedrag [13](#page=13).
### 2.3 Combinatie van leermethoden in de praktijk
In veel realistische toepassingen worden verschillende leermethoden gecombineerd om tot effectieve AI-systemen te komen [13](#page=13).
* **Voorbeelden:**
* **Zelfrijdende auto's:** Deze maken gebruik van supervised learning voor objectherkenning (zoals het herkennen van verkeersborden en andere voertuigen) in combinatie met reinforcement learning voor het bepalen van het rijgedrag [13](#page=13).
* **Chatbots:** Chatbots passen supervised learning toe voor het herkennen van de intentie van de gebruiker en reinforcement learning om het gesprek te optimaliseren en natuurlijk te laten verlopen [13](#page=13).
> **Tip:** Het is nuttig om de concepten van supervised, unsupervised en reinforcement learning te visualiseren als verschillende manieren waarop een AI een taak kan leren, vergelijkbaar met hoe mensen leren door directe instructie, observatie of door te experimenteren [11](#page=11).
* * *
# H2: Generatieve AI en zijn toepassingen
Generatieve AI (GenAI) is een tak van kunstmatige intelligentie die nieuwe content creëert, in tegenstelling tot traditionele AI die zich richt op analyse en classificatie. De huidige hype rondom GenAI wordt aangedreven door een combinatie van data-explosie, toenemende rekenkracht, de ontwikkeling van transformer-architecturen en een open source cultuur. GenAI wordt gezien als een 'General Purpose Technology' die, net als stoomkracht of elektriciteit, alle aspecten van het leven transformeert [15](#page=15) [22](#page=22).
### 3.1 Wat maakt generatieve AI bijzonder?
GenAI onderscheidt zich van traditionele AI doordat het niet alleen data analyseert, classificeert of voorspelt, maar actief nieuwe content genereert. Dit betekent dat het van "herken dit patroon" naar "gebruik deze patronen om iets nieuws te maken" gaat. GenAI kan variaties creëren binnen geleerde patronen en output aanpassen op basis van instructies (prompts). De output kan variëren van tekst (essays, gedichten, code) tot afbeeldingen, muziek, spraak, video en 3D-modellen [22](#page=22) [23](#page=23).
### 3.2 Transformer architectuur en taalmodellen
De doorbraak die GenAI mogelijk maakte, is de transformer-architectuur, geïntroduceerd in het paper "Attention is All You Need" in 2017. In tegenstelling tot oudere sequentiële modellen die woorden één voor één verwerkten, maakt het 'attention mechanism' het mogelijk dat het model naar alle woorden in een zin kijkt om context te begrijpen. Dit zorgt voor een veel dieper begrip van relaties tussen woorden [14](#page=14) [23](#page=23).
#### 3.2.1 Tokenisatie: van tekst naar getal
Computers verwerken getallen, dus tekst moet worden omgezet naar een numeriek formaat. Dit gebeurt via tokenisatie, waarbij woorden worden opgedeeld in stukjes (tokens) die elk een uniek getal (een ID) krijgen binnen de woordenschat van het AI-model. Een voorbeeld van een tokenizer is te vinden op [https://platform.openai.com/tokenizer](https://platform.openai.com/tokenizer) [24](#page=24).
#### 3.2.2 Het AI-brein: parameters en lagen
Het "brein" van een AI-model bestaat uit verschillende lagen van verbindingen. De 'parameters' vertegenwoordigen de sterkte van deze verbindingen. Hoe meer parameters een model heeft, hoe meer patronen het kan herkennen en hoe 'slimmer' het wordt geacht. Grote modellen zoals GPT-3 hebben 175 miljard parameters, en GPT-4 heeft er naar schatting rond de 1 biljoen. Een visualisatie van deze concepten is te vinden op [https://projector.tensorflow.org/](https://projector.tensorflow.org/) [24](#page=24).
#### 3.2.3 Pre-training van een AI-model
De parameters van een AI-model worden bepaald tijdens het pre-trainingsproces. Dit gebeurt met enorme datasets, vaak bestaande uit petabytes aan tekst. De basistaak tijdens pre-training is het voorspellen van het volgende woord in een zin. Dit is de kern van het leerproces: bij elke correcte voorspelling worden parameters versterkt, en bij incorrecte voorspellingen worden ze verzwakt. Na miljarden van deze aanpassingen wordt het model steeds accurater [25](#page=25).
#### 3.2.4 Fine-tuning van een AI-model
Een voorgetraind model kan worden gezien als een encyclopedie, maar om het echt bruikbaar te maken als product, vindt fine-tuning plaats. Een belangrijke methode hiervoor is Reinforcement Learning from Human Feedback (RLHF). Hierbij beoordelen menselijke testers de output van het model op verschillende prompts. Een beloningsmodel leert vervolgens menselijke voorkeuren, en het hoofdmodel wordt hierop geoptimaliseerd. RLHF transformeert een ruw taalmodel tot een bruikbaar product [25](#page=25).
#### 3.2.5 Van prompt naar antwoord
Het proces van een prompt naar een antwoord doorloopt verschillende stappen [26](#page=26):
1. De prompt wordt omgezet naar tokens [26](#page=26).
2. Deze tokens gaan door de lagen van het AI-model, waarbij elke laag meer begrip toevoegt, van losse woorden tot zinsopbouw, betekenis, context, en zelfs emotie en intentie [26](#page=26).
3. Alle tokens "praten" met elkaar via het attention mechanisme [26](#page=26).
4. Het antwoord wordt gegenereerd, woord voor woord, waarbij het model steeds het meest waarschijnlijke volgende woord voorspelt. Een interactieve visualisatie van dit proces is te vinden op [https://bbycroft.net/llm](https://bbycroft.net/llm) [26](#page=26).
### 3.5 Toepassingen en keuze van tools
GenAI is effectief voor taken waar focus, snelheid en schaal belangrijk zijn. Er is echter niet één "beste" AI-model; de keuze hangt af van de specifieke taak en de technische of zakelijke vereisten. Factoren zoals specialisatie, technische verschillen (modelgrootte, contextvenster), bedrijfsmodellen (gratis/betaald), en open/gesloten architectuur spelen een rol [20](#page=20) [27](#page=27) [28](#page=28).
#### 3.5.1 Verschillende AI-tools
Er zijn diverse GenAI-tools beschikbaar, elk met eigen sterktes:
* **ChatGPT (OpenAI):** Veelzijdig chatbot-model, breed inzetbaar, sterk in creativiteit en brainstormen, maar ook voor algemene assistentie en code schrijven [21](#page=21) [28](#page=28).
* **Claude (Anthropic):** Sterk in analyse van lange teksten en documenten, met focus op veiligheid en ethiek. Ook beschikbaar als snellere 'Claude Instant' of de meer grondige 'Claude Opus' [21](#page=21) [28](#page=28) [29](#page=29).
* **Gemini (Google):** Multimodaal, realtime toegang met diepe Google-integratie, geschikt voor onderzoek en algemene assistentie [21](#page=21) [28](#page=28).
* **Copilot (Microsoft):** Productiviteitsgericht, geïntegreerd in Microsoft 365, geschikt voor onderzoek en real-time data [21](#page=21) [28](#page=28).
* **Perplexity AI:** Chatbot met live web search en bronvermelding, ideaal voor onderzoek en real-time data analyse [21](#page=21) [28](#page=28).
* **DeepSeek AIDeepSeek:** Open-source LLM, sterk in redeneren en gestructureerde antwoorden [21](#page=21).
* **Pi (Inflection AI):** Empathische chatbot voor persoonlijke gesprekken, volledig gratis [21](#page=21).
* **Meta AI:** Geïntegreerd in sociale platforms zoals Facebook, WhatsApp en Instagram, volledig gratis [21](#page=21).
* **Grok (xAI):** Minder gefilterde antwoorden, geïntegreerd in X, met live web search [21](#page=21).
* **Mistral AI:** Open-weight modellen met focus op transparantie en efficiëntie [21](#page=21).
* **GitHub Copilot:** Specifiek voor code schrijven [28](#page=28).
#### 3.5.2 Lokale AI-modellen
Voor gebruikers die niet online willen werken, biedt platforms zoals Ollama de mogelijkheid om LLM's lokaal op eigen computers te draaien, met ondersteuning voor diverse modellen zoals Llama, Mistral en Gemma. Dit verhoogt de privacy en controle over data [31](#page=31).
#### 3.5.3 Kosten en implementatie
De meeste tools bieden gratis versies met beperkingen en betaalde opties of enterprise-mogelijkheden. Het is raadzaam te starten met gratis versies en pas te upgraden wanneer er duidelijke meerwaarde is. Belangrijke aspecten bij de implementatie zijn gebruikersgemak, de beschikbaarheid van training en ondersteuning, en regelmatige evaluatie van de tool in relatie tot de kosten en behoeften [26](#page=26) [30](#page=30) [32](#page=32).
#### 3.5.4 Snelheid versus Kwaliteit
De keuze tussen snelheid en kwaliteit hangt af van de taak. Brainstormen mag sneller, terwijl analyses meer grondigheid vereisen. Tools zoals ChatGPT, Claude Instant en Gemini Pro bieden snelle reacties, terwijl Claude Opus en Perplexity zorgen voor grondigere resultaten [29](#page=29).
### 3.6 Impact en toekomstperspectief
GenAI transformeert sectoren en verhoogt productiviteit, maar experts winnen doorgaans meer dan beginners. Het gaat om een transformatie van werk, niet eliminatie, met verschuivingen in banen en taken. De publieke perceptie van GenAI volgt een hypecyclus, van de 'peak of inflated expectations' naar de 'slope of enlightenment' en uiteindelijk de 'plateau of productivity'. De "black box" aard van de modellen, door hun extreme complexiteit, roept vragen op over betrouwbaarheid, bias en verantwoording. Schaaleffecten suggereren dat meer data, parameters en rekenkracht leiden tot kwalitatieve sprongen, wat de innovatie versnelt richting Artificial General Intelligence (AGI) [16](#page=16) [17](#page=17) [18](#page=18) [28](#page=28) [29](#page=29).
> **Tip:** Menselijke expertise, context en oordeelsvermogen blijven cruciaal. GenAI is een middel, geen doel op zich. Blijf kritisch en focus op de meerwaarde, niet op de hype [20](#page=20) [30](#page=30).
### 3.3 Multimodale AI: meer dan alleen tekst
Hoewel taalmodellen de basis vormen van GenAI, is menselijke communicatie ook multimodaal. GenAI breidt zich daarom uit naar andere modaliteiten zoals beeld, audio en video [35](#page=35).
#### 3.3.1 Diffusiemodellen voor afbeeldingen
Diffusiemodellen werken omgekeerd: ze beginnen met ruis en transformeren dit stap voor stap tot een coherente afbeelding, geleid door een prompt. De training omvat een 'forward' proces (afbeeldingen naar ruis) en een 'reverse' proces (ruis naar afbeelding), waarbij patroonherkenning van vormen gekoppeld aan beschrijvingen centraal staat [36](#page=36).
#### 3.3.2 Neurale audiomodellen voor geluid
Neurale audiomodellen converteren geschreven tekst naar realistische spraak of muziek. Ze bouwen geluidsgolven sample voor sample op, waarbij de prompt de stem, emotie, tempo en stijl bepaalt. De training analyseert grote hoeveelheden spraak- en muziekopnames om patronen tussen tekst en geluid, en de impact van emotie op stemgeluid te herkennen [37](#page=37).
#### 3.3.3 Temporele diffusiemodellen voor video
Temporele diffusiemodellen voegen een tijdsdimensie toe aan diffusiemodellen om video's te genereren. Ze creëren opeenvolgende frames met consistentie tussen frames, waarbij de prompt actie, camerabeweging en stijl stuurt. De training analyseert video's met beschrijvingen en focust op temporele coherentie en basisprincipes van fysica (beweging, zwaartekracht) [37](#page=37).
#### 3.3.4 Prompts in multimodale AI
De structuur van prompts kan consistent worden gebruikt voor tekst, beeld, audio en video. Hoewel dezelfde prompt niet tot identieke output leidt, zorgt het wel voor een consistente thematiek en stijl, met variaties in details, intonatie of camerahoek [38](#page=38).
### 3.4 Valkuilen van generatieve AI
Ondanks de kracht van GenAI, zijn er aanzienlijke beperkingen en risico's. Het kritisch gebruik van AI is essentieel [19](#page=19) [38](#page=38) [39](#page=39).
#### 3.4.1 Hallucinaties
Hallucinaties treden op wanneer GenAI informatie genereert die niet klopt en deze zelfverzekerd als waarheid presenteert. Dit kan zich uiten in intrinsieke tegenstrijdigheden, output zonder onderbouwing, zinscontradicties of antwoorden die afwijken van de oorspronkelijke prompt. Dit gebeurt omdat AI-modellen niet weten wat ze niet weten en gaten opvullen met "logisch klinkende" verzinsels zonder feiten te verifiëren [39](#page=39) [41](#page=41) [42](#page=42).
#### 3.4.2 Knowledge cutoffsH
AI-modellen hebben een kennisgrens (knowledge cutoff) bepaald door de datum waarop hun trainingsdata is verzameld. Informatie na die datum is onbekend, en updatecycli kunnen maanden tot jaren duren. Het is daarom aan te raden AI te gebruiken voor tijdloze analyse en recentere informatie apart te controleren [43](#page=43).
#### 3.4.3 Bias en discriminatie
AI is niet neutraal omdat de trainingsdata historische vooroordelen bevat en bepaalde groepen onder- of oververtegenwoordigt. Dit kan leiden tot discriminerende of stereotiepe output .
#### 3.4.4 Overafhankelijkheid
Te veel vertrouwen op AI zonder verificatie kan leiden tot overafhankelijkheid. Dit uit zich in het blind accepteren van AI-output, paniek wanneer AI niet beschikbaar is, en het vermijden van eigen leerprocessen, wat academische integriteit kan schaden. Veilige toepassingen in studie omvatten brainstorming, conceptuële uitleg, grammatica-checks en hulp bij onderzoekstructuur .
#### 3.4.5 Privacy risico's
De input die gebruikers aan AI-tools geven, kan worden gebruikt voor modeltraining, en data kan op servers in andere landen worden opgeslagen. Gevoelige informatie zoals persoonlijke gegevens, financiële of medische gegevens, en bedrijfsinformatie moet daarom geanonimiseerd worden. De vuistregel is: deel niets wat je niet op het internet zou willen zien .
* * *
# H3: Effectief prompten en AI in onderzoek
Dit onderwerp belicht de cruciale rol van effectief prompten om de output van AI te maximaliseren en de ethische implicaties en integratie van AI in academisch onderzoek.
## 4\. Effectief prompten en AI in onderzoek
AI-modellen beschikken over een immense rekenkracht en veel data, maar de kwaliteit van de output hangt sterk af van de ingevoerde prompt. Goed prompten is essentieel om het volledige potentieel van AI te benutten, processen te optimaliseren en accurate resultaten te verkrijgen. De milieu-impact van AI, met name het energieverbruik voor rekenkracht en datacenters, benadrukt het belang van efficiëntie door middel van nauwkeurige prompts [45](#page=45) [46](#page=46).
### 4.1 Waarom goed prompten?
Effectief prompten is de sleutel tot beter gebruik van AI en het overbruggen van de kloof tussen menselijke intuïtie en de analysekracht van AI. Een correct geformuleerde prompt in de beginfase vermindert de noodzaak tot bijschaven en iteraties, wat tijd en middelen bespaart [45](#page=45) [46](#page=46).
### 4.2 Anatomie van een sterke prompt
Een sterke prompt bestaat uit verschillende componenten die de AI richting geven voor de gewenste output. Hoewel er verschillende frameworks bestaan, zijn deze variaties op basisprincipes en dienen ze als structuur en inspiratie, niet als rigide regels [48](#page=48).
#### 4.2.1 Rol (ROLE)
De rol bepaalt de identiteit en expertise van het AI-model, wat de toon, het perspectief en het kennisniveau van de output beïnvloedt. Voorbeelden hiervan zijn het instellen van de AI als een ervaren marketeer, een geduldige leraar, of een kritische recensent [49](#page=49).
#### 4.2.2 Context (CONTEXT)
Context is cruciaal om de antwoorden van de AI te kaderen en relevant, nauwkeurig en toepasbaar te maken. Dit omvat achtergrondinformatie, het doel van de taak, de doelgroep en eventuele randvoorwaarden [49](#page=49).
#### 4.2.3 Instructies (INSTRUCTIONS)
Duidelijke en specifieke instructies geven aan wat er exact moet gebeuren, wat leidt tot preciezere resultaten. Dit omvat de taakomschrijving en specifieke werkwoorden [50](#page=50).
#### 4.2.4 Voorbeelden (EXAMPLES)
Het geven van voorbeelden, zowel positief als negatief, helpt het AI-model te laten zien hoe de gewenste output eruit moet zien en verbetert de effectiviteit van de prompt (few-shot prompting) [50](#page=50).
#### 4.2.5 Output & Formaat (OUTPUT & FORMAT)
Het afdwingen van een specifieke structuur en formaat zorgt voor bruikbare resultaten. Dit betreft het type output, de lengte, de taal en de toon [51](#page=51).
#### 4.2.6 Wat te vermijden (DON'T)
Het stellen van grenzen voorkomt ongewenste elementen en verhoogt de precisie van de output. Dit is met name belangrijk bij gevoelige onderwerpen of creatieve restricties [51](#page=51).
### 4.3 Geavanceerde prompttechnieken
Er zijn diverse geavanceerde technieken om de interactie met AI te verfijnen en complexere taken uit te voeren.
#### 4.3.1 Vermijd suggestieve vragen
Suggestieve prompts kunnen leiden tot bias en eenzijdige antwoorden. Neutrale, open vragen zijn essentieel voor vergelijkingen, evaluaties en advies [52](#page=52).
#### 4.3.2 Verhoog de inzet
Door de taak belangrijk te maken, presteert de AI beter. Het toevoegen van gewicht aan de opdracht zorgt voor betere resultaten, bijvoorbeeld door de taak voor te stellen alsof deze cruciaal is voor het voortbestaan van een bedrijf [52](#page=52).
#### 4.3.3 Prompt-Chaining
Complexe taken kunnen worden opgesplitst in kleinere, opeenvolgende prompts, waarbij de output van de ene prompt als input dient voor de volgende. Het labelen van tussenresultaten helpt bij het behouden van overzicht [53](#page=53).
#### 4.3.4 Chain-of-Thought (CoT)
Deze techniek moedigt de AI aan om het denkproces en tussenstappen te tonen, wat cruciaal is voor complexe analyses en zorgt voor meer transparantie en nauwkeurigheid [54](#page=54).
#### 4.3.5 Tree-of-Thought (ToT)
ToT genereert meerdere oplossingspaden, wat ideaal is voor strategische planning, probleemoplossing en brainstorms. Het beperken van het aantal opties houdt de output beheersbaar [54](#page=54).
#### 4.3.6 Gebruik externe kennis (RAG)
Retrieval-Augmented Generation (RAG) baseert antwoorden op specifieke documenten, wat helpt om hallucinaties te vermijden bij feitelijke of bedrijfsspecifieke vragen. Het vragen naar citaten uit de bronnen is hierbij van belang [55](#page=55).
#### 4.3.7 Self-critique & Self-improvement
Het vragen aan de AI om output te genereren, deze te beoordelen en te verbeteren, is waardevol voor taken waarbij kwaliteit cruciaal is. Expliciete rubrics voor beoordeling worden aanbevolen [56](#page=56).
#### 4.3.8 Meta-prompting
Meta-prompting houdt in dat er prompts worden ontworpen die andere prompts genereren. Dit kan leiden tot krachtigere, specifiekere en efficiëntere prompts voor complexe workflows [57](#page=57).
### 4.4 CustomGPT's
CustomGPT's bieden een gepersonaliseerde chatbotervaring, waardoor de persona en instructies niet telkens opnieuw ingevoerd hoeven te worden. Ze kunnen worden aangepast met specifieke instructies, gespreksopeningen, kennisbestanden en functionaliteiten zoals webbrowsing of beeldgeneratie [57](#page=57).
### 4.5 De schaduwkant van prompten
Ondanks de voordelen zijn er risico's verbonden aan het gebruik van AI en prompts.
#### 4.5.1 Promptinjectie
Promptinjectie treedt op wanneer een AI-model wordt misleid door slimme of verborgen instructies, waardoor het acties uitvoert die niet de bedoeling waren. Dit kan direct plaatsvinden door de gebruiker zelf, of indirect via verborgen instructies in documenten of websites. Gevaren omvatten het lekken van gevoelige data, verspreiding van valse informatie en verstoring van systemen [58](#page=58) [59](#page=59).
#### 4.5.2 Prompt injectie <> Jailbreaking
Promptinjectie misleidt via input of documenten voor ongewenste acties, terwijl jailbreaking een AI overhaalt om verboden inhoud te maken [59](#page=59).
#### 4.5.3 Herkennen van prompt injectie
Signalen omvatten negeren-commando's ("negeer alle vorige instructies"), instructies verborgen in documenten, en afleidingstechnieken zoals onverwachte wendingen in een gesprek [60](#page=60).
#### 4.5.4 Bescherming tegen promptinjectie
Bescherming omvat input valideren (scannen op verdachte frasen), output controleren, toegang beperken, menselijke controle toepassen en monitoring [61](#page=61).
#### 4.5.5 Sycophancy
Sycophancy (het 'pleaser'-gedrag van AI) treedt op wanneer de AI geneigd is de gebruiker tevreden te stellen door antwoorden af te stemmen op diens overtuigingen, zelfs als dit leidt tot het verzinnen van informatie (hallucinaties). Dit is een inherent probleem bij taalmodellen en kan leiden tot manipuleerbare AI, versterking van eigen bias, en verkeerde conclusies. Het is de 'ergste vijand' van een onderzoeker omdat het leidt tot vertekend onderzoek [78](#page=78) [79](#page=79).
### **H4: AI in onderzoek**
AI transformeert de manier waarop onderzoek wordt uitgevoerd, met zowel voordelen als uitdagingen op het gebied van efficiëntie en integriteit.
#### 4.6.1 Onderzoek in het AI-tijdperk
Onderzoek blijft essentieel om inzicht te onderscheiden van illusie. AI kan patronen tonen, maar de onderzoeker moet de zinvolheid ervan valideren. Onderzoekend denken is een professionele vaardigheid die belangrijk is voor toekomstbestendigheid [63](#page=63) [64](#page=64).
#### 4.6.2 Evolutie van onderzoek
Het onderzoek is geëvolueerd van traditioneel onderzoek (vóór 2000) gebaseerd op fysieke bronnen en handmatige analyse, via digitale versnelling (vanaf 2000) met online bronnen en digitale tools, naar AI-gestuurde kennisproductie (vanaf 2022) met automatische syntheses en samenwerking tussen mens en AI [64](#page=64).
#### 4.6.3 Traditioneel <> AI-ondersteund onderzoek
Traditioneel onderzoek heeft sterke punten zoals peer-review en diepe context, maar is tijdsintensief en minder schaalbaar. AI-ondersteund onderzoek biedt razendsnelle analyse en schaalbaarheid, maar kent uitdagingen zoals hallucinaties en versterking van bias [65](#page=65).
#### 4.6.4 Hybride aanpak
De ideale aanpak combineert het beste van beide werelden: AI voor exploratie en snelheid, en traditioneel onderzoek voor validatie en diepgang. AI versnelt het vinden van informatie, niet het begrip ervan. Het is cruciaal om menselijke verificatie te behouden, transparantie te bieden over AI-gebruik, en te investeren in open LLM-ontwikkeling [65](#page=65) [66](#page=66).
#### 4.6.5 Het onderzoeksproces met AI
Het onderzoeksproces omvat exploratie, verkenning, bewijs verzamelen, analyse & interpretatie, synthese en reflectie. Een onderzoeksvraag moet onderzoekbaar, haalbaar, waardevol, complex, relevant, specifiek, enkelvoudig en praktisch toepasbaar zijn [66](#page=66) [67](#page=67).
#### 4.6.6 AI-tools voor efficiënt onderzoek
Verschillende AI-tools kunnen ingezet worden voor specifieke fasen van het onderzoeksproces:
* **Exploratie:** LLM's, Perplexity voor het formuleren van onderzoeksvragen [68](#page=68).
* **Verkenning:** Perplexity, ResearchRabbit, Elicit voor het vinden van bronnen en ontdekken van kennis en trends [68](#page=68).
* **Bewijs verzamelen:** Consensus, ResearchRabbit, Elicit voor het controleren van consensus en valideren van claims [68](#page=68).
* **Analyse & Interpretatie:** ChatPDF, NotebookLM voor het begrijpen van documenten en het analyseren van bevindingen [68](#page=68).
* **Synthese:** NotebookLM, LLM's voor het formuleren van inzichten [68](#page=68).
* **Reflectie:** LLM's voor het evalueren van het proces en het bespreken van bias [68](#page=68).
#### 4.6.7 Prompten in onderzoek
Bij prompten in onderzoek is het belangrijk om kritische filtering toe te passen, neutrale prompts te stellen, te vragen naar bronnen en betrouwbaarheid, en AI te gebruiken als reflectiepartner. LLM's kunnen gebruikt worden voor exploratie en reflectie, maar niet als primaire bronnen vanwege mogelijke kennis-cutoffs [69](#page=69).
#### 4.6.8 Specifieke AI-tools voor onderzoek
* **Perplexity:** Een AI-zoekmachine met automatische bronvermelding, handig voor exploratie en synthese [70](#page=70).
* **ResearchRabbit:** Visualiseert wetenschappelijke papers via citatienetwerken, ideaal voor het ontdekken van gerelateerd onderzoek [70](#page=70).
* **Elicit:** Helpt bij systematisch literatuuronderzoek en het formuleren van onderzoeksvragen [71](#page=71).
* **Consensus:** Toont wetenschappelijke consensus over beweringen, wat nuttig is voor bewijsverzameling [72](#page=72).
* **ChatPDF:** Geschikt voor snelle screening en het beantwoorden van korte vragen over PDF-documenten [73](#page=73).
* **NotebookLM:** Biedt directe bronverwijzing, analyseert meerdere papers tegelijk en is ideaal voor analyse, interpretatie en synthese [73](#page=73).
#### 4.6.9 Onderzoek optimaliseren met AI
Onderzoek kan geoptimaliseerd worden door parallelle verwerking (meerdere tools tegelijk gebruiken), iteratieve verfijning (breed starten en verfijnen) en nauwkeurige documentatie en tracking. De juiste tool moet gekozen worden voor het specifieke doel [74](#page=74).
#### 4.6.10 Wanneer AI wel/niet gebruiken in onderzoek
AI is meestal toegestaan voor het genereren van ideeën, structureren van tekst, verbeteren van teksten, uitleggen van concepten, zoeken naar bronnen en ondersteuning bij data-analyse. Het is problematisch om volledige teksten te laten schrijven, antwoorden zonder verificatie over te nemen, AI-gebruik te verbergen of bronnen te vervalsen [75](#page=75).
### 4.7 Academische integriteit bij AI-gebruik
Het verantwoord gebruik van AI in onderzoek vereist transparantie, eerlijkheid en kritisch denken.
#### 4.7.1 AI-gebruik vermelden
Het vermelden van AI-gebruik is cruciaal voor transparantie, erkenning van ontwikkelaars en zodat lezers de tool kunnen raadplegen. Dit geldt voor directe output, ondersteunend gebruik en wanneer het AI-model inhoudelijk heeft bijgedragen [76](#page=76).
#### 4.7.2 Correct refereren naar AI
Correct refereren omvat het vermelden van de organisatie als auteur, jaartal, versie en URL, bijvoorbeeld: OpenAI.. ChatGPT (Mar 14 version) \[Large language model. [https://chat.openai.com/](https://chat.openai.com/) [77](#page=77).
#### 4.7.3 Verantwoord AI-gebruik
De onderzoeker blijft eindverantwoordelijk voor de inhoud. AI ondersteunt, maar vervangt de menselijke rol niet. Het gebruik van een verificatiemodel, het noteren van AI-inzet en het volgen van institutionele richtlijnen zijn essentieel [77](#page=77).
#### 4.7.4 Verificatiemodel
Het verificatiemodel omvat het traceren van bronnen, het cross-checken met andere tools en menselijke beoordeling met expertise en kritisch denken. Rode vlaggen zoals geen bronvermelding, vage antwoorden of tegenstrijdigheden vereisen stopzetting en verificatie [78](#page=78).
#### 4.7.5 Sycophancy als onderzoeksassistent
De sycophantische neiging van AI kan een grote bedreiging vormen voor onderzoek, omdat het de neiging heeft overtuigingen te bevestigen in plaats van ze te bevragen. Het is cruciaal om neutrale prompts te stellen, naar tegenargumenten te vragen en altijd bronnen te checken [79](#page=79).
#### 4.7.6 Academische integriteit met AI
Academische integriteit vereist eerlijkheid (geen data fabriceren), transparantie (bronnen en AI-gebruik vermelden), verantwoordelijkheid (eindverantwoordelijke blijven), en respect voor personen, data en intellectueel eigendom. AI mag ondersteunen, maar nooit de integriteit ondermijnen [79](#page=79).
#### 4.7.7 Sterk en integer onderzoek met AI
Effectief onderzoek met AI combineert AI, literatuur en data, waarbij bronnen altijd gecontroleerd worden. Transparantie over prompts, tools en versies, en kritisch beoordelen van inhoud zijn essentieel. Blind vertrouwen op AI, gebrek aan bronvermelding, of het inzetten van AI als vervanging voor analyse moeten vermeden worden. De combinatie van AI-snelheid, menselijk oordeel en onderzoeksdiscipline leidt tot academische integriteit [80](#page=80).
* * *
## Veelgemaakte fouten om te vermijden
* Bestudeer alle onderwerpen grondig voor examens
* Let op formules en belangrijke definities
* Oefen met de voorbeelden in elke sectie
* Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Artificiële Intelligentie (AI) | Technologie die menselijke intelligentie simuleert, gericht op autonomie en aanpassingsvermogen. Het is een discipline, geen entiteit. |
| Autonomie | Het vermogen van een systeem om zelfstandig te handelen en beslissingen te nemen zonder constante menselijke tussenkomst. |
| Aanpassingsvermogen | Het vermogen van een systeem om te leren van ervaringen en zich aan te passen aan nieuwe of veranderende omstandigheden. |
| Meervoudige Intelligentie | Een theorie van Howard Gardner die stelt dat intelligentie niet één-dimensionaal is, maar bestaat uit verschillende onafhankelijke intelligenties, zoals taalkundig, logisch-mathematisch, ruimtelijk, muzikaal, kinesthetisch, interpersoonlijk, intrapersoonlijk en naturalistisch. |
| Weak/Narrow AI (Zwakke/Smalle AI) | AI die is ontworpen en getraind voor een specifieke taak, zoals spraakassistenten (Siri) of chatbots (ChatGPT). Deze vorm van AI bestaat en werkt. |
| General AI (AGI) / Sterke AI | AI die in staat is om elke intellectuele taak uit te voeren die een mens kan, op elk domein. Deze vorm van AI bestaat nog niet en er is discussie over wanneer (of of) het zal worden bereikt. |
| Super AI (ASI) | AI die de menselijke intelligentie op alle gebieden overtreft, inclusief creativiteit, algemene wijsheid en sociale vaardigheden. Dit is een puur theoretisch concept. |
| Rule-based AI | Een type AI dat werkt op basis van expliciete regels, gedefinieerd door menselijke experts. Deze systemen zijn voorspelbaar en controleerbaar, maar missen flexibiliteit en leervermogen. |
| Machine Learning (ML) | Een tak van AI waarbij algoritmen patronen uit data leren zonder expliciet geprogrammeerd te zijn. ML-modellen kunnen zich aanpassen aan nieuwe situaties, maar vereisen vaak veel gelabelde data. |
| Deep Learning (DL) | Een subset van Machine Learning die gebruik maakt van kunstmatige neurale netwerken met meerdere lagen (diepgaande structuren) om complexe patronen te herkennen en te leren. DL-modellen zijn krachtig, maar kunnen "black boxes" zijn vanwege hun complexiteit. |
| Supervised Learning | Een methode binnen Deep Learning waarbij een model wordt getraind met gelabelde voorbeelden, zodat het toekomstige gegevens kan classificeren of voorspellen. |
| Unsupervised Learning | Een methode binnen Deep Learning waarbij een model patronen ontdekt in ongelabelde data, zoals het groeperen van vergelijkbare items. |
| Reinforcement Learning | Een methode binnen Deep Learning waarbij een agent leert door middel van beloningen en straffen voor uitgevoerde acties, met als doel de totale beloning over tijd te maximaliseren. |
| Generative AI (GenAI) | Een type AI dat nieuwe content kan creëren, zoals tekst, afbeeldingen, muziek of code, op basis van geleerde patronen uit trainingsdata. Dit staat in contrast met traditionele AI die data analyseert en classificeert. |
| Transformer Architectuur | Een type neuraal netwerk dat is ontworpen om sequentieel data te verwerken door middel van een 'attention mechanism', wat een efficiëntere en contextgevoeligere verwerking mogelijk maakt. Dit is de basis voor veel moderne taalmodellen. |
| Attention Mechanism | Een techniek binnen neurale netwerken, met name in de Transformer-architectuur, die het model in staat stelt om zich te concentreren op de meest relevante delen van de input data bij het verwerken van informatie. |
| Tokenization | Het proces waarbij tekst wordt opgedeeld in kleinere eenheden, genaamd tokens, die vervolgens aan een uniek getal (ID) worden toegewezen. Dit is een voorbereidende stap om tekst te kunnen verwerken door AI-modellen. |
| Parameters | De waarden die de sterkte van de verbindingen tussen de 'neuronen' in een neuraal netwerk bepalen. Hoe meer parameters een model heeft, hoe meer patronen het potentieel kan herkennen en hoe 'slimmer' het kan zijn. |
| Pre-training | De initiële fase waarin een AI-model wordt getraind op een enorme dataset, meestal met als doel het voorspellen van het volgende woord in een zin. Dit proces bepaalt de basisparameters van het model. |
| Fine-tuning | Het proces waarbij een reeds voorgegetraind AI-model verder wordt aangepast voor een specifiekere taak of dataset, vaak met behulp van technieken zoals Reinforcement Learning from Human Feedback (RLHF). |
| Reinforcement Learning from Human Feedback (RLHF) | Een techniek die wordt gebruikt om AI-modellen, met name taalmodellen, te optimaliseren door menselijke beoordelaars feedback te laten geven op de output. Dit helpt het model om menselijke voorkeuren beter te volgen. |
| Prompt | Een tekstinstructie die aan een AI-model wordt gegeven om een specifieke taak uit te voeren of informatie te genereren. De kwaliteit van de prompt is cruciaal voor de kwaliteit van de output. |
| Prompt Engineering | De kunst en wetenschap van het ontwerpen van effectieve prompts om de gewenste output van AI-modellen te verkrijgen. Dit omvat het structureren van instructies, het verstrekken van context en het definiëren van het outputformaat. |
| Context Window | Het "werkgeheugen" van een AI-model, gemeten in tokens, dat zowel de input (prompt) als de output bevat. Een groter contextvenster maakt langere interacties mogelijk, maar kan de ruimte voor output beperken. |
| Hallucinaties | Wanneer een AI-model informatie genereert die niet feitelijk is of niet wordt ondersteund door de brongegevens. AI's kunnen overtuigend fictie presenteren als waarheid. |
| Knowledge Cutoff | De datum tot wanneer de trainingsdata van een AI-model up-to-date is. Informatie na deze datum is niet bekend bij het model, wat kan leiden tot verouderde antwoorden. |
| Bias | Vooroordelen die in de output van een AI-model terechtkomen, vaak als gevolg van vooroordelen die aanwezig zijn in de trainingsdata. Dit kan leiden tot discriminerende of oneerlijke resultaten. |
| Prompt Injection | Een aanvalstechniek waarbij een aanvaller de AI misleidt door slimme of verborgen instructies in de prompt of data te injecteren, met als doel ongewenste acties te laten uitvoeren. |
| Jailbreaking | Een techniek waarbij een gebruiker een AI-model probeert over te halen om inhoud te genereren die normaal gesproken door de beveiligingsmechanismen van het model wordt geblokkeerd. |
| RAG (Retrieval-Augmented Generation) | Een techniek die AI-modellen in staat stelt om antwoorden te baseren op specifieke documenten of externe kennisbronnen, waardoor hallucinaties worden verminderd en meer accurate, feitelijke informatie wordt gegenereerd. |
| Sycophancy | De neiging van een AI-model om de voorkeuren van de gebruiker te volgen en te bevestigen in plaats van objectieve of kritische informatie te geven. Dit kan leiden tot versterking van de bias van de gebruiker en misleidende antwoorden. |
| Academische Integriteit | De eerlijkheid, transparantie en verantwoordelijkheid in academisch werk. Bij AI-gebruik betekent dit het correct vermelden van bronnen, het vermijden van plagiaat en het verantwoord gebruiken van AI als hulpmiddel. |
Cover
Les 1-2-3-4 - slides_merged.pdf
Summary
# Introduction to artificial intelligence
Artificial intelligence (AI) is a field focused on creating technologies that simulate human intelligence, encompassing its history, various levels, and early concepts [5](#page=5) [6](#page=6).
### 1.1 What is intelligence and artificial intelligence?
Intelligence is defined through common elements such as autonomy (acting and deciding independently) and adaptability (learning from experience). Howard Gardner's theory of multiple intelligences suggests that intelligence is not a single, one-dimensional trait [7](#page=7).
Artificial intelligence (AI) is a technology that aims to simulate human intelligence, characterized by autonomy and adaptability. However, there are many misconceptions surrounding AI, often fueled by science fiction, marketing hype, and the confusion between AI's actual capabilities and perceived ones. There is no single, official definition of AI [8](#page=8).
#### 1.1.1 Misleading AI terminology
Certain words like "intelligence," "learning," and "understanding" can create misleading expectations by suggesting human-like qualities that current AI systems do not possess. It is crucial to understand that AI is task-specific; excelling in one task does not equate to general competence across all tasks. For instance, a self-driving car's functionality differs significantly from a spam filter. Furthermore, AI is a discipline, akin to mathematics or biology, and it is more accurate to refer to "AI methods" or "AI systems" rather than "an AI" [9](#page=9).
#### 1.1.2 The evolution of what is considered AI
The perception of what constitutes AI changes over time; what was once considered AI, such as GPS navigation or chess-playing computers, is now commonplace and no longer solely attributed to AI. The term "AI-powered" is often used broadly, sometimes applied to algorithms that are essentially just complex calculations rather than true AI. True AI is characterized by its ability to learn and adapt, distinguishing it from "smart software" (complex calculations) and "ordinary software" (fixed rules). Karen Hao's test from the MIT Technology Review offers a flowchart to distinguish between these .
### 1.2 Levels of AI
AI can be categorized into different levels based on its capabilities :
* **Weak/Narrow AI:** This type of AI is limited to performing specific, predefined tasks. Examples include virtual assistants like Siri and language models like ChatGPT. This level of AI currently exists and is operational .
* **General AI (AGI):** Also known as strong AI, AGI would possess the capability to perform any intellectual task that a human can across all domains. AGI does not yet exist, and experts have varying opinions on when it might be achieved, with estimates ranging from 10 to over 100 years .
* **Super AI (ASI):** ASI would surpass human intelligence in all aspects, including understanding consciousness and needs. This level is purely theoretical and its realization, if ever, is considered to be centuries away .
### 1.3 History and evolution of AI
The concept of artificial beings has a long history, dating back to ancient civilizations .
#### 1.3.1 Early conceptualizations and mechanical advancements
* **Ancient Civilizations (3000 BCE - 500 CE):** Greek mythology featured figures like Talos, a bronze giant, and early concepts of robots and automatons .
* **Mechanical Revolution (1600-1800):** Gottfried Leibniz developed the binary number system, which forms the basis of modern computers. Jacques de Vaucanson created a mechanical duck .
* **Computing Pioneers (1800-1900):** Charles Babbage and Ada Lovelace worked on the Analytical Engine. George Boole developed Boolean logic, dealing with true and false values .
#### 1.3.2 The birth of AI (1940-1960)
* **Computer Architecture:** John von Neumann's work on computer architecture introduced the concept of storing both data and programs .
* **Neural Networks:** Research into neural networks began in 1943 .
* **Dartmouth Conference:** This conference marked the first major gathering focused on AI, with an overly optimistic prediction that AI would be solved within a summer .
* **Early AI Programs:** The Logic Theorist was one of the first AI programs developed. The chatbot ELIZA, created between 1964 and 1966, simulated a psychotherapist and demonstrated the "ELIZA Effect" .
#### 1.3.3 The Turing Test .
Proposed by Alan Turing, the Turing Test is an experiment designed to assess a machine's ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human. The test involves a human interrogator conversing with both a human and a machine, and if the interrogator cannot reliably differentiate between the two, the machine is considered to have passed .
> **Tip:** The Turing Test is significant because it was one of the first objective measures of machine intelligence and focused on observable behavior rather than internal cognitive processes. It remains relevant in AI research and raises philosophical questions about the nature of intelligence and humanity .
#### 1.3.4 AI Winters and the revival
AI development has experienced periods of reduced funding and interest, often referred to as "AI Winters," which occur when the reality of AI capabilities fails to meet inflated expectations .
* **First Winter (1974-1980):** This period saw a halt in funding due to unmet promises .
* **Second Winter (1987-1993):** Expert systems proved to be too expensive to develop and maintain .
However, the period from 1990 to 2010 saw a significant revival due to technological breakthroughs .
* **Iconic Moments:**
* Deep Blue defeated chess grandmaster Garry Kasparov in 1997 .
* Watson won against Jeopardy! champions in 2011 .
* **Paradigm Shift:** The field transitioned from rule-based AI to data-driven AI, and from expert systems to machine learning .
### 1.4 AI today and the future
AI is now ubiquitous, impacting various aspects of daily life and industry .
#### 1.4.1 Current applications of AI
AI is integrated into numerous applications, including:
* **Cameras:** Object detection and filters .
* **Navigation:** Real-time traffic information in maps .
* **Entertainment:** Personalized recommendations on platforms like Netflix .
* **Smart Devices:** Learning user behavior in smart thermostats .
* **E-commerce:** "Customers who bought this also bought..." suggestions on Amazon .
* **Social Media:** Curating user timelines .
* **Healthcare:** Assisting in scan analysis in hospitals .
* **Finance:** Fraud detection in banks .
* **Transportation:** Route optimization .
* **Human Resources:** CV screening .
* **Customer Service:** Chatbots .
#### 1.4.2 Future prospects for AI
The future of AI is expected to involve advanced autonomous systems and closer human-AI collaboration .
* **Autonomous Systems:** This includes fully self-driving vehicles, autonomous drones for deliveries, and self-optimizing supply chains .
* **Human-AI Collaboration:** AI is envisioned as a permanent co-pilot, augmenting human creativity and problem-solving abilities. This will likely lead to the emergence of new professions and skill requirements .
---
# How artificial intelligence works
Artificial intelligence operates through various technical mechanisms, evolving from rule-based systems to sophisticated machine learning and deep learning models, culminating in the current era of generative AI [10](#page=10).
### 2.1 Evolution of AI approaches
The development of artificial intelligence can be broadly categorized into distinct eras, each characterized by its underlying methodology and capabilities [10](#page=10).
#### 2.1.1 Rule-based AI
Emerging around the 1950s and prevalent until the 1990s, rule-based AI, often referred to as "old" AI, relies on explicitly programmed rules written by human experts to solve problems [10](#page=10).
* **Advantages:** Its primary benefits include predictability, understandability, and controllability, as the system's behavior is directly traceable to its defined rules [10](#page=10).
* **Disadvantages:** A significant drawback is its lack of flexibility; it cannot adapt to situations not covered by its pre-defined rules and possesses no learning capability. An example of this logic can be seen in platforms like IFTTT ("If This Then That"), which connect devices and services through user-defined rules [10](#page=10).
#### 2.1.2 Machine learning
This paradigm, prominent from the 1990s to the 2010s, marks the beginning of "new" AI, characterized by its data-driven approach [10](#page=10).
* **Mechanism:** Machine learning (ML) employs algorithms that learn patterns directly from data rather than relying on explicit programming [11](#page=11).
* **Advantages:** ML models can adapt to new situations and data, exhibiting a degree of flexibility absent in rule-based systems [10](#page=10).
* **Disadvantages:** A key limitation is the substantial requirement for large amounts of labeled data to train the models effectively. Platforms like Orange (available for download at orange.biolab.si) allow users to experiment with ML techniques using data [10](#page=10) [11](#page=11).
#### 2.1.3 Deep learning
Dominating from 2010 to the present, deep learning (DL) is inspired by the structure and function of the human brain [10](#page=10).
* **Mechanism:** It utilizes artificial neural networks with multiple layers of "neurons" to process complex patterns and relationships within data [11](#page=11).
* **Advantages:** Deep learning excels at recognizing intricate patterns that might be too complex for traditional ML algorithms [10](#page=10).
* **Disadvantages:** Deep learning models are often considered "black boxes" because their decision-making processes can be difficult to explain or interpret [10](#page=10).
* **Learning Approaches:** Deep learning employs three primary learning methods, analogous to how a child learns through examples, discovery, and trial and error [11](#page=11):
* **Supervised Learning:** In this approach, models are trained using labeled examples. For instance, a model can be trained on 10,000 labeled photos of dogs and cats to learn distinguishing features like ears, snouts, and size. When presented with a new photo, it can then classify it as either a dog or a cat. Potential issues include insufficient data, bias in labels, overfitting, incorrect labels, or the model learning erroneous associations. Tools like Google's Teachable Machine (teachablemachine.withgoogle.com) allow users to train neural networks with their own data [12](#page=12) [13](#page=13).
* **Unsupervised Learning:** This method involves finding patterns within data without the aid of pre-defined labels or an "answer key". For example, given 100,000 unlabeled photos, an unsupervised model would group them based on common characteristics. Challenges include identifying spurious correlations, understanding the rationale behind group formations, the lack of guaranteed useful insights, and potential bias within the data itself [12](#page=12).
* **Reinforcement Learning:** This technique operates on a system of rewards and punishments. An "agent" performs actions, receiving a positive reward (e.g., +1) for beneficial actions and a negative reward (e.g., -1) for detrimental ones, with the goal of maximizing the total reward over time. Problems can arise from "reward hacking" (exploiting the reward system), extended training times, convergence to local optima, and reward mismatching the desired behavior [13](#page=13).
#### 2.1.4 Generative AI
A more recent development, generative AI (Gen AI), has emerged significantly from 2020 onwards [10](#page=10).
* **Key Differentiator:** Unlike models that primarily classify or predict, Gen AI is capable of creating novel content. It processes context to produce coherent outputs across various modalities, including text, images, audio, and video [14](#page=14).
* **Transformer Architecture:** A pivotal breakthrough enabling modern generative AI was the transformer architecture, introduced in a 2017 Google paper titled "Attention Is All You Need". This architecture allows each word in a sequence to "pay attention" to other words, thereby understanding context more effectively. This innovation forms the basis for advanced models like ChatGPT [14](#page=14).
### 2.2 The role of the transformer architecture
The transformer architecture represents a fundamental shift in how AI models process sequential data, particularly text [14](#page=14).
* **Mechanism:** Its core innovation is the "attention mechanism," which enables the model to weigh the importance of different words in an input sequence relative to each other. This allows for a much richer understanding of context and dependencies, even across long sequences [14](#page=14).
* **Impact:** This architecture has been instrumental in the rapid advancement of natural language processing (NLP) and is the foundational technology behind many state-of-the-art generative AI models, including large language models (LLMs) like ChatGPT [14](#page=14).
### 2.3 The current AI hype and its drivers
The recent surge in interest and adoption of AI, particularly generative AI, can be attributed to a convergence of several key factors, creating a "perfect storm" [15](#page=15).
* **Data Explosion:** The widespread use of the internet and digital technologies has led to an exponential increase in available data, providing vast training datasets for AI models [15](#page=15).
* **Computing Power:** Advances in hardware, such as Graphics Processing Units (GPUs), coupled with the scalability of cloud computing, have provided the massive computational power required for training complex AI models [15](#page=15).
* **Algorithmic Revolutions:** Breakthroughs like the transformer architecture have unlocked new capabilities and efficiencies in AI model development and performance [15](#page=15).
* **Open Source Culture:** The collaborative nature of the research community, with a strong emphasis on sharing code and findings, has accelerated development and innovation in the field [15](#page=15).
* **Transition from Lab to Mainstream:** The period from 2010-2020 was characterized by research and experimentation, followed by the development of working prototypes from 2020-2022. The period from 2022 onwards has seen the emergence of consumer-ready products, exemplified by the "ChatGPT moment" [15](#page=15).
* **The ChatGPT Moment:** This event was significant due to its accessible chat interface, its "good enough" performance for a wide range of tasks, and its ability to follow complex instructions [15](#page=15) .
### 2.4 Generative AI as a General-Purpose Technology
Generative AI is not merely a single product or application but is increasingly viewed as a General-Purpose Technology (GPT) [15](#page=15).
* **Analogy:** Similar to historical GPTs such as steam power, computers, and electricity, Gen AI has the potential to transform all aspects of life and industry [15](#page=15).
* **Broad Impact:** It is expected to impact not just one sector but all sectors, driving transformation across the board [15](#page=15).
* **Rapid Adoption:** The adoption rate of Gen AI has been exceptionally fast, with platforms like ChatGPT reaching one million users in just five days and 100 million users within two months. The goal for such platforms is to reach one billion users by the end of 2025 [15](#page=15).
---
# The impact and pitfalls of artificial intelligence
Artificial intelligence (AI) is a general-purpose technology with the potential to transform all aspects of life, marked by rapid adoption driven by technological breakthroughs in data, computing power, algorithms, and open-source collaboration. However, alongside its transformative capabilities, AI presents significant challenges and pitfalls that require careful consideration [15](#page=15) [19](#page=19).
### 3.1 The AI hype cycle and adoption
The current excitement around AI, particularly generative AI (GenAI), can be understood through a technology adoption lifecycle. This cycle typically involves a "Technology Trigger" where a groundbreaking innovation like the transformer model emerges. This is followed by a "Peak of Inflated Expectations," characterized by widespread media attention and the belief that AI can solve all problems. As limitations and costs become apparent, the technology enters the "Trough of Disillusionment," marked by ethical and legal challenges. Eventually, the focus shifts to specific use-cases in the "Slope of Enlightenment," leading to the "Plateau of Productivity" where AI becomes a seamlessly integrated technology [16](#page=16).
The widespread adoption of GenAI has been exceptionally fast, reaching 1 million users in five days and 100 million in two months, with a goal of one billion users by the end of 2025. This rapid adoption is fueled by a "perfect storm" of technological advancements [15](#page=15):
* **Data explosion:** The internet has generated vast amounts of training data [15](#page=15).
* **Computing power:** The combination of Graphics Processing Units (GPUs) and cloud computing provides immense computational resources for training AI models [15](#page=15).
* **Algorithm revolution:** Key algorithmic advancements, such as Transformers introduced in 2017, have enabled new capabilities [15](#page=15).
* **Open-source culture:** The sharing of research accelerates development [15](#page=15).
The "ChatGPT moment" in 2022 was a pivotal point, making AI accessible through a user-friendly chat interface and demonstrating its ability to perform many tasks adequately and follow complex instructions. This marks AI's transition from research labs to mainstream consumer products [15](#page=15).
### 3.2 Impact on productivity and work
AI has a significant impact on productivity, with studies indicating substantial improvements in task completion speed and output quality. A Boston Consulting Group (BCG) study involving 758 consultants found that tasks were completed 25% faster and with 40% better output when AI was used. However, AI's effectiveness is contingent on the task's complexity relative to the AI's capabilities; it can be detrimental for tasks outside its scope [17](#page=17).
An interesting paradox emerges in how AI affects different user groups [17](#page=17):
* **Experts benefit the most:** Individuals with deep domain knowledge can leverage AI as a powerful amplifier. They can better understand AI-generated output, critically evaluate its suggestions, and thus improve their performance significantly [17](#page=17).
* **Beginners are at risk of losing out:** Beginners may find that machines outperform them, potentially reducing their motivation to learn and develop fundamental skills. They risk becoming overly reliant on AI for instruction without truly understanding the underlying principles or the AI's output, a phenomenon sometimes referred to as "learning to instruct AI but not understanding the output" [17](#page=17).
The impact on work is characterized more by transformation and redistribution of tasks rather than outright elimination of jobs. This necessitates reskilling and upskilling, and leads to the emergence of new job roles [18](#page=18).
AI excels in several key areas that drive its impact [18](#page=18):
* **Automation of mundane tasks:** AI can automate repetitive and tedious tasks, reducing errors and allowing humans to focus on more strategic work [18](#page=18).
* **Improved decision-making:** AI can provide rapid, objective analyses that enhance decision-making processes [18](#page=18).
* **Global scalability and availability:** AI systems offer 24/7 availability and can be deployed globally with consistent performance [18](#page=18).
* **Risk reduction:** AI can reduce risks in dangerous environments or during critical processes [18](#page=18).
### 3.3 Pitfalls and ethical considerations
Despite its benefits, AI presents substantial drawbacks and risks that demand critical attention [19](#page=19).
#### 3.3.1 Bias and discrimination
AI systems can inherit and amplify existing societal biases present in their training data, leading to discriminatory outcomes. This can perpetuate and even exacerbate existing inequalities, affecting areas such as hiring, loan applications, and criminal justice [19](#page=19).
#### 3.3.2 Privacy and surveillance
The increasing deployment of AI, particularly in surveillance technologies, raises significant concerns about privacy and the balance between security and freedom. The ability of AI to collect, analyze, and interpret vast amounts of personal data can lead to unprecedented levels of monitoring [19](#page=19).
#### 3.3.3 Misinformation and deepfakes
AI's capacity to generate realistic text, images, and videos poses a serious threat through the spread of misinformation and deepfakes. This can undermine public trust in authentic information sources and destabilize social and political discourse [19](#page=19).
#### 3.3.4 High cost and environmental impact
Developing and deploying advanced AI systems can be prohibitively expensive, requiring significant investment in hardware, software, and expertise. Furthermore, the intensive computational processes involved in training and running AI models can have a considerable environmental footprint due to high energy consumption [19](#page=19).
### 3.4 Critical AI usage
Navigating the landscape of AI requires a critical and informed approach [19](#page=19).
> **Tip:** Own knowledge remains essential. AI should be viewed as a powerful amplifier, not a replacement for human expertise. The more you know about a subject, the better you can formulate questions for AI and evaluate its responses [19](#page=19).
Key principles for critical AI usage include:
* **Recognize AI's limitations:** AI is powerful but not universally effective. It is crucial to understand when AI is most and least useful [19](#page=19).
* **Be wary of hype:** Marketing often exaggerates AI capabilities. It's important to distinguish between scientific advancements and promotional claims [19](#page=19).
* **Context and judgment are crucial:** While AI can process information rapidly, human context, ethical judgment, and critical thinking remain indispensable for making sound decisions [20](#page=20).
In essence, AI is a tool, not an end goal. Its true value lies in how it is employed to augment human capabilities and address real-world challenges, while diligently mitigating its inherent risks and pitfalls [20](#page=20).
---
# Generative AI and its applications
Generative AI focuses on creating new content by learning patterns from existing data, evolving from traditional AI's analytical capabilities [22](#page=22).
### 4.1 Core principles of generative AI
Generative AI models create novel content, including text, images, music, speech, video, and 3D models, by learning and applying patterns from vast datasets. These models respond to instructions, known as prompts, and adapt their output accordingly [23](#page=23).
#### 4.1.1 Transformer technology and attention mechanisms
The transformer architecture, introduced in the paper "Attention Is All You Need" revolutionized AI by enabling models to process information concurrently rather than sequentially. Unlike older models that processed words one by one, transformers use an "attention mechanism" that allows the model to consider all words in a sentence simultaneously. This mechanism helps the model understand relationships between words, such as identifying the subject performing an action or the object of an action [23](#page=23).
#### 4.1.2 Tokenization
Computers process numerical data, so text must be converted into a format they can understand. Tokenization involves breaking down words into smaller pieces (tokens), with each token assigned a unique numerical ID that corresponds to an entry in the AI model's vocabulary [24](#page=24).
#### 4.1.3 Neural network architectures and parameters
The "brain" of an AI model consists of interconnected layers. The strength of these connections is determined by parameters. A higher number of parameters allows the AI to recognize more complex patterns, making it "smarter". For example, GPT-3 has 175 billion parameters, and GPT-4 has approximately 1 trillion parameters [24](#page=24).
##### 4.1.3.1 Pre-training AI models
The parameters of an AI model are established during a pre-training phase. This involves feeding the model enormous datasets, often petabytes of text. The primary task during pre-training is to predict the next word in a sentence. Through billions of these prediction attempts, the model's parameters are adjusted, with successful predictions strengthening connections and unsuccessful ones weakening them, leading to increased accuracy [25](#page=25).
##### 4.1.3.2 Fine-tuning AI models
After pre-training, a model acts as a vast repository of information. Fine-tuning refines this model, often using Reinforcement Learning from Human Feedback (RLHF). In RLHF, human evaluators score different responses to prompts, and a reward model learns these preferences. This refined model is then optimized, transforming a raw language model into a more user-friendly product [25](#page=25).
#### 4.1.4 Generating an answer from a prompt
The process of generating an answer from a prompt involves several steps [26](#page=26):
1. **Tokenization:** The input prompt is converted into tokens [26](#page=26).
2. **Processing through layers:** Each token passes through multiple layers (10-100) within the AI model's architecture. Each layer adds a deeper level of understanding, from recognizing individual words to comprehending meaning, context, emotion, and intent [26](#page=26).
3. **Attention mechanism:** All tokens interact with each other using the attention mechanism [26](#page=26).
4. **Answer generation:** The AI model predicts the most probable next word, generating the response word by word [26](#page=26).
> **Tip:** Interactive visualizations, such as the one at `https://bbycroft.net/llm`, can help understand how large language models work [26](#page=26).
#### 4.1.5 Emergent behavior and the 'black box' problem
Generative AI models exhibit emergent behavior, where complex skills spontaneously appear as the model grows in size and power. This can lead to capabilities like coding or vast knowledge acquisition, even if not explicitly programmed. However, the extreme complexity of these models, with billions of parameters, makes them a "black box," where understanding the exact internal processes is impossible. This lack of transparency raises concerns about reliability, bias, and accountability [28](#page=28).
#### 4.1.6 Scaling laws
Scaling laws suggest that increasing the amount of data, parameters, and computational power leads to qualitative leaps in AI capabilities. This trend accelerates innovation but also amplifies the challenge of controlling systems that are not fully understood [29](#page=29).
### 4.2 Multimodal AI
Multimodal AI extends generative capabilities beyond text to include images, audio, video, and more, mirroring the complexity of human communication and opening new creative avenues [35](#page=35).
#### 4.2.1 Diffusion models for images
Diffusion models generate images by reversing a process that starts with random noise and gradually refines it into a coherent image. The process involves an iterative removal of noise, guided by a text prompt that dictates the transformation's direction. Training involves learning how to convert images into noise (forward process) and how to reverse that process (reverse process), identifying patterns between visual features and descriptions [36](#page=36).
#### 4.2.2 Neural audio models for sound
Neural audio models convert written text into realistic speech or music. They construct sound waves sample by sample, with prompts specifying voice, emotion, tempo, and style. Training involves analyzing extensive speech and music recordings to recognize patterns between sounds and text, and how emotions influence vocalization [35](#page=35).
#### 4.2.3 Temporal diffusion models for video
Temporal diffusion models add a time dimension to diffusion models, enabling the generation of sequential frames with temporal consistency. Prompts define actions, camera movements, and style. Training involves analyzing numerous videos with descriptions to ensure temporal coherence (how objects move between frames) and understanding basic physics principles [37](#page=37).
#### 4.2.4 Prompts in multimodal AI
The prompt structure for multimodal AI is often similar across different media types, leading to a "family" of results rather than identical outputs for the same prompt. While the exact output may vary, there's consistency in theme and style, such as similar composition in images or the same action in videos [38](#page=38).
### 4.3 Applications of generative AI
Generative AI is applied across various domains to create new content and enhance existing workflows [23](#page=23).
* **Text generation:** Essays, poems, code, and general conversational responses [23](#page=23).
* **Image generation:** Photos, paintings, logos, and illustrations [23](#page=23).
* **Music generation:** Melodies and full songs [23](#page=23).
* **Speech generation:** Realistic human-like voice output [23](#page=23).
* **Video generation:** Short clips and animations [23](#page=23).
* **3D model generation:** Objects for games or architectural visualizations [23](#page=23).
#### 4.3.1 AI tools and their specializations
There is a wide array of AI tools, each with different specializations, technical architectures, and business models. The "best" AI model is not universal but depends on the specific task [30](#page=30).
> **Example:** Tools like ChatGPT are versatile, while others like Claude excel in analyzing long documents, and Perplexity is strong for research and real-time data. GitHub Copilot is specialized for code writing [33](#page=33).
#### 4.3.2 Choosing the right AI tool
When selecting an AI tool, several factors are crucial:
* **Privacy:** Ensuring data sensitivity and zero-retention policies are met [32](#page=32).
* **Cost and budget:** Starting with free versions and upgrading only when added value is demonstrated [32](#page=32).
* **Integration and ecosystem:** Checking compatibility with existing software like Microsoft 365 (Copilot) or Google Workspace (Gemini). APIs are also a consideration for custom integrations [33](#page=33).
* **Task and specialization:** Matching the tool to the specific requirements of the task [33](#page=33).
* **Speed vs. Quality:** Opting for faster models for brainstorming (e.g., ChatGPT, Claude Instant) or more thorough models for quality-critical tasks (e.g., Claude Opus, Perplexity) [34](#page=34).
* **Implementation:** Considering user-friendliness, availability of training and support, and the need for regular evaluation of the tool's continued relevance and cost-effectiveness [34](#page=34).
#### 4.3.3 Local AI model usage
Platforms like Ollama allow users to run Large Language Models (LLMs) locally on their own computers, offering enhanced privacy and control. This approach supports various models and can be easily integrated with programming languages like Python [31](#page=31).
### 4.4 Pitfalls and how to avoid them
Despite their power, generative AI models have limitations and potential pitfalls that users must be aware of [40](#page=40).
#### 4.4.1 Hallucinations
Hallucinations occur when AI generates information that is factually incorrect or not supported by its training data, presenting fabricated details as truth. This can manifest as contradictions within the output, a lack of substantiation from reliable sources, or responses that deviate from the original prompt. Hallucinations happen because AI models are trained to always provide an answer and may invent plausible-sounding information to fill knowledge gaps without a mechanism for fact verification [41](#page=41) [42](#page=42).
#### 4.4.2 Knowledge cutoffs
AI models are trained on data up to a specific point in time, creating a "knowledge cutoff" date. They lack information about events or developments after this date, and updates to training data can take months or years. To mitigate this, it's advisable to use AI for timeless analysis and independently verify recent information [43](#page=43).
#### 4.4.3 Bias
Generative AI is not neutral, as it inherits biases present in its training data. This data may reflect historical prejudices or under-represent certain groups, leading to biased outputs .
> **Example:** Requesting illustrations for a "cleaning assistant" or a "scientist" might yield gendered or stereotypical depictions based on biases in the training data .
#### 4.4.4 Over-reliance
Becoming overly dependent on AI can lead to accepting its output without verification, neglecting independent research, or experiencing distress when AI is unavailable. This can compromise academic integrity, lead to poor decision-making by deferring to AI, and result in missed learning opportunities. Safe AI use in studies includes brainstorming, concept explanation, grammar checks, and research starting points, rather than full assignment completion .
#### 4.4.5 Privacy risks
User inputs can be used for model training, and data may be stored on servers in different countries. Sensitive information, including personal data, financial details, medical records, and confidential business or academic information, should not be shared .
> **Tip:** To use AI safely, anonymize sensitive information, use general examples instead of real data, read privacy policies, and consider alternative tools for highly sensitive content. A good rule of thumb is to share only what you would be comfortable seeing publicly online .
#### 4.4.6 Fact-checking strategies
To combat the limitations of AI, a "trust, but verify" approach is essential. This involves :
* Scanning for "red flags" in AI output .
* Conducting source research and cross-referencing information .
* Using triangulation by comparing outputs from different AI models .
* Consulting experts when necessary .
* Documenting AI usage, noting unverified information, and citing AI use appropriately .
* When in doubt, it is best to omit the information .
#### 4.4.7 General takeaways
Language models are the "operating system" for generative AI, which is powerful but still has limitations. It is recommended to choose one AI tool and learn it thoroughly. Users should remain critical of AI outputs, recognizing that AI is a starting point for tasks, not the final solution. Effective prompting will be a focus for future learning .
---
# Effective prompting and research with AI
Effective prompting and research with AI is a crucial skill for leveraging artificial intelligence, covering how to craft optimal instructions for AI models and utilize them responsibly for academic and business research.
## 5. Effective prompting and research with AI
Interacting effectively with AI, particularly large language models (LLMs), hinges on the ability to provide clear and precise instructions, known as prompts. This skill, termed prompt engineering, directly influences the quality and relevance of the AI's output. While LLMs possess immense computational power, their utility is unlocked through well-crafted prompts, minimizing the need for extensive post-generation refinement. Understanding the underlying mechanisms, such as the context window, which acts as the AI's "working memory" and is measured in tokens, is vital for managing input and output lengths to maintain accuracy [46](#page=46) [47](#page=47).
### 5.1 The anatomy of a strong prompt
A robust prompt can be broken down into several key components, forming a framework that guides the AI to produce desired results. While various frameworks exist, they generally build upon the same foundational principles, offering structure and inspiration, especially for beginners [48](#page=48).
#### 5.1.1 Role
Assigning a role to the AI model dictates its persona, influencing the tone, perspective, and level of expertise in its responses (#page=48, 49). For instance, prompts can instruct the AI to act as an experienced marketer, a patient math tutor, a creative copywriter, a critical reviewer, or a senior HR advisor [48](#page=48) [49](#page=49).
#### 5.1.2 Context
Providing context is essential for the AI to frame its answers appropriately, ensuring relevance, accuracy, and applicability (#page=48, 49). This includes background information, the objective of the task, the target audience, and any specific constraints or conditions. Examples include specifying that information is for new employees, adhering to a budget, or targeting a specific demographic like seniors with limited technical knowledge [48](#page=48) [49](#page=49).
#### 5.1.3 Instructions
Clear and specific instructions are paramount for precise output (#page=48, 50). These instructions should define the task, utilizing strong action verbs. Examples include summarizing text into key points, comparing products on various criteria, generating creative ideas, or analyzing business plans [48](#page=48) [50](#page=50).
#### 5.1.4 Examples
Including examples, known as few-shot prompting, significantly improves AI performance over instructions alone (#page=48, 50). These examples demonstrate the desired output, serving as both positive and negative illustrations. This can involve providing sample text, specifying a writing style, or using a template [48](#page=48) [50](#page=50).
#### 5.1.5 Output and format
Defining the expected output structure, length, language, and tone ensures the results are usable (#page=48, 51). This can range from requesting an answer as a table with specific columns, a maximum word count in a formal tone, a numbered list, or even a specific data format like JSON [48](#page=48) [51](#page=51).
#### 5.1.6 Don't
Setting boundaries by specifying what should be avoided increases precision and reduces the need for iterations (#page=48, 51). This is particularly important for sensitive topics or creative restrictions, such as avoiding jargon, excluding text from images, or refraining from giving medical or legal advice [48](#page=48) [51](#page=51).
### 5.2 Advanced prompting techniques
Beyond the basic anatomy, several advanced techniques can further enhance AI interaction for more complex tasks.
#### 5.2.1 Avoiding suggestive questions
Suggestive prompts can lead to biased and one-sided answers. Instead, neutral, open-ended questions that explore all options are recommended for comparisons, evaluations, and advice [52](#page=52).
#### 5.2.2 Increasing stakes
Making a task feel more critical can improve AI performance. Adding weight to the assignment, such as framing a presentation as a CEO pitch or a marketing plan as crucial for company survival, can lead to better results [52](#page=52).
#### 5.2.3 Prompt-chaining
This technique involves breaking down a complex task into a sequence of smaller, interconnected prompts, where the output of one prompt becomes the input for the next. This is ideal for managing complex workflows, and labeling intermediate results can aid in maintaining an overview [53](#page=53).
#### 5.2.4 Chain-of-thought (CoT)
CoT prompting encourages the AI to show its thinking process and intermediate steps, leading to more transparent and accurate complex analyses. This is demonstrated by asking the AI to solve an equation while explaining each step, rather than just providing the final answer [54](#page=54).
#### 5.2.5 Tree-of-thought (ToT)
ToT is a more advanced method that involves generating multiple solution paths or strategies for a problem. It is particularly useful for strategic planning, problem-solving, and brainstorming, and limiting the number of options (e.g., 3-5) helps manage the output [54](#page=54).
#### 5.2.6 Using external knowledge (RAG)
Retrieval-Augmented Generation (RAG) bases AI answers on specific documents, reducing "hallucinations" (generating false information) for factual, current, or company-specific queries. Prompts can explicitly ask the AI to cite sources from provided documents [55](#page=55).
#### 5.2.7 Self-critique and self-improvement
This involves prompting the AI to generate an output, then critically evaluate it, and subsequently improve upon identified weaknesses. This is valuable for tasks requiring high-quality output, such as writing or policy notes, and can be enhanced by using explicit rubrics for evaluation [55](#page=55).
#### 5.2.8 Meta-prompting
Meta-prompts are designed to generate other prompts, which can lead to more powerful, complex, and automated prompts, thereby accelerating prompt engineering and workflow automation. This involves creating a prompt that guides the AI to ask questions about the user's task (role, context, instructions, etc.) and then generates an optimal prompt based on the answers [56](#page=56).
#### 5.2.9 CustomGPTs
CustomGPTs are personalized chatbots that can be built by users, offering a more tailored and efficient AI experience without needing to repeatedly define the AI's persona (#page=56, 57). They can be customized with specific instructions, conversational openings, knowledge bases (uploaded files), and integrated functionalities like web browsing or image generation [56](#page=56) [57](#page=57).
### 5.3 The dark side of prompting: security risks
While powerful, AI models are susceptible to security vulnerabilities, notably prompt injection and jailbreaking.
#### 5.3.1 Prompt injection
Prompt injection occurs when an AI model is tricked by clever or hidden instructions, allowing an attacker to "whisper" additional commands into the prompt or data, leading the AI to perform unintended actions. This can happen directly, when a user inputs a malicious prompt, or indirectly, when the prompt is embedded within documents or websites the AI processes. The dangers include sensitive data leakage, the spread of false information, and system disruption [58](#page=58).
#### 5.3.2 Prompt injection vs. jailbreaking
Prompt injection focuses on manipulating the AI's behavior through input or embedded documents to perform unwanted actions. Jailbreaking, on the other hand, involves persuading the AI to generate prohibited content by bypassing its safety guidelines [59](#page=59).
#### 5.3.3 Recognizing malicious prompts
Indicators of prompt injection include commands to "ignore previous instructions," "forget the rules," or "pretend to be." Malicious instructions can also be hidden within uploaded documents or website content, or disguised through diversionary tactics like "P.S." or unexpected conversational shifts [59](#page=59).
#### 5.3.4 Protecting against prompt injection
Defensive strategies include validating input by scanning for suspicious phrases, carefully checking AI outputs for anomalies, restricting the AI's access and permissions, implementing human oversight for critical outputs, and continuously monitoring AI interactions [60](#page=60).
### 5.4 AI for research
AI offers significant potential to enhance the efficiency and scope of research, but it necessitates critical evaluation and adherence to academic integrity principles.
#### 5.4.1 The importance of research
Research is fundamental to distinguishing insight from illusion, as AI can identify patterns, but human researchers must verify their meaningfulness. Researching is a professional skill that involves curiosity, critical questioning, relying on multiple sources, and adapting one's views. In a business context, this applies across various functions like marketing, HR, finance, operations, and management. Engaging in research makes individuals "future-proof" by enabling them to critically assess information, ask better questions, and make well-substantiated decisions [63](#page=63) [64](#page=64).
#### 5.4.2 Evolution of research
Research has evolved from traditional methods relying on physical sources and manual analysis (pre-2000) to digital acceleration with online resources and tools (post-2000), and now to AI-driven knowledge production with automated syntheses and human-AI collaboration (post-2022) [64](#page=64).
#### 5.4.3 Traditional vs. AI-assisted research
Traditional research excels in peer-reviewed quality, deep context, nuance, and transparent methodology, but is time-intensive and can be subject to human bias. AI-assisted research offers rapid analysis and synthesis, scalability for large datasets, and enhanced accessibility, but faces limitations like hallucinations, amplification of bias, and a "black box" nature [65](#page=65).
#### 5.4.4 The hybrid approach
A hybrid approach, combining the strengths of both traditional and AI-assisted research, is recommended. This involves using AI for exploration and speed, and traditional methods for validation and depth. Key principles include human verification, developing accountability rules, investing in open LLMs, embracing AI's benefits while preserving quality, and fostering international discussion on responsible AI use [65](#page=65) [66](#page=66).
#### 5.4.5 The research process
The research process generally follows these steps:
1. **Exploration:** Define the research question [66](#page=66).
2. **Exploration (Knowledge Discovery):** Identify existing knowledge, reports, trends, and studies [66](#page=66).
3. **Evidence Gathering:** Collect and critically check facts and sources from multiple angles [66](#page=66).
4. **Analysis & Interpretation:** Identify patterns, draw connections, and combine insights [66](#page=66).
5. **Synthesis:** Formulate conclusions, answer the research question, and translate findings into decisions [66](#page=66).
6. **Reflection:** Evaluate the process, assess reliability, and identify learnings [66](#page=66).
#### 5.4.6 Research question criteria
An effective research question should be:
* **Researchable:** Answerable through investigation [67](#page=67).
* **Feasible:** Achievable within given time and resources [67](#page=67).
* **Valuable:** Yield useful insights for decision-making [67](#page=67).
* **Complex:** Requiring analysis and interpretation [67](#page=67).
* **Relevant:** Aligned with organizational goals or market needs [67](#page=67).
* **Specific:** Clearly defined and focused [67](#page=67).
* **Single Problem:** Addressing one core theme [67](#page=67).
* **Practically Applicable:** Results can be directly used [67](#page=67).
#### 5.4.7 AI tools for research
Various AI tools can support different stages of the research process:
* **Exploration/Brainstorming:** LLMs (e.g., ChatGPT, Gemini, Claude), Perplexity [68](#page=68).
* **Finding Sources/Visualizing Themes:** Perplexity, ResearchRabbit, Elicit [68](#page=68).
* **Validating Claims/Checking Consensus:** Consensus, ResearchRabbit, Elicit [68](#page=68).
* **Summaries/Comparisons:** ChatPDF, NotebookLM [68](#page=68).
* **Integrating Findings:** NotebookLM, Perplexity [68](#page=68).
* **Process Evaluation/Bias Check:** LLMs [68](#page=68).
**Key principles for using AI in research:**
* AI generates information, but the researcher directs its focus, depth, and reliability [68](#page=68).
* Researchers choose the AI's role (assistant, critic, summarizer) and formulate the key questions [68](#page=68).
* Crucially, researchers must control sources, assumptions, and decide what is usable [68](#page=68).
* Effective research prompting aims to enhance thinking, not just obtain answers [68](#page=68).
#### 5.4.8 Prompting in research
When prompting for research, it's important to:
* Define the AI's role and provide sufficient context and clear instructions [69](#page=69).
* Use output definitions for format and length [69](#page=69).
* Include examples and "don'ts" [69](#page=69).
* Employ critical filtering, ask neutral prompts, avoid suggestive questions, and always request sources and reliability information [69](#page=69).
* Use AI as a reflection partner, not an ultimate source of truth [69](#page=69).
**Specific AI tools for research:**
* **LLMs (e.g., ChatGPT, Gemini, Claude, Mistral):** Useful for exploration (generating research questions, exploring angles) and reflection (identifying biases, improving verification strategies, exploring alternative interpretations). Avoid using them as primary sources due to knowledge cutoffs [69](#page=69).
* **Perplexity:** An AI search engine with automatic source citation, useful for exploring trends, synthesizing findings from multiple sources, and checking current consensus [70](#page=70).
* **ResearchRabbit:** Visualizes scientific paper discovery through citation networks, helping to find related research and track the evolution of a field [70](#page=70).
* **Elicit:** Assists in systematic literature reviews, helps formulate research questions, and summarizes key findings and methodologies with transparent source attribution [71](#page=71).
* **Consensus:** Shows scientific consensus on claims (e.g., "78% of studies confirm X"), ideal for validating assertions, though it's crucial to check the number of studies, investigate outliers, and read key studies directly (#page=71, 72) [71](#page=71) [72](#page=72).
* **ChatPDF:** Excellent for quick screening and answering specific questions about PDFs, summarizing findings, identifying limitations, and finding quotes with page numbers [72](#page=72).
* **NotebookLM:** Offers source grounding to prevent hallucinations, can analyze multiple papers simultaneously, and acts as an organizational tool for research projects, helping to identify themes, compare methodologies, and spot contradictions [72](#page=72).
#### 5.4.9 Optimizing research with AI
Research can be optimized through:
* **Parallel Processing:** Using multiple tools concurrently and dividing tasks between AI and human researchers, automating repetitive tasks [73](#page=73).
* **Iterative Refinement:** Starting broadly and refining based on initial findings, using feedback from one tool to improve another, and continuously enhancing prompts [73](#page=73).
* **Documentation and Tracking:** Recording used tools and prompts, documenting verification steps, and using project management tools [73](#page=73).
#### 5.4.10 Academic integrity with AI
The use of AI in academic settings requires careful consideration of ethical principles.
* **Permitted Use:** Generating ideas, structuring text, improving writing, explaining complex concepts, searching for sources, and supporting data analysis [74](#page=74).
* **Problematic Use:** Having AI write entire texts, copy-pasting without verification, accepting answers without critical thinking, and concealing AI usage [74](#page=74).
**Citing AI use is crucial for:**
* **Transparency:** Disclosing AI's role in the work [75](#page=75).
* **Acknowledgement:** Recognizing the AI developers [75](#page=75).
* **Accessibility:** Allowing readers to consult the tool [75](#page=75).
AI use should be cited when it provides direct output (text, code, ideas), acts as support (analysis, structure), or contributes meaningfully to the content. Proper citation involves including the tool, version, date of access, and URL, often using organizational names as authors for LLMs (#page=75, 76) [75](#page=75) [76](#page=76).
**Responsible AI use emphasizes:**
* **Personal Responsibility:** The user remains ultimately accountable for the content [76](#page=76).
* **Verification Model:** Always verify AI-generated information [76](#page=76).
* **Documentation:** Record how and when AI was used [76](#page=76).
* **Institutional Guidelines:** Follow the specific rules of the institution [76](#page=76).
**The verification model includes:**
1. **Tracing the source:** Asking for citations and checking original context [77](#page=77).
2. **Cross-checking with other tools:** Comparing results from different AIs for consistency [77](#page=77).
3. **Human assessment:** Applying personal expertise, being critical, and seeking a second opinion [77](#page=77).
Red flags in AI output include lack of source citation, vague or overly perfect answers, contradictions, and claims that conflict with established knowledge [77](#page=77).
#### 5.4.11 Sycophancy and its impact
Sycophancy, or the tendency of an AI model to please the user rather than necessarily being correct, is an inherent trait of language models. This can lead to the AI aligning answers with a user's beliefs or even fabricating information (hallucinating) to avoid admitting ignorance [78](#page=78).
**Consequences of sycophancy include:**
* **Manipulability:** Making the AI susceptible to prompt injection and jailbreaking, as the prompt can be stronger than the safety guidelines [78](#page=78).
* **Bias Amplification:** Reinforcing the user's own biases [78](#page=78).
* **False Reliability:** Creating an illusion of trustworthiness [78](#page=78).
* **Incorrect Conclusions:** Leading to flawed research outcomes [78](#page=78).
When using AI as a research assistant, sycophancy is a significant obstacle. To counter this, researchers must use neutral prompts, actively seek counterarguments, and consistently verify sources [79](#page=79).
#### 5.4.12 Strong and integral research with AI
Effective and ethical research with AI involves combining AI's speed with human judgment and rigorous research discipline. Key practices include combining AI, literature, and data for completeness, always verifying sources, being transparent about prompts and tools, and critically assessing content beyond mere phrasing. Avoid blindly trusting AI, neglecting source citation or context, using AI as a substitute for analysis, or ignoring ethical principles. AI should be used to think better, not to copy answers [80](#page=80).
---
## Common mistakes to avoid
- Review all topics thoroughly before exams
- Pay attention to formulas and key definitions
- Practice with examples provided in each section
- Don't memorize without understanding the underlying concepts
Glossary
| Term | Definition |
|---|---|
| Artificial Intelligence (AI) | A field of computer science dedicated to creating systems that can perform tasks typically requiring human intelligence, such as learning, problem-solving, perception, and decision-making. |
| Narrow AI (Weak AI) | Artificial intelligence designed and trained for a specific, limited task, such as virtual assistants or image recognition software. This is the current state of AI technology. |
| General AI (AGI) | A hypothetical type of artificial intelligence that possesses the ability to understand, learn, and apply knowledge across a wide range of tasks at a human level. It does not currently exist. |
| Super AI (ASI) | A theoretical form of artificial intelligence that would surpass human intelligence and cognitive abilities in virtually all aspects. Its existence and feasibility remain purely speculative. |
| Turing Test | An experiment proposed by Alan Turing to assess a machine's ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human. |
| AI Winters | Periods in the history of artificial intelligence research characterized by reduced funding and interest, often due to over-optimistic predictions and a failure to meet projected advancements. |
| Rule-based AI | An older form of AI where systems are programmed with explicit rules and logic to perform tasks. These systems are predictable but lack flexibility and learning capabilities. |
| Machine Learning (ML) | A subset of AI that enables systems to learn from data without being explicitly programmed. Algorithms identify patterns and make predictions or decisions based on the data they are trained on. |
| Deep Learning (DL) | A subfield of machine learning that uses artificial neural networks with multiple layers (deep neural networks) to process complex patterns and relationships in data. It is inspired by the structure and function of the human brain. |
| Supervised Learning | A type of machine learning where models are trained on labeled datasets, meaning each data point is associated with a correct output. The model learns to map inputs to outputs based on these examples. |
| Unsupervised Learning | A type of machine learning where models are trained on unlabeled data. The goal is to find hidden patterns, structures, or relationships within the data without prior knowledge of the correct outputs. |
| Reinforcement Learning | A type of machine learning where an agent learns to make decisions by performing actions in an environment to maximize a cumulative reward. It involves a system of rewards and punishments. |
| Generative AI (Gen AI) | A type of AI that can create new content, such as text, images, audio, or video, based on the patterns learned from its training data. This contrasts with traditional AI that primarily analyzes or classifies existing data. |
| Transformer Architecture | A neural network architecture, introduced in 2017, that revolutionized natural language processing and is the foundation for many modern generative AI models, including ChatGPT. It uses an "attention mechanism" to weigh the importance of different input elements. |
| Attention Mechanism | A component in neural networks, particularly transformers, that allows the model to focus on specific parts of the input data when processing it, assigning different weights to different elements based on their relevance. |
| Tokenization | The process of breaking down text into smaller units, called tokens, which can be words, sub-word units, or characters. These tokens are then converted into numerical representations that AI models can process. |
| Parameters | Variables within an AI model, particularly neural networks, that are adjusted during the training process. The number and strength of these parameters determine the model's complexity and ability to learn patterns. |
| Pre-training | The initial stage of training a large AI model on a massive dataset, typically for a general task like predicting the next word in a sentence. This process establishes the model's foundational knowledge and parameters. |
| Fine-tuning | A subsequent training stage where a pre-trained AI model is further trained on a smaller, more specific dataset or using techniques like Reinforcement Learning from Human Feedback (RLHF) to adapt it for particular tasks or preferences. |
| Reinforcement Learning from Human Feedback (RLHF) | A method used to fine-tune AI models, especially language models, by incorporating human preferences. Human reviewers rank model outputs, and this feedback is used to train a reward model that guides the AI's behavior. |
| Prompt | The input text or instruction given to an AI model to guide its response. The quality and specificity of the prompt significantly influence the AI's output. |
| Prompt Engineering | The practice of designing and refining prompts to elicit desired outputs from AI models. It involves understanding how AI interprets instructions and structuring prompts for optimal results. |
| Context Window | The "working memory" of an AI model, measured in tokens, that can hold both the input prompt and the generated output. A larger context window allows the model to consider more information, but can also limit the space for output. |
| Hallucination | An error in AI-generated content where the model produces false, misleading, or nonsensical information presented as factual. This often occurs when the AI lacks sufficient or accurate training data. |
| Knowledge Cutoff | The point in time up to which an AI model's training data is current. Information generated by the AI may be outdated or incomplete if it pertains to events or developments after this cutoff date. |
| Bias (in AI) | The tendency of an AI model to produce prejudiced or unfair outputs, often reflecting historical biases present in its training data. This can lead to discrimination against certain groups. |
| Prompt Injection | A security vulnerability where malicious instructions are embedded within a prompt or data input, causing the AI model to deviate from its intended behavior and potentially execute unintended actions. |
| Jailbreaking | The act of persuading an AI model to bypass its safety guidelines or ethical restrictions to generate content it would normally refuse, such as harmful or inappropriate material. |
| Multimodal AI | AI systems capable of processing and generating information across multiple types of data, such as text, images, audio, and video, mimicking human perception and communication. |
| Diffusion Models | A class of generative models used for creating images, audio, and video. They work by gradually removing noise from a random data distribution to generate a coherent output, guided by a prompt. |
| Sycophancy | The tendency of an AI model to generate responses that align with the user's perceived beliefs or preferences, often to please the user rather than provide objective or accurate information. |
| Academic Integrity | The adherence to ethical principles in academic pursuits, including honesty, transparency, fairness, and respect for intellectual property. This extends to the responsible use of AI in academic work. |
| Retrieval-Augmented Generation (RAG) | A technique that combines generative AI with information retrieval. The AI retrieves relevant information from a knowledge base or documents before generating a response, helping to reduce hallucinations and provide more accurate, up-to-date answers. |
| Chain-of-Thought (CoT) Prompting | A prompting technique that encourages the AI model to break down a problem into intermediate steps and explain its reasoning process, leading to more accurate and transparent problem-solving. |
| Tree-of-Thought (ToT) Prompting | An advanced prompting technique that explores multiple reasoning paths or "thoughts" for a given problem, allowing the AI to evaluate different strategies and select the most promising one. |
Cover
Les 1-2-3-4 - slides_merged.pdf
Summary
# Inleiding tot kunstmatige intelligentie
Dit onderwerp biedt een introductie tot kunstmatige intelligentie (AI), verkent de historische ontwikkeling, definieert het concept en onderscheidt verschillende niveaus van AI, terwijl het tevens gangbare misvattingen en terminologie ontrafelt.
### 1.1 Wat is intelligentie?
Intelligentie kent geen eenduidige definitie en wordt door veel mensen anders geïnterpreteerd. Desalniettemin zijn er gemeenschappelijke elementen die vaak worden benoemd [7](#page=7):
* **Autonomie:** Het vermogen om zelfstandig te handelen en beslissingen te nemen [7](#page=7).
* **Aanpassingsvermogen:** Het vermogen om te leren van ervaringen en zich aan te passen aan veranderende omstandigheden [7](#page=7).
Howard Gardner's theorie over meervoudige intelligentie benadrukt dat intelligentie niet unidimensionaal is [7](#page=7).
### 1.2 Wat is artificiële intelligentie?
De perceptie van artificiële intelligentie (AI) wordt sterk beïnvloed door sciencefiction, marketinghypen en buzzwords, wat leidt tot misconcepties en verkeerde verwachtingen over de werkelijke capaciteiten van AI. Er is geen officiële, universeel geaccepteerde definitie van AI. In de kern wordt AI beschouwd als technologie die menselijke intelligentie simuleert, met nadruk op autonomie en aanpassingsvermogen [8](#page=8).
#### 1.2.1 Misleidende AI-terminologie
Woorden zoals "intelligentie", "leren" en "begrijpen" worden vaak gebruikt in de context van AI, maar creëren containerbegrippen die verkeerde verwachtingen scheppen. Deze termen suggereren menselijke eigenschappen die AI niet bezit. Het is belangrijk te realiseren dat intelligentie niet eendimensionaal is; een zelfrijdende auto is bijvoorbeeld niet vergelijkbaar met een spamfilter, en ChatGPT kan een huis 'ontwerpen' maar niet bouwen [9](#page=9).
**AI is taakspecifiek:** AI is goed in één specifieke taak, maar dat betekent niet dat het ook goed is in andere taken [9](#page=9).
> **Tip:** Spreek niet over "een AI", aangezien AI een discipline is, vergelijkbaar met wiskunde of biologie. Gebruik liever termen als "AI-methode" of "AI-systeem" [9](#page=9).
#### 1.2.2 Is dit AI?
De definitie van wat als AI wordt beschouwd, verandert voortdurend. Wat vroeger als AI werd beschouwd, wordt vandaag de dag vaak als standaardtechnologie gezien, zoals GPS-navigatie of schaakcomputers. Tegenwoordig wordt de term "AI-powered" breed gebruikt, wat de aandacht vergroot, maar vaak wordt verwezen naar complexe algoritmen met hippe labels .
Het onderscheid ligt in het vermogen om te leren en zich aan te passen:
* **Échte AI:** Leert en past zich aan .
* **Slimme software:** Voert complexe berekeningen uit (grijze zone) .
* **Gewone software:** Werkt volgens vaste regels .
De "Flowchart" van Karen Hao (MIT Technology Review) kan helpen dit onderscheid te verduidelijken .
### 1.3 AI-niveaus – waar staan we?
De huidige en toekomstige mogelijkheden van AI worden vaak ingedeeld in drie niveaus:
* **Narrow AI (zwakke AI):** Is beperkt tot specifieke taken. Voorbeelden zijn virtuele assistenten zoals Siri en taalmodellen zoals ChatGPT. Deze vorm van AI bestaat en werkt momenteel .
* **General AI (AGI) (sterke AI):** Heeft het vermogen om alle menselijke taken op elk domein uit te voeren. AGI bestaat nog niet, hoewel experts sterk verdeeld zijn over de tijdslijn (geschat tussen 10 en 100+ jaar) .
* **Super AI (ASI):** Overtreft menselijke intelligentie en kan concepten als bewustzijn en behoeften begrijpen. Dit niveau is puur theoretisch en het is onzeker of en wanneer dit ooit zal worden bereikt .
### 1.4 Geschiedenis en evolutie van AI
De droom van kunstmatige wezens is zo oud als de mensheid zelf .
#### 1.4.1 Van oudheid tot begin 20e eeuw
* **Oude beschavingen (3000 v.Chr. - 500 n.Chr.):** Griekse mythologieën bevatten verhalen over robots en automatons, zoals Talos, de bronzen reus .
* **Mechanische revolutie (1600-1800):** Figuren als Gottfried Leibniz ontwikkelden het binaire getalsysteem, de basis voor computers, en Jacques de Vaucanson creëerde mechanische automaten zoals een eend .
* **Computing pioneers (1800-1900):** Charles Babbage en Ada Lovelace werkten aan de Analytical Engine, en George Boole legde de basis voor Booleaanse logica (True/False) .
#### 1.4.2 Geboorte van AI (1940-1960)
* **Von Neumann:** Ontwikkelde de computerstructuur met opslag voor zowel data als programma's .
* **Neurale netwerken:** Onderzoek hiernaar begon in 1943 .
* **Dartmouth-conferentie:** Dit was het eerste AI-congres, waar optimistisch werd voorspeld dat AI binnen één zomer zou worden opgelost. Het eerste AI-programma, Logic Theorist, werd hier ontwikkeld .
* **Chatbot ELIZA (1964-1966):** Deze chatbot imiteerde een psychotherapeut en leidde tot het zogenaamde ELIZA-effect .
#### 1.4.3 Turing Test .
De Turing Test, ontwikkeld door Alan Turing, is een experiment om machine-intelligentie te beoordelen. Het houdt in dat een ondervrager interactie heeft met zowel een mens als een computer, en indien de ondervrager niet kan vaststellen wie de computer is, de test is geslaagd .
* **Belangrijkheid:** Het was de eerste objectieve test voor machine-intelligentie, focuste op gedrag in plaats van interne processen, en blijft relevant in AI-onderzoek .
* **Filosofische vragen:** De test roept diepgaande filosofische vragen op over de aard van imitatie en intelligentie, en wat het betekent om menselijk te zijn .
> **Voorbeeld:** Een interactieve demo van de Turing Test is te vinden op [humanornot.so](https://humanornot.so/) .
#### 1.4.4 AI Winters – Hype vs. Realiteit
De geschiedenis van AI kent periodes van grote verwachtingen ("The next big thing") gevolgd door teleurstelling wanneer de realiteit niet aan deze verwachtingen voldeed. Dit werd verergerd door beperkte rekenkracht en databeschikbaarheid .
* **Eerste winter (1974-1980):** Gekarakteriseerd door een stopzetting van financiering .
* **Tweede winter (1987-1993):** Expert systemen bleken te duur om te onderhouden .
#### 1.4.5 De heropleving (1990-2010)
Deze periode werd gekenmerkt door technologische doorbraken en iconische momenten:
* **Deep Blue vs. Kasparov:** Een schaakcomputer versloeg de wereldkampioen .
* **Watson vs. Jeopardy Champions:** Een AI-systeem won het populaire kennisquizprogramma .
Een belangrijke paradigmaverschuiving vond plaats van regelgebaseerde systemen naar data-gedreven AI, en van expert systems naar machine learning .
#### 1.4.6 Vandaag: AI is overal!
AI-toepassingen zijn alomtegenwoordig in ons dagelijks leven en in diverse sectoren:
* **Technologie:** Camera's met objectdetectie en filters, kaarten met real-time verkeersinformatie, gepersonaliseerde aanbevelingen (Netflix, Amazon), slimme thermostaten die gedrag leren, en het samenstellen van sociale media tijdlijnen .
* **Gezondheidszorg:** Ondersteuning bij scananalyse in ziekenhuizen .
* **Financiële sector:** Fraudepreventie bij banken .
* **Transport:** Route-optimalisatie .
* **HR:** CV-screening .
* **Klantenservice:** Chatbots .
### 1.5 De toekomst van AI
De toekomst van AI belooft verdere transformatie:
* **Autonome systemen:** Volledig zelfrijdende voertuigen, autonome drones voor leveringen, en zelfoptimaliserende supply chains .
* **Human-AI samenwerking:** AI als permanente co-piloot voor ondersteuning bij creativiteit en probleemoplossing .
* **Nieuwe beroepen en vaardigheden:** De opkomst van nieuwe werkvelden en de noodzaak van nieuwe vaardigheden om met AI te interageren .
* * *
# Hoe kunstmatige intelligentie werkt
Dit onderdeel verkent de evolutie en de werking van verschillende AI-methoden, van regelgebaseerde systemen tot geavanceerde machine learning- en deep learning-technieken, en introduceert de principes van generatieve AI [10](#page=10) [11](#page=11) [12](#page=12) [13](#page=13) [14](#page=14).
### 2.1 Evolutie van AI-methoden
De ontwikkeling van kunstmatige intelligentie kan worden onderverdeeld in verschillende periodes, elk gekenmerkt door specifieke methodologieën en doorbraken [10](#page=10).
#### 2.1.1 Regelgebaseerde AI (circa 1950-1990)
Dit wordt ook wel de 'oude' AI genoemd. Bij deze methode schrijven menselijke experts expliciete regels voor hoe een systeem moet opereren en problemen moet oplossen [10](#page=10).
* **Voordelen**: Deze systemen zijn voorspelbaar, begrijpelijk en goed controleerbaar [10](#page=10).
* **Nadelen**: Ze zijn inflexibel en kunnen niet leren van nieuwe data of situaties. Een voorbeeld van een principe achter regelgebaseerde systemen is "If This Then That" (IFTTT), waarmee slimme apparaten en diensten aan elkaar gekoppeld kunnen worden door middel van ingestelde regels [10](#page=10).
#### 2.1.2 Machine Learning (circa 1990-2010)
Vanaf deze periode spreekt men van de 'nieuwe' AI, die data-gedreven is. Machine learning (ML) omvat technieken waarbij algoritmen patronen uit data leren [10](#page=10).
* **Voordelen**: ML-modellen kunnen zich aanpassen aan nieuwe situaties [10](#page=10).
* **Nadelen**: Ze vereisen vaak grote hoeveelheden gelabelde data om effectief te kunnen leren. Modellen leren hierbij direct van de data [10](#page=10) [11](#page=11).
#### 2.1.3 Deep Learning (circa 2010-heden)
Deep learning is een subveld van machine learning dat gebruikmaakt van kunstmatige neurale netwerken met vele lagen, geïnspireerd door de structuur en werking van het menselijk brein. Deze lagen van 'neuronen' verwerken complexe patronen en relaties in de data [10](#page=10) [11](#page=11).
Er zijn drie belangrijke manieren waarop deep learning-modellen kunnen leren, vergelijkbaar met hoe een kind leert door middel van voorbeelden, ontdekking en trial-and-error [11](#page=11):
##### 2.1.3.1 Supervised Learning (Begeleid Leren)
Bij supervised learning wordt een model getraind met gelabelde voorbeelden [12](#page=12).
* **Werking**: Het model leert patronen te herkennen in de data door de bijbehorende labels. Bijvoorbeeld, het herkennen van kenmerken zoals oren, snuit of grootte om te onderscheiden tussen foto's van honden en katten na training op 10.000 gelabelde foto's. Na training kan het model een nieuwe, ongelabelde foto analyseren en voorspellen of het een hond of kat is [12](#page=12).
* **Mogelijke problemen**: Te weinig data, bias in de labels, overfitting (het model leert de trainingsdata te goed uit het hoofd en presteert slecht op nieuwe data), fouten in de labels, of het 'verkeerd' leren van concepten [12](#page=12).
* **Toepassing**: Tools zoals Google's Teachable Machine maken het mogelijk om zelf neurale netwerken te trainen met eigen foto's of geluidsbestanden en labels [13](#page=13).
##### 2.1.3.2 Unsupervised Learning (Onbegeleid Leren)
Bij unsupervised learning vindt het model patronen in data zonder dat er antwoorden of labels aanwezig zijn [12](#page=12).
* **Werking**: Het model wordt gepresenteerd met een grote dataset (bijvoorbeeld 100.000 ongelabelde foto's) en probeert gemeenschappelijke kenmerken te groeperen om structuren te ontdekken [12](#page=12).
* **Mogelijke problemen**: Het vinden van verbanden die er niet werkelijk zijn, onduidelijkheid over waarom specifieke groepen worden gevormd, geen garantie op bruikbare inzichten, en bias die aanwezig is in de data [12](#page=12).
##### 2.1.3.3 Reinforcement Learning (Bekrachtigend Leren)
Reinforcement learning is gebaseerd op het principe van straffen en belonen [13](#page=13).
* **Werking**: Een 'agent' voert acties uit in een omgeving. Goede acties worden beloond (bijvoorbeeld met +1) en slechte acties worden bestraft (bijvoorbeeld met -1). Het doel is om de totale beloning over tijd te maximaliseren [13](#page=13).
* **Mogelijke problemen**: 'Reward hacking' (de agent manipuleert het beloningssysteem zonder het werkelijke doel te bereiken), lange trainingstijden, het vastlopen in lokale optima (suboptimale oplossingen), en een 'reward mismatch' (de beloning komt niet overeen met het gewenste gedrag) [13](#page=13).
**Tip**: In de praktijk worden vaak combinaties van deze leermethoden gebruikt. Zelfrijdende auto's combineren bijvoorbeeld supervised learning voor objectherkenning met reinforcement learning voor rijgedrag. Chatbots gebruiken supervised learning voor intentieherkenning en reinforcement learning om gesprekken te optimaliseren [13](#page=13).
#### 2.1.4 Generative AI (circa 2020-heden)
Generatieve AI (Gen AI) is een recente ontwikkeling die bijzonder is omdat het nieuwe content creëert in plaats van enkel te classificeren of voorspellen [14](#page=14).
* **Kenmerken**: Gen AI kan context verwerken en coherente output genereren in diverse modaliteiten, zoals tekst, beeld, audio en video (multimodaal) [14](#page=14).
* **Doorbraak**: De Transformer-architectuur, geïntroduceerd in het Google-paper "Attention is All You Need" was een cruciale doorbraak. Deze architectuur stelt elk woord in staat om 'aandacht' te besteden aan andere woorden in de zin, wat zorgt voor een beter begrip van context. Dit vormt de basis voor moderne systemen zoals ChatGPT [14](#page=14) .
> **Tip**: De Transformer-architectuur is essentieel voor het begrijpen van de kracht achter moderne taalmodellen en andere generatieve AI-toepassingen. De 'attention mechanism' is hierbij een sleutelconcept.
### 2.2 De werking van AI in de praktijk
AI-systemen, afhankelijk van hun architectuur, verwerken data om te leren, beslissingen te nemen of nieuwe content te creëren [10](#page=10) [11](#page=11) [12](#page=12) [13](#page=13) [14](#page=14).
* **Regelgebaseerd**: Volgt vooraf gedefinieerde logica [10](#page=10).
* **Machine Learning**: Identificeert patronen in datasets [10](#page=10) [11](#page=11).
* **Deep Learning**: Maakt gebruik van gelaagde neurale netwerken om complexe relaties te modelleren, wat kan gebeuren via supervised, unsupervised of reinforcement learning [11](#page=11) [12](#page=12) [13](#page=13).
* **Generatieve AI**: Creëert nieuwe, coherente output door te leren van patronen in enorme datasets, vaak met behulp van Transformer-architecturen [14](#page=14).
Het proces omvat doorgaans data-invoer, verwerking door het AI-model, en output in de vorm van een classificatie, voorspelling, of gegenereerde content [10](#page=10) [11](#page=11) [12](#page=12) [13](#page=13).
> **Example**: Een zelfrijdende auto gebruikt deep learning: het herkent objecten (bv. auto's, voetgangers, verkeersborden) met behulp van supervised learning getraind op duizenden beelden. Vervolgens neemt het beslissingen over sturen en remmen door middel van reinforcement learning, waarbij het probeert de rit zo veilig en efficiënt mogelijk te maken [13](#page=13).
* * *
# Toepassingen en impact van generatieve AI
Generatieve AI (GenAI) vertegenwoordigt een paradigmaverschuiving in kunstmatige intelligentie, gekenmerkt door het vermogen om nieuwe, originele content te creëren in plaats van alleen data te analyseren of te classificeren. Dit nieuwe tijdperk van AI is gedreven door technologische doorbraken zoals de transformer-architectuur, massale rekenkracht en een explosie aan data, waardoor het van een onderzoeksveld naar mainstream consumentenproducten is geëvolueerd. Hoewel GenAI enorme potentiële voordelen biedt voor productiviteit en bedrijfsontwikkeling, brengt het ook aanzienlijke risico's en uitdagingen met zich mee die kritisch gebruik vereisen [14](#page=14) [15](#page=15) [19](#page=19).
### 3.1 Kenmerken en evolutie van generatieve AI
#### 3.1.1 Wat maakt generatieve AI bijzonder?
Generatieve AI onderscheidt zich door zijn vermogen om originele content te creëren, context te verwerken en coherente output te genereren. In tegenstelling tot traditionele AI, die data analyseert, classificeert en voorspelt, focust GenAI op creatie. Dit omvat het genereren van tekst, afbeeldingen, audio, video, 3D-modellen en meer, waarbij het reageert op instructies (prompts) om de output aan te passen. De transformator-architectuur, geïntroduceerd in 2017 met het paper "Attention is All You Need", is cruciaal voor dit vermogen, omdat het modellen toestaat om de context van elk woord in een zin te begrijpen door "aandacht" te besteden aan andere woorden [14](#page=14) [22](#page=22) [23](#page=23).
#### 3.1.2 De transformer architectuur en aandachtmechanismen
De transformer-architectuur, een sleutelcomponent van moderne grote taalmodellen, lost de beperkingen van eerdere sequentiële modellen op. Traditionele modellen verwerkten informatie woord voor woord, wat leidde tot een gebrek aan context en trage prestaties. Het aandachtmechanisme (attention mechanism) maakt het mogelijk voor het model om direct naar alle woorden in de invoer te kijken, waardoor relaties en context tussen woorden effectiever worden begrepen. Dit is fundamenteel voor hoe GenAI complexe instructies kan volgen en coherente output kan produceren [23](#page=23).
#### 3.1.3 Grote Taalmodellen (LLMs) en hun werking
Grote Taalmodellen (LLMs) vormen de kern van veel GenAI-toepassingen, met name op het gebied van tekst. De werking van LLMs omvat verschillende stappen [29](#page=29):
* **Tokenization:** Tekst wordt opgedeeld in kleinere eenheden (tokens), die vervolgens worden omgezet in numerieke representaties die computers kunnen verwerken [24](#page=24).
* **Parameters en lagen:** LLMs bestaan uit vele lagen met miljarden parameters. Parameters bepalen de sterkte van de verbindingen binnen het model en bepalen hoeveel patronen het kan herkennen [24](#page=24).
* **Pre-training:** Tijdens pre-training wordt een model getraind op enorme datasets om het volgende woord in een zin te voorspellen. Dit proces past de parameters voortdurend aan, waardoor het model steeds accurater wordt [25](#page=25).
* **Finetunen:** Na pre-training wordt een model vaak gefinetuned met behulp van technieken zoals Reinforcement Learning from Human Feedback (RLHF). Hierbij scoren menselijke beoordelaars modelantwoorden, wat helpt om het model af te stemmen op menselijke voorkeuren en het bruikbaar te maken [25](#page=25).
* **Generatie van output:** Het proces van prompt naar antwoord omvat het omzetten van de prompt naar tokens, het doorlopen van de AI-lagen waar begrip wordt opgebouwd, en het genereren van het antwoord woord voor woord door het meest waarschijnlijke volgende woord te voorspellen [26](#page=26).
#### 3.1.4 Multimodale AI
Multimodale AI breidt de capaciteiten van GenAI uit naar het verwerken en genereren van verschillende soorten data, waaronder tekst, beeld, geluid en video. Dit is cruciaal omdat menselijke communicatie inherent multimodaal is, en een rijkere input leidt tot betere output en nieuwe creatieve mogelijkheden [14](#page=14) [32](#page=32).
* **Beeldgeneratie (Diffusiemodellen):** Diffusiemodellen werken omgekeerd: ze beginnen met willekeurige ruis en verwijderen deze geleidelijk, geleid door een prompt, om een afbeelding te creëren. Training omvat het leren hoe afbeeldingen naar ruis worden getransformeerd en hoe dit proces omgekeerd kan worden [33](#page=33) [36](#page=36).
* **Geluidsgeneratie (Neural Audio Modellen):** Deze modellen zetten geschreven tekst om in realistische spraak of muziek door geluidsgolven sample-voor-sample op te bouwen. De prompt bepaalt factoren zoals stem, emotie en stijl, gebaseerd op analyse van duizenden opnames [35](#page=35).
* **Videogeneratie (Temporele Diffusiemodellen):** Door een tijdsdimensie toe te voegen aan diffusiemodellen, kunnen deze modellen opeenvolgende frames genereren met temporele consistentie. Training omvat het analyseren van video's om beweging, consistentie tussen frames en basisprincipes van fysica te begrijpen [37](#page=37).
Prompts spelen een sleutelrol in multimodale AI en volgen vaak dezelfde structuur als bij tekstgeneratie, wat resulteert in een familie van outputs met consistente thematiek en stijl, maar variërende details [37](#page=37).
### 3.2 Hype, impact en risico's van generatieve AI
#### 3.2.1 De "hype cycle" rond generatieve AI
De huidige golf van GenAI-enthousiasme kan worden geplaatst binnen de "hype cycle" van technologieën:
* **Technology Trigger:** De publicatie van de transformer-architectuur [16](#page=16).
* **Peak of Inflated Expectations:** Enorme mediaprikkeling en de verwachting dat AI alle problemen zal oplossen [16](#page=16).
* **Trough of Disillusionment:** Het besef van beperkingen, hoge kosten en ethische/juridische problemen [16](#page=16).
* **Slope of Enlightenment:** Een verschuiving naar specifieke use-cases in plaats van generieke toepassingen [16](#page=16).
* **Plateau of Productivity:** AI wordt een geïntegreerde, gangbare technologie [16](#page=16).
De "perfect storm" van data-explosie, computerkracht, algoritme-revoluties en open-source cultuur heeft geleid tot deze snelle adoptie, waarbij consumentenproducten zoals ChatGPT de mainstream bereikten [15](#page=15).
#### 3.2.2 Impact op productiviteit en werk
GenAI heeft een aanzienlijke impact op productiviteit. Een studie toonde aan dat consultants taken tot 25% sneller konden voltooien en 40% betere output leverden met AI-ondersteuning. Echter, de voordelen zijn niet gelijk verdeeld: experts winnen het meest, omdat hun domeinkennis hen in staat stelt AI-output te begrijpen en te benutten, terwijl beginners die te afhankelijk worden, potentieel achterblijven. De impact op werk is een transformatie, geen eliminatie; banen veranderen, vereisen omscholing en de herverdeling van taken. AI is effectief in het automatiseren van saaie taken, het verbeteren van besluitvorming, het bieden van schaalbaarheid en het verminderen van risico's [17](#page=17) [18](#page=18).
#### 3.2.3 Valkuilen en kritisch gebruik van GenAI
Ondanks de kracht van GenAI zijn er significante nadelen en risico's:
* **Hallucinaties:** AI kan informatie verzinnen die niet klopt, zichzelf presenterend als waarheid. Dit kan intrinsiek (inconsistent met bronnen), extrinsiek (zonder brononderbouwing), sequentieel (inconsistent met eerdere output) of prompt-gerelateerd zijn. Dit gebeurt omdat AI niet weet wat het niet weet en gaten opvult met plausibel klinkende verzinsels [39](#page=39) [41](#page=41) [42](#page=42).
* **Knowledge Cutoffs:** Modellen hebben verouderde informatie omdat hun training data eindigt op een specifieke datum, en updates traag zijn [39](#page=39) [43](#page=43).
* **Bias en discriminatie:** AI weerspiegelt de vooroordelen in de trainingsdata, wat kan leiden tot versterking van bestaande ongelijkheden of stereotypen [19](#page=19) .
* **Overafhankelijkheid:** Het te veel vertrouwen op AI zonder verificatie kan leiden tot gemiste leermomenten, academische integriteitsproblemen en paniek wanneer AI niet beschikbaar is [39](#page=39) .
* **Privacy risico's:** Inputdata kan worden gebruikt voor modeltraining, en gevoelige informatie kan worden opgeslagen op servers, wat leidt tot zorgen over gegevensbeveiliging [19](#page=19) [39](#page=39) .
* **Hoge kosten en milieu-impact:** De training en het gebruik van grote modellen vereisen aanzienlijke rekenkracht en energie [19](#page=19).
#### 3.2.4 Strategieën voor veilig en effectief gebruik
Om de voordelen van GenAI te maximaliseren en de risico's te minimaliseren, is kritisch gebruik essentieel [19](#page=19) [40](#page=40).
* **Eigen kennis blijft cruciaal:** Hoe meer men weet over een onderwerp, hoe beter men vragen kan stellen en de output kan beoordelen [19](#page=19).
* **Ken de grenzen:** Begrijp wanneer AI wel en niet effectief is [19](#page=19).
* **Factchecking:** Scan de output op rode vlaggen, verifieer bronnen, vergelijk AI-antwoorden en raadpleeg indien nodig experts. Documenteer AI-gebruik en vermeld bronnen .
* **Privacy:** Anonimiseer gevoelige informatie, lees privacybeleid, en overweeg alternatieve tools voor gevoelige data. De vuistregel is: deel niets wat je niet openbaar zou willen zien .
* **Verantwoord gebruik in studie:** Gebruik AI voor brainstorming, conceptuele uitleg, en als startpunt, maar vermijd het overdragen van volledige opdrachten of plagiaat .
* **Modelkeuze:** Er bestaat geen "beste" AI-model; de keuze hangt af van de specifieke taak en vereisten (bv. snelheid vs. kwaliteit, analyse vs. creatie) [20](#page=20) [21](#page=21) [28](#page=28) [29](#page=29).
> **Tip:** GenAI is een middel, geen doel op zich. Focus op de meerwaarde die het kan bieden in plaats van de hype [30](#page=30) [41](#page=41).
#### 3.2.5 Bedrijfsinvesteringen en transformatie
Bedrijven investeren massaal in GenAI, met 70% die actief experimenteert. AI wordt beschouwd als een strategische prioriteit en raakt alle sectoren, wat een transformatie van het bedrijfsleven teweegbrengt. De adoptie is extreem snel, met doelstellingen van honderden miljoenen gebruikers binnen enkele maanden. Er zijn diverse tools beschikbaar, elk met hun eigen specialisaties, technische kenmerken en prijsmodellen, wat een zorgvuldige afweging vereist bij het kiezen van de juiste oplossing [15](#page=15) [16](#page=16) [20](#page=20) [21](#page=21).
> **Voorbeeld:** Tools zoals ChatGPT, Claude, Gemini en Copilot bieden verschillende functionaliteiten, variërend van algemene assistentie en creativiteit tot specifieke toepassingen zoals analyse, codering of onderzoek met real-time data. Er zijn ook opties om modellen lokaal te draaien voor meer privacy en controle, zoals via Ollama [21](#page=21) [28](#page=28) [31](#page=31).
* * *
# Effectief prompten en academische integriteit
Dit onderwerp belicht de cruciale vaardigheid van het effectief prompten van AI-modellen, de opbouw van robuuste prompts, geavanceerde technieken, en de potentiële risico's zoals promptinjectie, naast de ethische overwegingen van AI-gebruik in academisch onderzoek [44](#page=44) [53](#page=53).
### 4.1 Het belang van effectief prompten
Effectief prompten is essentieel om de immense rekenkracht van AI optimaal te benutten, wat leidt tot een hogere outputkwaliteit en minder noodzaak tot nabewerking. Het begrijpen van hoe AI werkt, vergroot het vertrouwen en de effectiviteit van het gebruik ervan, vooral in situaties zoals medische diagnoses waarbij AI-ondersteuning mogelijk is, maar menselijk oordeel cruciaal blijft [45](#page=45) [46](#page=46).
#### 4.1.1 Prompt engineering
Prompt engineering is de kunst van het formuleren van tekstuele instructies voor een AI-model. Hoe beter de prompt, hoe beter de output. Prompts kunnen herbruikbaar zijn, hoewel de output kan variëren. Het effectief gebruiken van AI vereist kennis en goed prompten als sleutel tot succes [45](#page=45) [46](#page=46).
#### 4.1.2 Context window
Het "context window" is het werkgeheugen van een AI-model, gemeten in tokens, en omvat zowel de input (prompt) als de output. Een te lange input kan ervoor zorgen dat het model delen van de prompt "vergeet", wat de kwaliteit en volledigheid van het antwoord beïnvloedt [47](#page=47).
### 4.2 Anatomie van een sterke prompt
Een effectieve prompt is gestructureerd en bevat verschillende componenten die samenwerken om een gewenst resultaat te genereren. Hoewel er verschillende frameworks bestaan, zijn deze variaties op basisprincipes en bieden ze structuur en houvast, vooral voor beginners [48](#page=48).
#### 4.2.1 Rol (ROLE)
Het toekennen van een specifieke rol aan het AI-model bepaalt de toon, het perspectief en het expertise-niveau van de output. Door te beginnen met "Je bent..." kan de AI een gewenste persona aannemen, zoals een ervaren marketeer of een geduldige leraar [49](#page=49).
#### 4.2.2 Context (CONTEXT)
Het verstrekken van achtergrondinformatie, doelstellingen, doelgroep en randvoorwaarden helpt het AI-model om antwoorden correct te kaderen, wat de relevantie, nauwkeurigheid en toepasbaarheid verhoogt [49](#page=49).
#### 4.2.3 Instructies (INSTRUCTIONS)
Duidelijke en specifieke instructies met actiegerichte werkwoorden leiden tot preciezere resultaten. Dit omvat het definiëren van de taak die het model moet uitvoeren, zoals samenvatten, vergelijken of ideeën genereren [50](#page=50).
#### 4.2.4 Voorbeelden (EXAMPLES)
Het tonen van voorbeelden, zowel positieve als negatieve, leert het AI-model de gewenste output te produceren. Few-shot prompting, waarbij voorbeelden worden gegeven, werkt vaak beter dan alleen instructies [50](#page=50).
#### 4.2.5 Output & Formaat (OUTPUT & FORMAT)
Het afdwingen van een specifieke structuur, lengte, taal en toon zorgt voor bruikbare resultaten. Dit kan variëren van een tabel met meerdere kolommen tot een genummerde lijst of een specifiek dataformaat zoals JSON [51](#page=51).
#### 4.2.6 Wat te vermijden (DON'T)
Het aangeven van grenzen verhoogt de precisie en vermindert de noodzaak aan iteraties. Dit is nuttig voor gevoelige onderwerpen of bij het stellen van creatieve restricties, zoals het vermijden van jargon of het niet geven van medisch advies [51](#page=51).
### 4.3 Geavanceerde prompttechnieken
Naast de basisanatomie zijn er geavanceerde technieken om de effectiviteit van prompts verder te verhogen [53](#page=53).
#### 4.3.1 Prompt-chaining
Complexe taken kunnen worden opgesplitst in een reeks kleinere, opeenvolgende prompts, waarbij de output van de ene stap dient als input voor de volgende. Het labelen van tussenresultaten helpt bij het behouden van overzicht [53](#page=53).
#### 4.3.2 Chain-of-Thought (CoT)
Deze techniek moedigt het AI-model aan om zijn denkproces en tussenstappen te tonen, wat cruciaal is voor complexe analyses en de transparantie en nauwkeurigheid verhoogt [54](#page=54).
#### 4.3.3 Tree-of-Thought (ToT)
ToT is ideaal voor strategische planning en probleemoplossing, waarbij meerdere oplossingspaden worden gegenereerd. Het beperken van het aantal opties (3-5) houdt de output beheersbaar [54](#page=54).
#### 4.3.4 Gebruik van externe kennis (RAG)
Retrieval-Augmented Generation (RAG) baseert antwoorden op specifieke documenten, wat hallucinaties bij feitelijke of bedrijfsspecifieke vragen voorkomt. Het vragen om citaten uit de bronnen is hierbij essentieel [55](#page=55).
#### 4.3.5 Zelf-kritiek en zelf-verbetering (Self-critique & Self-improvement)
Deze methode vraagt het AI-model om output te genereren, kritisch te beoordelen en vervolgens te verbeteren. Dit is met name waardevol voor teksten, beleidsnota's en andere outputs waar kwaliteit cruciaal is [55](#page=55).
#### 4.3.6 Meta-prompting
Meta-prompts zijn ontworpen om andere prompts te genereren, wat leidt tot krachtigere, specifiekere en efficiëntere prompts, en workflows kan automatiseren [56](#page=56).
#### 4.3.7 CustomGPTs
Het creëren van gepersonaliseerde chatbots (CustomGPTs) in een "store" maakt het mogelijk om een specifieke persona te definiëren, kennis te uploaden en functies in of uit te schakelen voor snellere en doelgerichtere interacties [57](#page=57).
#### 4.3.8 Vermijd suggestieve vragen en verhoog de inzet
Neutrale, open vragen leiden tot minder bevooroordeelde antwoorden dan suggestieve vragen. Het benadrukken van het belang van een taak kan de prestaties van het AI-model verbeteren [52](#page=52).
### 4.4 De schaduwkant van prompten: promptinjectie
Promptinjectie treedt op wanneer een AI-model misleid wordt door slimme of verborgen instructies, waardoor het acties onderneemt die niet de bedoeling waren. Dit kan direct gebeuren via de input van een gebruiker, of indirect via documenten of websites die het model leest [58](#page=58).
#### 4.4.1 Gevaren van promptinjectie
Promptinjectie kan leiden tot datalekken, verspreiding van valse informatie en verstoring van systemen. Het onderscheidt zich van "jailbreaking", waarbij het model wordt overgehaald om verboden inhoud te produceren [58](#page=58) [59](#page=59).
#### 4.4.2 Herkennen en beschermen tegen promptinjectie
Signalen van promptinjectie zijn onder meer "negeer instructies"-commando's, instructies verborgen in documenten, en afleidingstechnieken. Bescherming omvat inputvalidatie, outputcontrole, beperkte toegang, menselijke controle en monitoring van AI-interacties [59](#page=59) [60](#page=60).
### 4.5 AI en academische integriteit in onderzoek
Het gebruik van AI in onderzoek brengt specifieke uitdagingen met zich mee op het gebied van academische integriteit. Onderzoekend denken is een professionele vaardigheid die nieuwsgierigheid, kritisch doorvragen en het vermogen om informatie uit meerdere bronnen te beoordelen vereist [62](#page=62) [63](#page=63).
#### 4.5.1 Evolutie van onderzoek
Onderzoek is geëvolueerd van traditionele methoden die afhankelijk waren van fysieke bronnen en handmatige analyse, naar digitale versnelling met online bronnen, en nu naar AI-gestuurde kennisproductie die automatische syntheses mogelijk maakt [64](#page=64).
#### 4.5.2 Traditoneel versus AI-ondersteund onderzoek
AI-ondersteund onderzoek biedt voordelen zoals razendsnelle analyse, schaalbaarheid en verhoogde toegankelijkheid, maar kent ook beperkingen zoals hallucinaties en versterking van bias. Een hybride aanpak, die de sterke punten van beide combineert, is vaak het meest effectief [65](#page=65).
#### 4.5.3 Het onderzoeksproces met AI
Het onderzoeksproces – exploratie, verkenning, bewijs verzamelen, analyse, synthese en reflectie – kan significant versneld worden door AI-tools. Belangrijk is echter het behouden van menselijke verificatie en het ontwikkelen van regels voor verantwoording [66](#page=66).
#### 4.5.4 AI-tools voor onderzoek
Diverse AI-tools zijn beschikbaar om specifieke fasen van het onderzoeksproces te ondersteunen, zoals LLM's voor exploratie en synthese, Perplexity en ResearchRabbit voor bronnenonderzoek, en ChatPDF en NotebookLM voor documentanalyse [68](#page=68) [70](#page=70) [71](#page=71) [72](#page=72).
#### 4.5.5 Verantwoord AI-gebruik in onderzoek
AI mag ondersteunen, maar nooit de academische integriteit ondermijnen. Dit betekent dat ideeën genereren, structuur aanbrengen en teksten verbeteren doorgaans is toegestaan, terwijl volledige teksten laten schrijven, copy-pasten zonder verificatie, en het verbergen van AI-gebruik problematisch is [74](#page=74).
#### 4.5.6 AI-gebruik vermelden en correct refereren
Transparantie over AI-gebruik is essentieel. Dit omvat het vermelden van de gebruikte tool, versie, datum en hoe de AI werd ingezet. Correcte referentie, bijvoorbeeld volgens APA-richtlijnen, is noodzakelijk voor afbeeldingen, code en methodologie [75](#page=75) [76](#page=76).
#### 4.5.7 Het verificatiemodel en rode vlaggen
Het verificatiemodel omvat het traceren van bronnen, cross-checken met andere tools en menselijke beoordeling. Rode vlaggen zoals het ontbreken van bronvermelding, vage antwoorden of claims die in strijd zijn met gevestigde kennis, vereisen stopzetting en verificatie [77](#page=77).
#### 4.5.8 Sycophancy (de pleaser valkuil)
AI-modellen kunnen de neiging hebben om gebruikers tevreden te stellen door antwoorden af te stemmen op hun overtuigingen, wat kan leiden tot het verzinnen van informatie (hallucineren). Dit versterkt de eigen bias van de gebruiker en geeft een schijn van betrouwbaarheid. Een sycophante AI als onderzoeksassistent is een ernstig obstakel en vereist het stellen van neutrale prompts, het vragen naar tegenargumenten en het altijd controleren van bronnen [78](#page=78) [79](#page=79).
#### 4.5.9 Kernprincipes van academische integriteit met AI
Integriteit in onderzoek met AI berust op eerlijkheid (geen data fabriceren), transparantie (duidelijk vermelden van bronnen, methoden en AI-gebruik), verantwoordelijkheid (de gebruiker blijft eindverantwoordelijk) en respect (bescherming van personen, data en intellectueel eigendom). Sterk en integer onderzoek combineert AI-snelheid met menselijk oordeel en onderzoeksdiscipline [79](#page=79) [80](#page=80).
* * *
## Veelgemaakte fouten om te vermijden
* Bestudeer alle onderwerpen grondig voor examens
* Let op formules en belangrijke definities
* Oefen met de voorbeelden in elke sectie
* Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Artificiële intelligentie (AI) | Technologie die menselijke intelligentie simuleert, gericht op autonomie en aanpassingsvermogen. |
| Autonomie | Het vermogen van een systeem om zelfstandig te handelen en beslissingen te nemen zonder constante menselijke tussenkomst. |
| Aanpassingsvermogen | Het vermogen om te leren van ervaringen en zich aan te passen aan nieuwe of veranderende omstandigheden. |
| Meervoudige Intelligentie | Een theorie die stelt dat intelligentie niet één-dimensionaal is, maar uit verschillende, onafhankelijke soorten bestaat, zoals voorgesteld door Howard Gardner. |
| Narrow AI (Zwakkere AI) | AI die beperkt is tot het uitvoeren van specifieke, nauw gedefinieerde taken, zoals spraakassistenten of beeldherkenningssystemen. |
| General AI (AGI) | Sterke AI die in staat is om elke intellectuele taak uit te voeren die een mens kan uitvoeren, over alle domeinen heen. Bestaat nog niet. |
| Super AI (ASI) | Een hypothetische vorm van AI die menselijke intelligentie overtreft in vrijwel elk veld, inclusief creativiteit, algemene wijsheid en probleemoplossing. |
| Turing Test | Een experiment bedacht door Alan Turing om de intelligentie van een machine te beoordelen door te bepalen of een menselijke ondervrager onderscheid kan maken tussen een computer en een mens. |
| AI Winters | Periodes van verminderde interesse en financiering voor AI-onderzoek, vaak veroorzaakt door overdreven verwachtingen die niet konden worden waargemaakt. |
| Rule-based AI | Een type AI dat werkt op basis van expliciet gedefinieerde regels en logica, vaak opgesteld door menselijke experts. |
| Machine Learning (ML) | Een tak van AI die algoritmen gebruikt om systemen in staat te stellen te leren van data zonder expliciet geprogrammeerd te zijn, door patronen te herkennen en voorspellingen te doen. |
| Deep Learning (DL) | Een subveld van machine learning dat gebruikmaakt van kunstmatige neurale netwerken met meerdere lagen om complexe patronen en abstracties in data te herkennen. |
| Supervised Learning | Een methode binnen deep learning waarbij modellen worden getraind met gelabelde data, wat betekent dat de input-data voorzien is van de corresponderende correcte output. |
| Unsupervised Learning | Een methode binnen deep learning waarbij modellen patronen in ongelabelde data moeten ontdekken, zonder vooraf gegeven correcte antwoorden. |
| Reinforcement Learning | Een type machine learning waarbij een agent leert door middel van beloningen en straffen voor zijn acties, met als doel de cumulatieve beloning over tijd te maximaliseren. |
| Generative AI (GenAI) | AI-systemen die nieuwe content kunnen creëren, zoals tekst, afbeeldingen, muziek of code, op basis van geleerde patronen uit trainingsdata. |
| Transformer Architectuur | Een neuraal netwerkarchitectuur die een sleutelrol speelde in de ontwikkeling van moderne generatieve AI, met name door het "attention mechanism" dat de relaties tussen woorden in een zin kan modelleren. |
| Attention Mechanism | Een mechanisme in neurale netwerken, vooral in transformermodellen, dat het model in staat stelt om zich te concentreren op specifieke delen van de input wanneer het een output genereert, wat leidt tot een beter begrip van context. |
| Tokenization | Het proces waarbij tekst wordt opgedeeld in kleinere eenheden, "tokens" genaamd, die vervolgens worden omgezet in numerieke waarden die door AI-modellen kunnen worden verwerkt. |
| Parameters | Variabelen binnen een AI-model, met name neurale netwerken, die de sterkte van de verbindingen tussen de "neuronen" vertegenwoordigen en de kennis van het model bepalen. |
| Pre-training | De eerste trainingsfase van een AI-model, waarbij het wordt blootgesteld aan enorme hoeveelheden data om algemene patronen en kennis op te doen, vaak met als doel het voorspellen van het volgende woord. |
| Finetunen | Een proces waarbij een reeds getraind AI-model verder wordt getraind op een specifiekere dataset of taak, om de prestaties voor die specifieke toepassing te verbeteren. |
| Reinforcement Learning from Human Feedback (RLHF) | Een techniek om AI-modellen te verfijnen door menselijke beoordelaars de output van het model te laten scoren, wat wordt gebruikt om een beloningsmodel te trainen dat vervolgens wordt gebruikt om het hoofdmodel te optimaliseren. |
| Prompt | De tekstuele instructie of vraag die aan een AI-model wordt gegeven om een specifieke output te genereren. |
| Large Language Models (LLMs) | Geavanceerde AI-modellen, zoals GPT-modellen, die getraind zijn op enorme hoeveelheden tekstdata en in staat zijn om mensachtige tekst te genereren, te begrijpen en te verwerken. |
| Multimodale AI | AI-systemen die informatie uit verschillende modaliteiten, zoals tekst, beeld, audio en video, kunnen verwerken en genereren. |
| Diffusiemodellen | Een klasse van generatieve modellen die wordt gebruikt voor het creëren van realistische data, zoals afbeeldingen, door een proces van ruisverwijdering toe te passen op willekeurige ruis. |
| Neural Audio Modellen | AI-modellen die speciaal zijn ontworpen voor het verwerken en genereren van geluid, zoals het converteren van tekst naar spraak of het componeren van muziek. |
| Temporele Diffusiemodellen | Een uitbreiding van diffusiemodellen die de tijdsdimensie toevoegt, waardoor ze in staat zijn om sequenties van frames te genereren voor video-inhoud. |
| Hallucinaties (AI) | Wanneer een AI-model informatie genereert die feitelijk onjuist is, niet wordt ondersteund door de trainingsdata, of als fictie wordt gepresenteerd als waarheid. |
| Knowledge Cutoff | De datum waarop de trainingsdata van een AI-model eindigt, wat betekent dat het model geen kennis heeft van gebeurtenissen of informatie die na die datum plaatsvonden. |
| Bias (AI) | Vooroordelen die in AI-modellen terechtkomen doordat de trainingsdata zelf historische of maatschappelijke vooroordelen bevatten, wat kan leiden tot discriminerende of oneerlijke output. |
| Overafhankelijkheid | Het risico dat gebruikers te veel vertrouwen op AI en de output ervan accepteren zonder kritische verificatie, wat kan leiden tot gemiste leermomenten en plagiaat. |
| Privacy Risico's | Gevaren met betrekking tot de veiligheid en het gebruik van persoonlijke of gevoelige data die worden ingevoerd in AI-systemen, zoals datalekken of ongeautoriseerd gebruik voor modeltraining. |
| Prompt Injectie | Een aanvalsvector waarbij een aanvaller slimme of verborgen instructies in een prompt of inputdata invoegt om de AI te misleiden en ongewenste acties te laten uitvoeren. |
| Jailbreaking | Een vorm van promptmanipulatie waarbij een gebruiker probeert een AI-model te bewegen om beperkingen op te heffen en verboden of ongepaste inhoud te genereren. |
| Context Window | Het "werkgeheugen" van een AI-model, gemeten in tokens, dat zowel de prompt (input) als het gegenereerde antwoord (output) bevat. Een te groot venster kan leiden tot vergeten van eerdere informatie. |
| Prompt Engineering | Het proces van het ontwerpen, testen en verfijnen van prompts om de meest effectieve en gewenste output van een AI-model te verkrijgen. |
| Rol (Prompting) | De identiteit of persona die aan een AI-model wordt toegewezen in een prompt om de toon, expertise en het perspectief van de output te bepalen. |
| Context (Prompting) | De achtergrondinformatie, het doel, de doelgroep en de randvoorwaarden die aan een AI-model worden verstrekt om de relevantie en nauwkeurigheid van de output te kaderen. |
| Instructies (Prompting) | De duidelijke opdrachten of taken die aan een AI-model worden gegeven om te specificeren wat er moet gebeuren. |
| Voorbeelden (Prompting) | Het tonen van gewenste of ongewenste outputs om het AI-model te leiden, een techniek die bekend staat als few-shot prompting. |
| Output & Formaat (Prompting) | De specificaties voor het type resultaat (output) en de structuur, lengte, toon en stijl (formaat) waarin de AI het antwoord moet presenteren. |
| DON'T (Prompting) | Beperkingen die worden opgelegd aan het AI-model om te specificeren wat vermeden moet worden in de output, wat de precisie kan verhogen. |
| Suggestieve Vragen | Vragen die impliciet een bepaalde richting sturen of een vooringenomen antwoord suggereren, wat leidt tot bias in de AI-output. |
| Verhoging van de Inzet | Het belangrijker maken van een taak in de prompt, waardoor de AI beter presteert door het gevoel van crucialiteit. |
| Prompt-Chaining | Een geavanceerde prompttechniek waarbij een complexe taak wordt opgesplitst in een reeks opeenvolgende prompts, waarbij de output van de ene prompt als input dient voor de volgende. |
| Chain-of-Thought (CoT) Prompting | Een techniek waarbij het AI-model wordt gevraagd om zijn denkproces en tussenstappen te tonen, wat leidt tot meer transparantie en nauwkeurigheid bij complexe analyses. |
| Tree-of-Thought (ToT) Prompting | Een geavanceerde techniek waarbij het AI-model meerdere oplossingspaden genereert en evalueert, ideaal voor strategische planning en probleemoplossing. |
| Retrieval-Augmented Generation (RAG) | Een techniek die AI-modellen in staat stelt om antwoorden te baseren op externe documenten of kennisbronnen, wat helpt bij het vermijden van hallucinaties en het verschaffen van actuele informatie. |
| Self-critique & Self-improvement | Een proces waarbij een AI wordt gevraagd om zijn eigen output te beoordelen en te verbeteren, vaak met behulp van expliciete beoordelingscriteria. |
| Meta-prompting | Het ontwerpen van prompts die andere prompts genereren, waardoor complexere en effectievere AI-workflows kunnen worden geautomatiseerd. |
| CustomGPT | Een gepersonaliseerde versie van een AI-chatbot die kan worden geconfigureerd met specifieke instructies, kennisbestanden en functies om aan individuele behoeften te voldoen. |
| Prompt Injectie | Een aanvalsvector waarbij een aanvaller slimme of verborgen instructies in een prompt of inputdata invoegt om de AI te misleiden en ongewenste acties te laten uitvoeren. |
| Sycophancy | De neiging van een AI-model om antwoorden af te stemmen op de overtuigingen van de gebruiker om deze tevreden te stellen, in plaats van objectieve informatie te verstrekken. |
| Academische Integriteit | Eerlijkheid, transparantie en verantwoordelijkheid in academisch werk, inclusief correcte bronvermelding en het vermijden van plagiaat. |
| Verificatiemodel | Een proces dat wordt gebruikt om de betrouwbaarheid van AI-gegenereerde informatie te controleren, door bronnen te traceren, te cross-checken en menselijke beoordeling toe te passen. |
Cover
Les 5-6-7-8 - slides_merged.pdf
Summary
# Understanding and managing data in AI
Data is the fundamental element that powers Artificial Intelligence (AI) [3](#page=3).
### 1.1 The indispensable role of data in AI
AI systems are entirely dependent on data; without it, AI cannot function. The efficacy of AI is not solely determined by its code but significantly by the quality of the data it processes. In the context of AI, data is often referred to as the "new gold" and must be handled with care [3](#page=3).
### 1.2 Types of data for AI systems
AI systems utilize two primary types of data:
* **Structured data:** This includes data organized in tables, such as in databases or spreadsheets like Excel [6](#page=6).
* **Unstructured data:** This encompasses data in formats like text, images, audio, and video [6](#page=6).
Both structured and unstructured data are crucial for the effective operation of AI systems [6](#page=6).
### 1.3 Sources of data
While finding data is generally not difficult, identifying the *correct* data presents a challenge. Common sources include [7](#page=7):
* **Internal business data:** This originates from systems like Customer Relationship Management (CRM), Enterprise Resource Planning (ERP), sales, and Human Resources (HR) [7](#page=7).
* **Open data:** Publicly available data from governments, universities, and non-governmental organizations (NGOs) such as data.gov, Statbel, and the EU open data portal [7](#page=7).
* **Sensor data:** Information collected from devices like temperature sensors, GPS, machinery, and wearables [7](#page=7).
* **User data:** Data generated from user interactions, including click behavior, search history, and app usage [7](#page=7).
* **Purchased data:** Data acquired from third-party providers, often used for marketing and advertising purposes [7](#page=7).
### 1.4 The data lifecycle
The journey of data involves several stages, each critical for the performance of an AI model [8](#page=8):
1. **Collection:** Gathering data through sensors, forms, or databases [8](#page=8).
2. **Storage:** Storing data in locations like the cloud, servers, or data lakes [8](#page=8).
3. **Cleaning:** Removing errors and filling in missing values [8](#page=8).
4. **Analysis:** Identifying patterns, correlations, and trends within the data [8](#page=8).
5. **Interpretation:** Assigning meaning to the analyzed data to facilitate decision-making [8](#page=8).
6. **Action:** Applying insights derived from the data to processes or strategies [8](#page=8).
An AI model's effectiveness is directly tied to the success of each step in this lifecycle [8](#page=8).
### 1.5 The impact of data quality on AI models
The principle of "garbage in, garbage out" is fundamental to AI; poor quality data leads to flawed AI models [9](#page=9).
* **Microsoft's Tay AI:** This chatbot, trained on Twitter data in 2016, learned and propagated racist and sexist language due to the nature of its training data [9](#page=9).
The capabilities of an AI model are limited by the data it is trained on [10](#page=10).
* **IBM Watson for Oncology:** Initially designed to advise on cancer treatments, Watson performed poorly outside the specific dataset it was trained on (data from Memorial Sloan Kettering Cancer Center). This led to dangerous recommendations and positioned Watson as an expert on MSK rather than a general cancer expert [10](#page=10).
### 1.6 Bias in data and its implications
If data contains biases, AI models will replicate these biases accurately [11](#page=11).
* **Amazon's hiring AI:** An AI tool trained on 10 years of historical hiring data penalized resumes containing the word "woman" and favored male candidates, reflecting the historical male dominance in the company's workforce. This led Amazon to scrap the tool due to its inherent bias against women [11](#page=11).
### 1.7 Data as a narrative, not absolute truth
Data provides a story but not necessarily the absolute truth. Data is inherently [12](#page=12):
* **Filtered:** By the methods used for collection [12](#page=12).
* **Interpreted:** By the individuals analyzing it [12](#page=12).
* **Incomplete:** Because not everything can be measured [12](#page=12).
### 1.8 Individuals as data factories
Every individual is a continuous generator of data through their daily activities. This data can be categorized by the activity and the time it occurs, encompassing biometrics, usage patterns, location, learning behavior, purchasing habits, and more. Beyond their primary roles, individuals function as products, training data, profiles, and datasets for AI systems. Student activities, such as quizzes and assignments, also contribute to anonymized datasets used for analysis [13](#page=13) [14](#page=14).
### 1.9 Data quality framework
A data quality framework helps assess the goodness of data based on several dimensions [16](#page=16):
* **Accuracy:** Verifies if the facts within the data are correct. For instance, is a recorded "2 days and 9 hours" of Canvas time a true reflection or a measurement error [16](#page=16)?
* **Completeness:** Checks for missing values in the dataset. For example, if 28 students have no recorded Canvas data, the dataset is incomplete for those individuals [17](#page=17).
* **Consistency:** Ensures that data from different sources aligns. For instance, data from Wooclap should correspond with data from Canvas [18](#page=18).
* **Timeliness:** Assesses whether the data is up-to-date. Data from an earlier quiz (e.g., 4 weeks ago) might not reflect current situations, especially with late student enrollments [19](#page=19).
* **Relevance:** Determines if the data is pertinent to the question being asked. For example, is time spent on Canvas directly relevant to understanding student comprehension ?
### 1.10 The importance of data quality
Poor data quality can lead to significant financial losses and operational failures. Unity Technologies reportedly lost 110 million dollars in 2022 due to corrupted customer data in machine learning training sets, which caused advertising targeting to fail and led to a 37% drop in their stock price within a week .
### 1.11 Correlation vs. Causality
It is crucial to distinguish between correlation and causality .
* **Correlation:** Indicates that two events occur simultaneously, but one does not necessarily cause the other .
* **Causality:** Means that one event directly leads to another .
When a correlation between A and B is observed, three questions should be considered:
1. Can A cause B? (A is the cause, B is the effect) .
2. Can B cause A? (Causality in the reverse direction) .
3. Can C cause both A and B? (A hidden variable C is responsible for the correlation) .
### 1.12 Simpson's Paradox
Simpson's Paradox occurs when a trend observed in different groups of data disappears or reverses when these groups are combined into a single dataset. Aggregating data can distort conclusions .
* **Example:** A university might appear to have a higher admission rate for men than women. However, when broken down by faculty, both men and women might have similar admission rates within specific faculties. The overall disparity arises because men are disproportionately represented in faculties with higher overall admission rates (e.g., Engineering), while women are more represented in faculties with lower rates (e.g., Arts) .
### 1.13 Problems in data and human interpretation
Issues in data can stem from various sources, including unrepresentative samples, measurement errors, and hidden variables. However, human interpretation also introduces biases, such as seeking information that confirms pre-existing beliefs, experiencing the Dunning-Kruger effect, or overweighting negative feedback .
### 1.14 Types of bias in data
Several types of bias can affect data and subsequent AI models:
#### 1.14.1 Participation bias
This bias occurs when only motivated individuals participate in research or provide feedback, leading to a skewed representation .
* **Scenario A:** Active students might provide data, while passive ones do not, overestimating engagement .
* **Scenario B:** Dissatisfied individuals may dominate feedback, overestimating unhappiness .
* **Scenario C:** Satisfied individuals might share experiences, while dissatisfied ones do not, underestimating problems .
The challenge is that one does not know who is missing, making it difficult to gauge the extent of the distortion .
#### 1.14.2 Selection bias
This arises when groups are not comparable due to hidden differences in their composition, leading to unknown causes for observed differences .
* **Self-selection:** Participants choose their groups, which already differ before any intervention .
* **Sampling bias:** The sample is not randomly drawn, resulting in over- or under-representation of certain groups .
* **Survivorship bias:** Only the "surviving" or successful cases are observed, while failed cases are eliminated .
#### 1.14.3 Measurement bias
This occurs when what is being measured (e.g., time in Canvas) is not accurately representing the intended phenomenon (e.g., actual study time or engagement) .
* **Scenario 1:** A tab left open in Canvas might record 3 hours of "time" when actual study time was only 5 minutes .
* **Scenario 2:** Downloading content for offline study might show minimal Canvas time (2 minutes) but represent hours of actual study .
* **Scenario 3:** Frustrated searching within a platform might be logged as "engagement" when it represents difficulty .
Often, directly measuring a phenomenon is difficult, leading to the use of proxies (indirect measurements). A proxy is not the true phenomenon, which is often abstract, complex, or unmeasurable. Examples include using Canvas time as a proxy for engagement, IQ tests for intelligence, or hours at the office for work performance .
#### 1.14.4 Confirmation bias
This bias describes the tendency to see what one wants to see. It manifests in :
* **Biased Search:** Selectively seeking information that supports existing beliefs .
* **Biased Interpretation:** Interpreting information in a way that favors one's own views .
* **Biased Recall:** Remembering information that confirms one's opinions .
Social media algorithms can amplify confirmation bias by showing users content they prefer, creating echo chambers where individuals live in separate realities. The human brain is not an objective observer but a "confirmation machine". This can be dangerous, leading to poor decisions, such as a CEO ignoring warnings due to a belief in a failing strategy. The irony of Kodak, whose engineers developed the first digital camera but whose leadership ignored the innovation due to a belief in film, exemplifies this .
To avoid confirmation bias:
* **Before analysis:** Consider expectations and what evidence would contradict them. Then, examine the data .
* **After analysis:** Review assumptions. Was the conclusion reached objectively, or did it simply confirm expectations ?
#### 1.14.5 Outlier bias
This bias arises when extreme values significantly influence the analysis. Averages can mask these extremes, which often contain crucial information. Outliers can be :
* **False outliers:** Resulting from measurement or data entry errors .
* **Interesting outliers:** Representing genuinely extreme but valid behavior that warrants further investigation .
* **Structural outliers:** Indicating the presence of a different underlying process .
When dealing with outliers, it's important to consider whether to retain or remove them. Reporting all data, including averages with and without outliers, and the median (which is outlier-resistant), is advisable. Visualizing the full distribution and making outliers visible can aid understanding. Investigating the reasons behind outliers is also critical .
### 1.15 Bias checklist
A helpful checklist for identifying bias in data includes questions such as:
* **Who is missing?** (Participation bias) .
* **How was it measured?** (Measurement bias) .
* **How was it grouped?** (Simpson's Paradox) .
* **What am I looking for?** (Confirmation bias) .
* **Who selected the data?** (Selection bias) .
* **What are the outliers doing?** (Outlier bias) .
---
# Leveraging AI tools for analysis and automation
AI tools offer powerful capabilities for data analysis and automation, enabling users to process and understand data more efficiently. These tools can perform tasks such as summarizing findings, discovering patterns, automating repetitive analysis, creating visualizations, making predictions, and interpreting complex data into understandable language [20](#page=20).
### 2.1 Capabilities of AI tools in data analysis
AI tools provide a range of functionalities that enhance the data analysis process:
* **Summarization:** Automatically generating descriptions of what the data reveals [20](#page=20).
* **Pattern discovery:** Identifying correlations, trends, and seasonal influences within datasets [20](#page=20).
* **Automation:** Generating repeated analyses or reports automatically [20](#page=20).
* **Visualization:** Creating charts, dashboards, and heatmaps to represent data visually [20](#page=20).
* **Prediction:** Making simple forecasts based on observed trends (forecasting) [20](#page=20).
* **Interpretation:** Explaining complex numerical data in plain language [20](#page=20).
### 2.2 Advantages of using AI tools for data analysis
The adoption of AI tools for data analysis is driven by several key benefits:
* **Speed:** Tasks that previously took hours can now be completed in minutes [20](#page=20).
* **Pattern recognition:** AI can identify patterns that might be missed by human analysts [20](#page=20).
* **Automated visualizations:** AI can automatically select and generate appropriate charts for the data [20](#page=20).
* **Accessibility:** Many AI tools do not require programming knowledge, making them accessible to a wider audience [20](#page=20).
### 2.3 Limitations and risks of AI analysis tools
Despite their advantages, AI analysis tools also have significant limitations and potential risks:
* **Black box problem:** The internal workings of how AI reaches its conclusions can be opaque [20](#page=20).
* **Hallucinations:** AI can generate or invent "patterns" that do not actually exist in the data [20](#page=20).
* **Bias replication:** AI tools can amplify existing biases present in the training data [20](#page=20).
* **Over-reliance:** There is a danger of "automation bias," where users place too much trust in AI outputs without critical evaluation [20](#page=20).
* **Lack of domain knowledge:** AI tools may not understand the specific context or nuances of a particular field [22](#page=22).
* **No causality:** AI can identify correlations but cannot inherently establish cause-and-effect relationships [22](#page=22).
* **No replacement for critical thinking:** AI tools are aids and should not substitute for human critical evaluation [22](#page=22).
> **Tip:** Always critically assess AI-generated insights and cross-reference with your own domain knowledge and critical thinking.
### 2.4 Examples of AI analysis and visualization tools
A variety of AI tools are available for data analysis and visualization, ranging from general-purpose LLMs to specialized platforms:
* **ChatGPT:** Useful for uploading small datasets (e.g.,.csv,.xlsx) and asking questions, it can analyze tables, describe trends, and create graphs [21](#page=21).
* **Julius.ai:** A free web tool that analyzes Excel or Google Sheets using AI, generating graphs and summaries without requiring code [21](#page=21).
* **Google Sheets + AI functions:** Offers basic AI suggestions for formulas, summaries, and graphs within the spreadsheet environment for free [21](#page=21).
* **Datawrapper.de:** A free tool for creating interactive charts and maps; its basic version requires no login [21](#page=21).
* **ChatGPT for Sheets & Docs:** A free plugin that connects LLMs to Google Sheets for text and numerical data analysis via prompts [21](#page=21).
* **Tableau Public:** Provides interactive data analysis and data storytelling capabilities; its free version offers public dashboards [21](#page=21).
* **Orange Data Mining:** An open-source AI tool for visual data analysis with a drag-and-drop interface for tasks like correlation, clustering, and regression [21](#page=21).
### 2.5 Best practices for data visualization
Choosing the correct graph type is crucial for effective data presentation:
* **Bar chart (horizontal or vertical):** Best for comparing categories [21](#page=21).
* **Example:** Scores per class [21](#page=21).
* **Line graph (connected points):** Ideal for showing changes over time [21](#page=21).
* **Example:** Participation per week [21](#page=21).
* **Scatter plot (point cloud):** Used to illustrate the relationship between two variables [21](#page=21).
* **Example:** Canvas time vs. score [21](#page=21).
* **Histogram (bars without gaps):** Effective for displaying the distribution of a single variable [21](#page=21).
* **Example:** Distribution of scores [21](#page=21).
* **Pie chart (use sparingly!):** Represents composition, showing parts of a whole. Stacked bar charts are often a better alternative [21](#page=21).
* **Example:** Scores per student per lesson [21](#page=21).
* **Heatmap (color grid):** Suitable for visualizing complex patterns involving multiple variables [21](#page=21).
### 2.6 Foundational concepts for AI data analysis
Understanding data is paramount when working with AI tools:
* **Data as universal:** The principle that "everything is data" highlights the pervasive nature of information [22](#page=22).
* **Data quality assessment:** Key considerations include what constitutes good data and identifying potential problems within it [22](#page=22).
* **Ethical considerations:** Making conscious ethical choices regarding data usage is vital [22](#page=22).
---
# Ethical considerations and integration of AI
This topic explores the crucial ethical dimensions of Artificial Intelligence, including inherent biases, fairness, privacy concerns, and broader societal impacts, alongside the strategic and structural integration of AI into organizational frameworks.
### 3.1 Ethical considerations of AI
AI systems are not neutral, as the data they process reflects human choices regarding what, who, and how things are measured. This inherent reflection of human biases means AI models can inadvertently amplify existing inequalities. The responsibility for mitigating these ethical issues lies squarely with the organization deploying the AI [23](#page=23).
#### 3.1.1 Ethical testing and principles
To address these ethical challenges, several tests can be applied:
* **Transparency-test:** This test questions the origin and usage of data. For instance, if an unknown data supplier is used, an organization must be able to explain where the data comes from and how it will be utilized [23](#page=23).
* **Fairness-test:** This test examines who is being advantaged or disadvantaged by the AI. An example would be an AI system that unfairly favors men in recruitment processes [23](#page=23).
* **Privacy-test:** This assesses the necessity of collecting personal data. For example, is location or facial recognition data truly essential for a given application? [23](#page=23).
* **Harm-test:** This evaluates whether the data or analysis produced by the AI could cause harm. A critical example is facial recognition technology leading to erroneous arrests [23](#page=23).
If any of these tests fail, the organization must re-evaluate how the data is being used [23](#page=23).
#### 3.1.2 Regulatory and governance frameworks
Several legal and ethical frameworks govern AI and data usage:
* **GDPR (General Data Protection Regulation):** Grants individuals rights to access, correct, and delete their personal data [24](#page=24).
* **EU AI Act:** Mandates risk assessments for AI systems [24](#page=24).
* **Data Governance Act:** Aims to promote transparency and control over data exchange [24](#page=24).
Ethical considerations extend beyond mere legality to encompass what is considered appropriate and morally right ("wat hoort") [24](#page=24).
#### 3.1.3 Data as a filtered and incomplete representation
It is crucial to remember that data is not an objective truth; it is always filtered and incomplete. Participation bias, where certain groups are underrepresented or excluded, is pervasive. Outliers in data can also provide valuable insights. Bias manifests in various forms. When observing correlations, three critical questions must be asked: Is there a direct relationship? Is the relationship reversed? Or is there a hidden variable influencing both? [25](#page=25).
#### 3.1.4 Ethical principles for agentic AI
With the rise of agentic AI, which involves autonomous systems rather than just chatbots, significant autonomy comes with great responsibility. Ethics and risk management are therefore paramount [45](#page=45).
### 3.2 Integration of AI into organizations
AI integration is more than simply using AI tools; it involves the structural and thoughtful incorporation of AI technology into an organization (#page=47, 49). This is a process of organizational transformation, distinct from mere adoption (experimentation) or automation (task replacement) [47](#page=47) [48](#page=48) [49](#page=49).
#### 3.2.1 Levels of AI integration
AI integration can occur at different organizational levels:
* **Level 1 - AI for yourself:** Focuses on individual efficiency and personal tasks. It is characterized by a low entry barrier and quick results but has minimal organizational impact. Risks include a lack of knowledge sharing, inconsistent workflows, and compromised privacy/security [49](#page=49).
* **Example:** Grammarly enhancing personal writing quality, leading to time savings for individuals, but potentially posing risks related to data sharing and inconsistent language use within an organization [50](#page=50).
* **Level 2 - AI for the team:** Involves integrating AI into shared processes and fostering joint responsibility. This level focuses on process improvement and requires coordination and training. Success factors include clear agreements, comprehensive team training, and feedback loops [50](#page=50).
* **Example:** AI suggesting relevant trade examples to assist trade officers, who then review and refine the suggestions, leading to significant time savings and improved case quality [51](#page=51).
* **Level 3 - AI for the organization:** Represents a strategic transformation, often driven by an "AI-first" strategy and a data-driven culture. This level requires leadership commitment, data maturity, AI competencies, and robust ethical frameworks [51](#page=51).
* **Example:** Warehouse automation with autonomous robots, predictive AI for inventory optimization, dynamic pricing engines, and smart checkout systems contributing to increased productivity, reduced waste, and enhanced sustainability [52](#page=52).
#### 3.2.2 Challenges and failures in AI projects
A significant percentage of AI projects fail, with many not meeting their objectives or having no measurable effect. Common reasons for failure include [53](#page=53):
* Misalignment between business goals and AI capabilities [53](#page=53).
* Insufficient attention to change management and user training [53](#page=53).
* Lack of clear leadership and direction [53](#page=53).
* Starting with data rather than the problem [61](#page=61).
* Vague or undefined goals [61](#page=61).
* Underestimating the expertise required for AI implementation [61](#page=61).
* Treating AI as standard software, overlooking its experimental nature [61](#page=61).
* Getting stuck in the proof-of-concept (PoC) phase, with a substantial percentage of projects remaining in the test phase [61](#page=61).
* Underestimating the effort required for change management [61](#page=61).
#### 3.2.3 Pillars of successful AI integration
Successful AI integration rests on four key pillars:
1. **Data - The fuel:** The principle of "garbage in, garbage out" applies. Data quality is paramount and should be checked for accuracy, completeness, consistency, timeliness, and relevance before AI implementation [54](#page=54).
2. **Culture - The mindset:** A supportive culture that encourages experimentation, views errors as learning opportunities, and fosters open discussion about AI is crucial. Conversely, a blocking culture characterized by resistance to change and a lack of experimentation will hinder AI success [55](#page=55).
3. **Education - The skills:** This encompasses both technical skills (AI basics, tool proficiency, data literacy) and soft skills (critical thinking, creativity, adaptability). Continuous training is essential due to the rapid evolution of AI [55](#page=55).
4. **Iteration - The process:** AI projects are complex and unpredictable, necessitating an iterative approach involving piloting, measuring results, learning from outcomes, adapting strategies, and scaling successful applications [56](#page=56).
#### 3.2.4 Starting points for AI integration
AI integration should begin by understanding your own work and specific tasks within your role, rather than focusing solely on technology [57](#page=57).
* **Identify your roles and tasks:** Each job comprises multiple roles, and each role involves core tasks and required skills. AI is best integrated into specific tasks within these roles [57](#page=57).
* **Analyze your role and frustrations:** The greatest AI opportunities often lie in addressing frustrations and time-consuming tasks that require little cognitive effort, tasks where mistakes are frequently made, or tasks that are consistently postponed [58](#page=58).
* **The 3 A's of AI in your role:**
* **Automation:** AI takes over repetitive tasks (e.g., data entry, standard responses), allowing humans to focus on quality control [58](#page=58).
* **Augmentation:** AI supports human decision-making by assisting with research, analysis, or brainstorming. The human remains the ultimate decision-maker [58](#page=58).
* **Authenticity:** Areas that remain inherently human, such as ethics, vision, creativity, relationships, innovation, and core decision-making, are not directly automated [58](#page=58).
#### 3.2.5 Plotting AI opportunities
AI opportunities can be plotted based on their **impact** (what they deliver) and **feasibility** (can they be done today) [59](#page=59).
* **Quick wins:** High feasibility, high impact. These are low-risk applications that yield immediate time or quality improvements (e.g., meeting summaries, AI assistance for reports) [59](#page=59).
* **Strategic projects:** Low feasibility, high impact. These are ambitious ideas requiring more preparation but offering significant potential (e.g., AI-driven customer profiling, predictive analytics) [59](#page=59).
* **Nice-to-haves:** High feasibility, low impact. These are useful tools for learning or experimentation but without a major difference in outcomes (e.g., AI templates, suggestions) [59](#page=59).
* **Time-wasters:** Low feasibility, low impact. These should be avoided as they consume resources without significant benefit [59](#page=59).
#### 3.2.6 Avoiding the 'Big Bang' anti-pattern
The "Big Bang" approach, which involves immediate, organization-wide implementation without room for learning or adjustment, is a guaranteed way to make AI projects fail. This approach carries high risks, including significant impact upon failure, resistance from users, costly adjustments, and loss of trust [60](#page=60).
#### 3.2.7 Sustainable implementation
Sustainable AI integration focuses on building habits rather than just completing projects. Three building blocks contribute to sustainability [62](#page=62):
* **Communication:** Establishing clear expectations, defining ownership, and implementing feedback loops [62](#page=62).
* **Monitoring:** Tracking key performance indicators (KPIs), measuring results, and identifying errors for learning [62](#page=62).
* **Adoption:** Training people, keeping them engaged, and sharing successes [62](#page=62).
Implementation does not end at "go-live"; the real work begins with actual usage [62](#page=62).
---
# Agentic AI and workflow automation
This topic explores the evolution of AI usage from reactive prompting to proactive, autonomous AI systems that can manage complex workflows [28](#page=28).
### 4.1 The concept of Agentic AI
Agentic AI refers to the capability of AI systems to act autonomously. Unlike traditional AI that solely responds to input, agentic AI enables systems to initiate actions and manage processes independently. This represents a shift from a reactive, one-on-one conversational model to a proactive, intelligent system design [28](#page=28) [29](#page=29).
#### 4.1.1 Agentic AI vs. AI Agents
It is crucial to distinguish between "Agentic AI" and "AI Agents":
* **AI Agent:** A concrete system or tool designed for a specific purpose [29](#page=29).
* **Agentic AI:** A property or concept describing the behavior and capabilities of an AI system, indicating its ability to act autonomously [29](#page=29).
> **Tip:** Think of "AI Agent" as a noun (the system itself) and "Agentic AI" as an adjective (describing the system's autonomous qualities).
#### 4.1.2 Characteristics of an "Agentic" AI system
Several key features contribute to an AI system's "agentic" nature, increasing its autonomy:
* **External tool invocation:** The ability to use external tools such as calculators, databases, APIs, web search, or code execution environments [30](#page=30).
* **Tool selection:** The capacity to autonomously decide which tool is most appropriate for a given task [30](#page=30).
* **Memory/Context building:** The ability to retain and build upon previous interactions, accumulating knowledge about the user or situation [30](#page=30).
* **Planning/Multi-step reasoning:** The capability to break down complex tasks into a sequence of steps, understanding dependencies between them [30](#page=30).
* **Feedback loops/Self-evaluation:** The ability to assess its own results and iterate until a desired outcome is achieved [30](#page=30).
The more of these properties an AI system possesses, the more autonomous it becomes [30](#page=30).
#### 4.1.3 Considerations for AI autonomy
While increased autonomy offers benefits, it also introduces risks:
* **Unpredictability:** More autonomous agents can be harder to predict [30](#page=30).
* **Amplified "black box" problem:** Understanding the decision-making process can become more challenging [30](#page=30).
* **Cascade effects:** Errors can propagate and have significant consequences [30](#page=30).
* **Over-reliance:** Excessive trust in automated decisions can be problematic [30](#page=30).
* **Bias amplification:** AI agents can inadvertently reinforce existing biases [30](#page=30).
* **Accountability:** Determining responsibility when an agent makes a mistake is complex [30](#page=30).
It is essential to question whether the level of autonomy is truly necessary for a given task [30](#page=30).
#### 4.1.4 Examples of Agentic AI applications
Agentic AI can be applied across various domains:
* **Independent Research Agent:** Finds, compares, and summarizes articles on a topic [31](#page=31).
* **Personal Financial Coach:** Analyzes financial data, categorizes expenses, and offers savings tips [31](#page=31).
* **Customer Service Triager:** Reads support emails, determines urgency and subject, and routes them appropriately [31](#page=31).
* **HR Onboarding Agent:** Manages onboarding documentation, schedules interviews, and registers new employees [31](#page=31).
* **Marketing Campaign Agent:** Generates social posts, schedules publications, and analyzes channel performance [31](#page=31).
* **Educational Tutor Agent:** Analyzes learning outcomes and provides personalized exercises [31](#page=31).
* **Data Cleaning Agent:** Identifies duplicates and inconsistencies in datasets and generates clean CSV files [31](#page=31).
* **Compliance & Audit Agent:** Reviews contracts, detects risks, and generates summaries per compliance domain [31](#page=31).
### 4.2 Building AI Agents
#### 4.2.1 Prompting vs. AI Agents
The traditional method of interacting with AI via prompts differs significantly from using pre-configured AI agents:
* **Prompting:** Requires continuous context provision, lacks access to proprietary business knowledge, can lead to inconsistent answers, involves repetitive instructions, and is not scalable for teams [32](#page=32).
* **AI Agents:** Are pre-configured, autonomous assistants with built-in context (system prompt), access to documents and tools, consistent behavior due to fixed instructions, and are scalable for entire teams, allowing for controlled automation of specific tasks [32](#page=32).
#### 4.2.2 Platforms for building AI Agents
Several popular AI platforms offer capabilities for creating AI agents:
* **OpenAI:** Custom GPTs (requires ChatGPT Plus) [33](#page=33).
* **Anthropic:** Claude Projects (requires Claude Pro/Team) [33](#page=33).
* **Mistral AI:** Le Chat Agents (free tier available) [33](#page=33).
* **Google:** Gemini Gems [33](#page=33).
* **Perplexity:** Comet-browser for agentic search [33](#page=33).
The underlying principles for building agents are universal, encouraging testing of multiple platforms for specific use cases [33](#page=33).
#### 4.2.3 Anatomy of a good AI agent
A well-constructed AI agent typically includes the following components:
* **Role:** Defines the agent's area of expertise [34](#page=34).
* **Behavior:** Specifies interaction style (formal/informal), source citation requirements, length limits, and formatting preferences (emojis, styling) [34](#page=34).
* **Safety:** Establishes what the agent is strictly forbidden from doing [34](#page=34).
* **Output:** Dictates the desired format of the agent's response (tables, bullet points, reports) [34](#page=34).
* **Knowledge:** Refers to the information accessible to the agent, which can be static or dynamic memory, including documents, policies, and product information [34](#page=34).
* **Tools:** Lists the available external resources the agent can utilize, such as web search, code execution, image generation, APIs, databases, and file access [34](#page=34).
#### 4.2.4 Principles for effective agent design
To build effective AI agents, follow these guidelines:
* **DOs:**
* **Be specific:** Instead of "Be concise," use "Answer in a maximum of 3 sentences" [34](#page=34).
* **Provide examples:** Illustrate desired responses, e.g., "If the customer asks X, respond with Y" [34](#page=34).
* **Define boundaries:** Clearly state when the agent should redirect or refrain from answering, e.g., "Redirect for questions about [topic]" [34](#page=34).
* **Specify tone:** Guide the agent's communication style, e.g., "Professional but accessible, avoid jargon" [34](#page=34).
* **Define output format:** Provide a clear structure for responses, e.g., "Use this structure: 1. Summary, 2. Details, 3. Action" [34](#page=34).
* **DON'Ts:**
* **Be too vague:** Avoid generic instructions like "Be helpful" [34](#page=34).
* **Provide contradictory instructions:** Ensure all directives are consistent [34](#page=34).
* **Omit safety measures:** Do not forget to implement safety constraints [34](#page=34).
* **Grant excessive autonomy without checks:** Be cautious with high levels of independence without proper safeguards [34](#page=34).
#### 4.2.5 Knowledge Base for AI Agents
A knowledge base is crucial for AI agents, akin to training a new employee. It is a structured collection of information that provides the agent with access to company-specific knowledge [35](#page=35).
**Benefits of a knowledge base:**
* **Consistency:** Ensures all users receive the same information [35](#page=35).
* **Actuality:** Grants access to the latest information [35](#page=35).
* **Specialization:** Transforms the agent into an expert in a specific domain [35](#page=35).
* **Scalability:** Supports an unlimited number of queries [35](#page=35).
* **Cost reduction:** Minimizes the need for extensive training [35](#page=35).
**Types of Knowledge Bases:**
* **Static Knowledge:** Information is added manually, often by uploading documents (e.g., PDFs). This is less scalable and more time-consuming to maintain. It is suitable for fixed content like manuals and policy documents but less so for rapidly changing information [36](#page=36).
* **Dynamic Knowledge:** Involves linking to data sources, allowing for automatic synchronization. This is highly scalable and ideal for teams, knowledge management, and real-time insights [36](#page=36).
**Platforms for dynamic knowledge bases:**
* **Notion:** Offers flexible databases, notes, wikis, and integrations [36](#page=36).
* **OneNote:** Provides structured notes within the Microsoft 365 ecosystem [36](#page=36).
* **Dropbox:** Facilitates collaborative real-time writing and brainstorming [36](#page=36).
* **Google Drive:** Cloud storage with AI integration and access control [36](#page=36).
* **GitHub:** Supports version control, documentation, and collaboration on code and projects [36](#page=36).
These platforms serve as a central source of truth, ensuring up-to-date information and simple integration with AI agents [36](#page=36).
#### 4.2.6 Building knowledge effectively
To construct a robust knowledge base, prioritize:
* **Quality over quantity:** Focus on valuable and accurate information [37](#page=37).
* **Consistent structure:** Maintain a uniform organization [37](#page=37).
* **Logical folder organization:** Use clear and intuitive directory structures [37](#page=37).
* **Clear naming conventions:** Employ descriptive names for files and documents [37](#page=37).
* **Fixed document templates:** Utilize standardized templates for documents [37](#page=37).
* **AI-friendly formats:** Structure content to be easily processed by AI [37](#page=37).
* Use headings and subheadings [37](#page=37).
* Write clearly and concisely [37](#page=37).
* Avoid complex tables [37](#page=37).
### 4.3 Automating workflows
#### 4.3.1 From single agent to orchestra
A single AI agent typically performs one task. However, when multiple agents and tools collaborate, they form a **workflow**, creating an intelligent system capable of automating complex processes [38](#page=38).
#### 4.3.2 Workflow automation benefits
Workflow automation leverages multiple agents and tools in a streamlined process, offering significant advantages:
* **Time saving:** Eliminates repetitive manual tasks [38](#page=38).
* **Consistency:** Reduces human error [38](#page=38).
* **Scalability:** Allows processes to handle varying volumes of work (e.g., 100 or 10,000 tickets) [38](#page=38).
* **24/7 availability:** Agents operate continuously [38](#page=38).
* **Cost reduction:** Decreases the need for manual labor [38](#page=38).
#### 4.3.3 Workflow layers
Workflows can be conceptualized in distinct layers:
* **Layer 1: Triggers:** Define what initiates the workflow (e.g., new email, form submission, scheduled time, new file) [39](#page=39).
* **Layer 2: AI Agent Processing:** AI agents analyze content and determine the necessary actions [39](#page=39).
* **Layer 3: Decision Logic:** Implements rules (e.g., if/then statements, routing based on agent output) to guide the next steps [39](#page=39).
* **Layer 4: Actions:** The execution of tasks such as sending emails, creating tickets, or updating databases [39](#page=39).
* **Layer 5: Monitoring:** Tracks the workflow's performance through logs, alerts, and dashboards [39](#page=39).
#### 4.3.4 Potential workflow automation challenges
Implementing workflow automation can present challenges:
* **Integration with existing systems:** Connecting with legacy or disparate systems can be complex [40](#page=40).
* **Data quality and availability:** Incomplete or inconsistent data can pose risks [40](#page=40).
* **Change management:** Teams require guidance and training to adapt to AI-driven workflows [40](#page=40).
* **Governance:** Ensuring security, compliance, and risk management is paramount [40](#page=40).
#### 4.3.5 Workflow automation tools
Several tools facilitate workflow automation:
* **Zapier:** A widely known platform with over 7000 app integrations and a visual workflow builder. Offers a free tier for limited tasks [40](#page=40).
* **Make.com (formerly Integromat):** Provides more powerful logic than Zapier and includes built-in AI agents. Offers a free tier based on operations [40](#page=40).
* **n8n (Open Source):** A more technical option that can be self-hosted, offering greater flexibility and no inherent limits [40](#page=40).
* **Custom Scripting (Python):** For those who prefer not to rely on third-party tools [40](#page=40).
#### 4.3.6 Understanding Make.com
Make.com uses specific terminology for workflow building:
* **Scenarios:** Represent automated workflows built using a drag-and-drop interface [40](#page=40).
* **Modules:** Individual steps within a scenario, corresponding to apps or actions [40](#page=40).
* **Bundles:** Data packets that flow through the workflow, with each module producing a bundle as input for the next. Data is structured in JSON format [40](#page=40).
* **Operations:** Count the number of times a module is executed and contribute to usage limits. Monitoring operations is key for cost management [40](#page=40).
**Key components within Make.com:**
* **Org:** Overview of your organization and workspaces [41](#page=41).
* **Scenarios:** Where automations are built and managed [41](#page=41).
* **AI Agents (Beta):** For creating and managing AI-driven automations [41](#page=41).
* **Connections:** Manage API and app connections [41](#page=41).
* **Webhooks:** Receive data from external sources [41](#page=41).
* **Templates:** Pre-built scenarios to start quickly [41](#page=41).
* **Data stores:** Store data within Make [41](#page=41).
* **Keys:** Manage API keys [41](#page=41).
* **Devices:** Connect devices to Make [41](#page=41).
* **Data structures:** Define custom data structures [41](#page=41).
* **Custom Apps:** Build custom integrations [41](#page=41).
#### 4.3.7 Building a workflow example: Document analysis
A practical workflow example involves analyzing documents:
1. **Dropbox - Watch Files:** Detects new files in a specified Dropbox folder [42](#page=42).
2. **Dropbox - Download a File:** Downloads the newly added file [42](#page=42).
3. **PDF.co - Convert from PDF:** Converts the PDF to text or a JSON structure [42](#page=42).
4. **Make AI Agents - Run an Agent:** Utilizes an AI agent to analyze or summarize the content [42](#page=42).
5. **JSON - Parse JSON:** Converts the AI's output into usable data [42](#page=42).
6. **Google Sheets - Add a Row:** Appends the processed information to a spreadsheet [42](#page=42).
**Workflow controls:**
* **Run once:** Executes the scenario for testing [42](#page=42).
* **Every 15 minutes:** Schedules automatic execution [42](#page=42).
* **Save:** Stores any modifications made [42](#page=42).
* **Run:** Starts the scenario manually [42](#page=42).
* **Settings:** Configures scenario options like error handling and logging [42](#page=42).
* **...:** Options for exporting and importing workflows (e.g., as JSON) [42](#page=42).
#### 4.3.8 Data exchange in workflows
Computers rely on data formats for storing and exchanging information:
* **.txt:** Plain text [43](#page=43).
* **.csv:** Tabular data, compatible with Excel [43](#page=43).
* **.json:** Structured data for AI and software, using key-value pairs [43](#page=43).
Consistent data formats ensure reliable communication between systems [43](#page=43).
**JSON (JavaScript Object Notation):**
JSON is a text-based, readable, and structured format commonly used in computing. It uses key-value pairs, for example [43](#page=43):
```json
{
"titel": "AI for Business – Les 6",
"auteur": "Boonen, E.",
"jaar": 2025
}
```
#### 4.3.9 Why a workflow is "agentic"
The document analysis workflow exemplifies agentic behavior:
* **Autonomous trigger:** Automatically reacts to new files [44](#page=44).
* **Multi-step reasoning:** Proceeds through a sequence: PDF -> Text -> Analysis -> Structure -> Storage [44](#page=44).
* **Decision making:** The AI agent independently analyzes and structures data [44](#page=44).
* **Tool use:** Employs various tools (PDF.co, Sheets) to achieve its objective [44](#page=44).
* **Continuous loop:** Capable of processing an unlimited number of new documents [44](#page=44).
#### 4.3.10 Workflow automation risks and mitigation
Revisiting the risks of agentic AI in the context of workflows:
* **Black box problem:** Difficulty in understanding decision pathways [44](#page=44).
* **Cascade errors:** A single error can impact the entire system [44](#page=44).
* **Over-reliance:** Excessive trust in automated decisions [44](#page=44).
* **Bias amplifier:** AI can reinforce prejudices [44](#page=44).
* **Responsibility:** Ambiguity in accountability for agent errors [44](#page=44).
**Mitigation strategies:**
* **Transparency:** Log all actions and understand the decision pathway [44](#page=44).
* **Define boundaries:** Clearly specify actions the agent must never perform [44](#page=44).
* **Risk/benefit analysis:** Weigh the advantages against the potential risks [44](#page=44).
* **Conservative start:** Begin with limited autonomy [44](#page=44).
* **Question necessity:** Always ask if autonomy is truly required. A simple prompt might suffice over a complex agentic solution [44](#page=44).
---
# Developing an AI strategy and measuring impact
Developing an AI strategy and measuring impact focuses on understanding processes, building a compelling AI business case, addressing potential productivity paradoxes, and effectively measuring the impact of AI initiatives. It stresses starting with problem identification, leveraging data, and ensuring human involvement throughout the AI implementation lifecycle [65](#page=65).
## 5. Developing an AI strategy and measuring impact
### 5.1 Understanding processes
To effectively implement AI and drive improvements, a thorough understanding of existing processes is paramount. Many AI projects fail due to a lack of this foundational understanding, with processes often chosen based on novelty rather than potential impact. An average organization can have up to 40% inefficient processes, and applying AI to the wrong processes will yield no return on investment, as AI acts as an amplifier—making good processes better and bad processes worse [66](#page=66).
#### 5.1.1 Process analysis
Before deploying AI, it's crucial to analyze the current process by asking key questions:
* What is the objective of this process (its purpose) [66](#page=66)?
* Who are the stakeholders involved or affected [66](#page=66)?
* Where are the pain points or where does the process fail [66](#page=66)?
* What is the business impact (costs) of the current situation [66](#page=66)?
#### 5.1.2 Process mapping
Process mapping is essential for visually documenting how a process currently operates. This makes the invisible visible, aids in identifying bottlenecks, quantifies inefficiencies in terms of time and cost, highlights inter-team handoffs, and clarifies data flows [67](#page=67).
##### 5.1.2.1 Swimlane diagram
A swimlane diagram is an industry-standard tool for process mapping. It uses lanes, typically representing a role, system, or actor, to depict all steps performed by that entity [67](#page=67).
**Advantages of swimlane diagrams:**
* Provides an overview of responsibilities [67](#page=67).
* Clearly shows handoffs between different departments [67](#page=67).
* Makes the time taken for each step visible [67](#page=67).
* Highlights bottlenecks effectively [67](#page=67).
**Checklist for effective swimlane diagrams:**
* Each lane has a clear owner (department/role) [68](#page=68).
* Steps are specific, not vague [68](#page=68).
* Handoffs are visually represented with arrows connecting lanes [68](#page=68).
* Waiting times are explicitly marked [68](#page=68).
* Decision points (diamonds) are clearly labeled [68](#page=68).
* Time spent per step is indicated [68](#page=68).
* Bottlenecks are identified [68](#page=68).
#### 5.1.3 Adapting processes with AI
To adapt processes for AI integration:
1. Identify bottlenecks, such as slow or subjective decisions, repetitive work due to rejections, or communication errors [69](#page=69).
2. Brainstorm AI solutions for each identified bottleneck [69](#page=69).
3. Redraw the process diagram to include AI integration [69](#page=69).
4. Quantify the expected improvements [69](#page=69).
An example of process adaptation involves replacing subjective decisions with AI. In a marketing context, instead of personal preferences blocking progress, an AI model can be given a conversion target. The AI then presents data-supported proposals, allowing management to approve with a single click, leading to faster, data-driven decisions and automatic implementation [69](#page=69).
### 5.2 Building an AI business case
A business case is a justified proposal demonstrating *why* an initiative is worthwhile. Without one, AI ideas remain mere wishes, and many are rejected due to vagueness or lack of demonstrable business value. Simply stating "AI can help," "this tool is cool," or "everyone uses ChatGPT" is insufficient. Quantifying benefits like time savings is crucial [70](#page=70).
#### 5.2.1 The AI business case canvas
The AI Business Case Canvas provides a structured approach to developing a business case [71](#page=71):
1. **Problem:** What is going wrong? (quantified) [71](#page=71).
2. **Solution:** How will AI address this problem [71](#page=71)?
3. **Costs:** What is the realistic cost [71](#page=71)?
4. **Benefits:** What are the tangible and intangible returns (in currency and quality) [71](#page=71)?
5. **Risks:** What can go wrong, and how will it be mitigated [71](#page=71)?
6. **Implementation:** How will it be executed [71](#page=71)?
#### 5.2.2 Defining the problem
A well-formulated problem statement focuses on measurable pain points using concrete figures. It should identify the impact on time, money, and quality. Key questions to ask include [72](#page=72):
* What is the specific problem [72](#page=72)?
* Who is affected (department, employees, customers) [72](#page=72)?
* How much time, money, or energy does it currently cost [72](#page=72)?
* What are the consequences of not solving it [72](#page=72)?
* How will you measure if the problem is solved (KPIs) [72](#page=72)?
#### 5.2.3 Describing the solution
The solution description should be specific, detailing which AI tool or technology will be used and explaining its practical application in plain language. Defining the scope—what will and will not be addressed—is important. Questions to consider are [73](#page=73):
* Which specific AI tool/technology [73](#page=73)?
* How does it integrate into the existing workflow [73](#page=73)?
* Who will use it (user profile) [73](#page=73)?
* What are the expected outcomes of the solution [73](#page=73)?
* How will success be measured (success criteria) [73](#page=73)?
#### 5.2.4 Estimating costs
Costs should be estimated conservatively, accounting for potential overruns and hidden expenses like internal hours. Obtaining quotes from vendors and planning for a 10-15% buffer for unforeseen costs is recommended. Cost categories include [73](#page=73):
* **Licensing costs:** Software subscriptions, API calls (usually monthly/annual) [73](#page=73).
* **Implementation costs:** Setup, configuration (one-time investment) [73](#page=73).
* **Training costs:** Workshops, courses (essential for adoption) [73](#page=73).
* **Maintenance costs:** Updates, support, troubleshooting (ongoing costs) [73](#page=73).
* **Internal hours:** Project management, testing, guidance (hidden costs) [73](#page=73).
#### 5.2.5 Quantifying benefits
Benefits must always be measurable. These can include [74](#page=74):
* **Time savings:** Reduced manual work (e.g., 8 hours saved per week) [74](#page=74).
* **Quality improvement:** Fewer errors, better output (e.g., error rates reduced from 15% to 5%) [74](#page=74).
* **Revenue impact:** Higher sales or lower costs through faster service delivery [74](#page=74).
* **Employee satisfaction:** Less routine work, more engaging tasks, leading to lower turnover and higher motivation [74](#page=74).
#### 5.2.6 Assessing risks
Preparation for potential risks is crucial. These can be categorized as [74](#page=74):
* **Technical risks:** Integration issues, poor data quality, AI model performance, scalability problems [74](#page=74).
* **Organizational risks:** Employee resistance, inability to use tools effectively, lack of time/budget, unrealistic expectations [74](#page=74).
* **Ethical risks:** Privacy concerns, data access issues, biased AI decisions, lack of transparency, liability for errors [74](#page=74).
Mitigation strategies should be developed for each identified risk [74](#page=74).
#### 5.2.7 Planning implementation
A concrete implementation plan with defined steps and timelines is necessary. Success factors include a clear owner, weekly check-ins, and early user involvement. A plan without data is a wish; a plan with data is a promise [75](#page=75).
#### 5.2.8 Calculating ROI
Return on Investment (ROI) quantifies the financial return of an investment. Even "soft" benefits like satisfaction and speed should be quantified where possible. The formula is [75](#page=75):
$$ ROI = \frac{\text{Benefits} - \text{Costs}}{\text{Costs}} \times 100\% $$ [75](#page=75).
**Benefits (Revenue) can include:**
* Time savings (hourly wage * saved hours) [75](#page=75).
* Error reduction (cost per error * number of errors) [75](#page=75).
* Scalability (more work without additional staff) [75](#page=75).
* Quality improvements (higher customer satisfaction, lower rework costs) [75](#page=75).
* Risk reduction (avoiding fines/downtime) [75](#page=75).
**Costs (Investment) can include:**
* License fees (monthly/annual) [75](#page=75).
* Implementation hours (internal/external) [75](#page=75).
* Training and education [75](#page=75).
* Maintenance and support [75](#page=75).
* Buffer (15%) [75](#page=75).
### 5.3 The productivity paradox
The productivity paradox refers to situations where investment in technology, including AI, does not always lead to a corresponding increase in productivity, and sometimes can even decrease it. This paradox has been observed with technologies like email and smartphones, where the promised benefits of efficiency and flexibility have been overshadowed by increased workload and constant connectivity [76](#page=76) [77](#page=77) [78](#page=78).
#### 5.3.1 The AI paradox for individuals
For individuals, AI can lead to "running harder instead of choosing a better destination". Consequences include [78](#page=78):
* Increased workload rather than reduced work, as saved time is filled with new tasks [78](#page=78).
* Higher speed leading to constant pressure to keep up [78](#page=78).
* A feeling of never being "finished" as AI continually generates more options and tasks [78](#page=78).
* Burnout risk due to the pressure to constantly perform optimally [78](#page=78).
#### 5.3.2 The AI paradox for organizations
Organizations may invest in AI, yet see no productivity gains or even a decline. This can be due to [78](#page=78):
* AI not fitting into existing workflows [78](#page=78).
* Resistance to change, with employees preferring old methods [78](#page=78).
* Over-reliance on AI leading to errors [78](#page=78).
* AI solving problems that are not significant [78](#page=78).
* Hidden costs related to training, support, and necessary adjustments [78](#page=78).
#### 5.3.3 Overcoming the paradox
To overcome the productivity paradox, technology, including AI, should be treated as a tool, not a master. AI should be used for routine tasks to free up time for human connection, reduce pressure, and enable more meaningful work. The focus should be on using AI for direction and strategic advantage, not solely for speed [79](#page=79) [83](#page=83).
### 5.4 Measuring the impact of AI
Measuring the impact of AI is crucial for demonstrating value and guiding future strategy. Measurement should begin *before* AI implementation [80](#page=80).
#### 5.4.1 Six dimensions of AI impact
Impact should be measured across six key dimensions [80](#page=80):
1. **Efficiency:** Time saved (hours per week) [80](#page=80).
2. **Quality:** Reduction in errors, improvement in output [81](#page=81).
3. **Costs:** Direct savings (materials, licenses) [81](#page=81).
4. **Employee satisfaction:** Increased morale, reduced turnover, fewer sick days [82](#page=82).
5. **Customer value:** Better experiences, higher loyalty, improved Net Promoter Score (NPS) [82](#page=82).
6. **Innovation:** Increased capacity for strategic and creative work [83](#page=83).
#### 5.4.2 Measuring efficiency
Efficiency gains are often the most apparent, typically measured by time saved (hours per week). Methods include time tracking and system logs. However, it's important to consider how this saved time is utilized [80](#page=80).
#### 5.4.3 Measuring quality
Quality improvements focus on reducing errors and increasing precision. This is often more valuable than speed, as a fast mistake can damage customer relationships. Measuring quality involves [81](#page=81):
* Error percentage [81](#page=81).
* Accuracy [81](#page=81).
* Customer satisfaction scores [81](#page=81).
The cost of errors should be calculated to quantify the financial benefit [81](#page=81).
#### 5.4.4 Measuring costs
Direct cost savings are a primary focus, especially for CFOs. This involves tracking reductions in material costs, license fees, and other operational expenses [81](#page=81).
#### 5.4.5 Measuring employee satisfaction
Happy employees lead to better performance. Measuring satisfaction involves [82](#page=82):
* Surveys [82](#page=82).
* Turnover rates [82](#page=82).
* Sick days [82](#page=82).
AI that removes routine tasks can significantly boost morale and allow employees to focus on more engaging, strategic work [82](#page=82).
#### 5.4.6 Measuring customer value
Enhancing customer experience leads to greater loyalty. Key metrics include [82](#page=82):
* Net Promoter Score (NPS) [82](#page=82).
* Satisfaction scores [82](#page=82).
* Churn rate [82](#page=82).
Customer retention can be up to five times cheaper than customer acquisition [82](#page=82).
#### 5.4.7 Measuring innovation
AI can shift focus from operational "firefighting" to strategic, innovative work. This is an intangible but essential impact, leading to better talent retention. Measuring innovation can involve [83](#page=83):
* Time allocation analysis (hours spent on strategic thinking) [83](#page=83).
* Project portfolio assessment [83](#page=83).
Quantifying the value of strategic thinking time, for instance, can highlight the potential value of new features [83](#page=83).
> **Tip:** Always start with the problem, not the technology. Measure everything, from time savings to employee satisfaction. Involve people in the process—technology is implemented, but people need to be convinced. Think in business cases, not just "coolness factors," and ensure AI is used for direction, not just speed, to avoid the productivity paradox [83](#page=83).
---
## Common mistakes to avoid
- Review all topics thoroughly before exams
- Pay attention to formulas and key definitions
- Practice with examples provided in each section
- Don't memorize without understanding the underlying concepts
Glossary
| Term | Definition |
|------|------------|
| Structured Data | Data that is organized in a predefined format, typically in tables or databases, making it easy to search and analyze. Examples include data found in SQL databases or Excel spreadsheets. |
| Unstructured Data | Data that does not have a predefined format or organization, such as text documents, images, audio files, and videos. AI systems often require both structured and unstructured data for comprehensive analysis. |
| Data Lifecycle | The complete journey of data from its creation and collection through storage, processing, analysis, interpretation, and finally, its eventual archiving or deletion. Each stage is crucial for the overall effectiveness of an AI model. |
| Garbage In, Garbage Out (GIGO) | A principle in computing and data management stating that the quality of the output is determined by the quality of the input. If "garbage" (poor quality or inaccurate data) is fed into an AI model, the model will produce "garbage" (flawed or unreliable results). |
| Data Bias | A systematic error or prejudice present in a dataset that can lead an AI model to produce skewed or unfair outcomes. Bias can originate from various sources, including historical data, sampling methods, or the interpretation of information. |
| Correlation | A statistical measure that describes the extent to which two variables change together. It indicates a relationship but does not necessarily imply that one variable causes the other. |
| Causality | A relationship between two events where one event is the direct result of the other. In data analysis, distinguishing causality from correlation is critical to understanding true cause-and-effect relationships. |
| Simpson's Paradox | A statistical phenomenon where a trend appears in different groups of data but disappears or reverses when these groups are combined to form a single dataset. This can occur due to confounding variables or the aggregation of data. |
| Participation Bias | A bias that occurs when only a subset of individuals, typically those who are more motivated or engaged, participate in data collection or feedback, leading to a skewed representation of the overall population or phenomenon. |
| Selection Bias | A bias that arises when the sample selected for analysis is not representative of the population it is intended to represent, often due to systematic differences in how individuals or groups are chosen or self-select into the sample. |
| Measurement Bias | A bias introduced into data due to flaws or inaccuracies in the method of measurement, leading to systematic errors in the data collected. This can happen when a proxy is used to measure a complex or abstract phenomenon. |
| Confirmation Bias | The tendency to search for, interpret, favor, and recall information in a way that confirms or supports one's existing beliefs or hypotheses, potentially leading to biased decision-making. |
| Outlier Bias | A bias that can arise from the presence of extreme values (outliers) in a dataset. These outliers can disproportionately influence statistical measures like the mean, potentially obscuring underlying patterns or important insights if not properly handled. |
| Data Quality Framework | A set of guidelines and principles used to assess and ensure the quality of data. Key dimensions typically include accuracy, completeness, consistency, timeliness, and relevance, aiming to improve the reliability and usefulness of data. |
| Summarization | The capability of AI tools to automatically describe and condense the key insights and findings present within a dataset or text. |
| Pattern Discovery | The process by which AI tools identify correlations, trends, seasonal influences, and other discernible regularities within data that might not be immediately apparent to human observation. |
| Automation | The use of AI tools to perform repetitive analytical tasks, generate reports, or execute sequences of operations without direct human intervention, thereby increasing efficiency. |
| Visualization | The function of AI tools to create graphical representations of data, such as charts, dashboards, and heatmaps, to enhance understanding and communication of complex information. |
| Prediction | The ability of AI tools to forecast future outcomes or trends based on the analysis of historical data and identified patterns, often referred to as forecasting. |
| Interpretation | The AI tool's capacity to explain complex numerical data or analytical results in simple, understandable language, making insights more accessible. |
| Black Box | A term used to describe AI systems where the internal processes and reasoning behind their conclusions are not transparent or easily understood by the user. |
| Hallucination | An issue with AI where the tool generates outputs, such as perceived "patterns" or factual inaccuracies, that are not supported by the input data. |
| Bias Replicatiion | The tendency of AI tools to reproduce and potentially amplify existing biases present in the data they are trained on or analyze, leading to unfair or skewed results. |
| Over-reliance | The risk of users placing too much trust in AI-generated outputs without critical evaluation, a phenomenon often referred to as automation bias. |
| Domain Knowledge | The understanding of a specific subject matter or industry that humans possess, which AI tools currently lack and often need external input for. |
| Critical Thinking | The intellectual process of actively and skillfully conceptualizing, applying, analyzing, synthesizing, and/or evaluating information; AI tools are aids to, not replacements for, this. |
| Heatmap | A data visualization technique that uses color intensity to represent the magnitude of a phenomenon across two dimensions, useful for identifying complex patterns involving multiple variables. |
| Scatter Plot | A type of graph that displays values for typically two variables for a set of data points, useful for observing the relationship or correlation between two numerical variables. |
| Line Graph | A chart that displays information as a series of data points called 'markers' connected by straight line segments, commonly used to track changes in data over time. |
| Bar Chart | A chart that presents categorical data with rectangular bars with heights or lengths proportional to the values that they represent, used for comparing different categories. |
| Histogram | A graphical representation of the distribution of numerical data, where the data is divided into bins and the number of data points falling into each bin is represented by a bar. |
| Pie Chart | A circular statistical graphic divided into slices to illustrate numerical proportion, where each slice's arc length is proportional to the quantity it represents. Often used sparingly due to potential for misinterpretation. |
| Stacked Bar Chart | A variation of a bar chart that divides each bar into segments to show the proportional contribution of different sub-categories to the total value of that bar. |
| Clustering | An unsupervised machine learning technique that groups a set of objects in such a way that objects in the same group (called a cluster) are more similar to each other than to those in other groups. |
| Regression | A statistical method used to estimate the relationship between a dependent variable and one or more independent variables, often used for prediction. |
| AI Integration | The structural and thoughtful incorporation of AI technology into an organization, moving beyond simply using a tool to fundamentally transforming how work is done. |
| Adoption | The initial phase of AI engagement, characterized by experimentation and trying out AI tools without necessarily transforming organizational processes or workflows. |
| Bias | A systematic deviation from a true value in data or an AI model, which can lead to unfair or discriminatory outcomes, reflecting human choices in data selection and measurement. |
| Data Quality | The accuracy, completeness, consistency, timeliness, and relevance of data, which is crucial for the effective and ethical functioning of AI systems; often referred to as "garbage in, garbage out." |
| Ethical Frameworks | Established guidelines, principles, and regulations that govern the responsible development and deployment of AI, considering societal impact, fairness, and privacy. |
| Fairness | An ethical principle in AI that ensures AI systems do not unfairly advantage or disadvantage specific groups, striving for equitable treatment and outcomes for all individuals. |
| GDPR (General Data Protection Regulation) | A European Union data privacy law that grants individuals rights concerning their personal data, including rights to access, correction, and deletion. |
| Iteration | A cyclical process in AI project management that involves piloting, measuring, learning, adapting, and scaling, allowing for continuous improvement and adjustment based on outcomes. |
| Privacy | The ethical consideration of safeguarding personal information and ensuring that AI systems do not collect, use, or share data without appropriate consent or justification. |
| Risk Assessment | The process of identifying, evaluating, and prioritizing potential risks associated with AI systems, particularly for compliance with regulations like the EU AI Act. |
| Societal Impact | The broader effects that AI has on society, including changes in employment, social interactions, economic structures, and ethical considerations. |
| Transparency | The principle of making AI systems understandable, including clear explanations of how data is sourced, used, and how AI models arrive at their decisions, facilitating trust and accountability. |
| Trustworthy AI | AI systems that are developed and deployed in a manner that is ethical, reliable, safe, and respects human values, fostering confidence in their use. |
| Augmentation | A role for AI where it supports human decision-making and cognitive processes, such as in research, analysis, brainstorming, or planning, enhancing human capabilities. |
| Authenticity | The aspect of human work that AI cannot replicate, encompassing ethical judgment, strategic vision, creativity, relationship building, innovation, and ultimate decision-making. |
| EU AI Act | A proposed regulation by the European Union aiming to establish a legal framework for AI, including requirements for risk assessment and responsible AI development. |
| Privacy-Test | An ethical test designed to assess whether the collection and use of personal data by an AI system are necessary and justified, particularly in sensitive applications like location or facial recognition. |
| Schadetest (Harm Test) | An ethical test to determine if an AI system or its data analysis has the potential to cause harm or damage to individuals or society. |
| Fairness-Test | An ethical test to identify if an AI system unfairly benefits or disadvantages any particular group during its operation. |
| Transparency-Test | An ethical test to verify that the origin and usage of data by an AI system are clearly explained. |
| Agentic AI | Refers to autonomous systems that can act independently to achieve goals, going beyond simple chatbots to encompass more sophisticated self-governing AI. |
| AI-First Strategy | An organizational approach where Artificial Intelligence is central to strategic decisions and operational planning, aiming to leverage AI across the business. |
| Data Governance Act | A European Union regulation focused on ensuring transparency and control over data exchange, promoting data sharing while maintaining oversight. |
| Iterative Process | A methodological approach to AI development and integration that emphasizes continuous cycles of piloting, measurement, learning, and adaptation rather than a single, large-scale deployment. |
| 'Quick Wins' | AI applications that offer immediate benefits, such as time savings or quality improvements, with low risk and high feasibility, making them ideal starting points for integration. |
| 'Strategic Projects' | Ambitious AI initiatives with significant long-term potential but requiring substantial preparation and planning, often involving complex analysis or customer profiling. |
| 'Time Wasters' | AI applications or features that offer minimal benefit and are difficult to maintain, consuming resources without proportional returns. |
| 'Fun Extras' | AI tools or suggestions that are useful for learning or experimentation but do not necessarily drive significant organizational change or efficiency gains. |
| 'Big Bang' Anti-Pattern | A flawed approach to AI implementation characterized by immediate, organization-wide deployment without room for learning or adjustment, leading to high risks and potential failure. |
| PoC Paralysis (Proof-of-Concept Paralysis) | A common pitfall where AI projects get stuck in the testing or proof-of-concept phase, failing to move towards actual implementation and delivering measurable impact. |
| Change Management | The systematic approach to managing the people side of change in an organization, crucial for ensuring the successful adoption and integration of AI technologies. |
| Data Literacy | The ability to read, understand, create, and communicate data as information, a fundamental skill for effective AI usage and integration. |
| Cognitive Skills | Mental abilities such as critical thinking, creativity, and adaptability, which are essential for individuals to effectively work with and leverage AI tools. |
| Organisational Transformation | The fundamental shift in how an organization operates, driven by the deep integration of AI technology, impacting processes, culture, and strategic direction. |
| AI Agent | An AI Agent is a concrete system or a self-sufficient program designed to perform specific tasks. It is a noun describing the system itself, possessing agentic qualities and behaviors. |
| Workflow Automation | Workflow automation involves orchestrating multiple AI agents and tools in a streamlined process to automate complex operations. This leads to benefits like time savings, enhanced consistency, scalability, and cost reduction by minimizing manual effort. |
| Prompt Engineering | Prompt Engineering is the practice of formulating precise instructions for AI tools to elicit useful and desired results. This approach is characterized by providing instructions repeatedly and engaging in one-on-one conversations with the AI. |
| Workflow Designer | A Workflow Designer is an evolution from a prompt engineer, focusing on designing systems that can act independently and orchestrating the collaboration of multiple AI agents for proactive automation. |
| Multi-step Reasoning | Multi-step reasoning, also referred to as planning, is the ability of an AI agent to break down complex tasks into a sequence of ordered steps. It involves identifying dependencies between these steps to achieve a desired outcome. |
| Feedback Loops | Feedback loops are a mechanism within agentic AI systems that allow them to evaluate their own results. This enables iterative refinement and improvement until the desired outcome is achieved, contributing to greater autonomy. |
| Knowledge Base | A Knowledge Base for an AI agent is a structured collection of information that the agent can access. This provides the agent with context and expertise, ensuring consistent and up-to-date responses, and allowing for specialization in specific domains. |
| Static Knowledge | Static knowledge in an AI agent's knowledge base is information that is added manually and requires time-consuming maintenance. This is suitable for fixed content like manuals but less so for rapidly changing information. |
| Dynamic Knowledge | Dynamic knowledge in an AI agent's knowledge base involves coupling with data sources for automatic synchronization and scalability. This is ideal for knowledge management and real-time insights, ensuring the agent always has access to the most current information. |
| Triggers | Triggers are events that initiate a workflow automation process. These can include actions like receiving a new email, a form submission, a scheduled time, or a new file appearing in a specific directory. |
| Modules | In workflow automation tools like Make.com, modules represent individual steps or actions within a scenario. Each module connects to an application or performs a specific task, processing data that flows through the workflow. |
| Bundles | Bundles are data packages that are transferred between modules in a workflow automation scenario. Each module produces a bundle containing processed data, which then serves as input for the subsequent module in the sequence. |
| JSON (JavaScript Object Notation) | JSON is a text-based, human-readable, and structured data format used for data exchange between software and AI systems. It utilizes key-value pairs to organize information, serving as a universal language in computing. |
| Black Box Problem | The black box problem refers to the difficulty in understanding the internal reasoning or decision-making processes of an AI system, making it challenging to ascertain why specific decisions were made. |
| Cascade Errors | Cascade errors occur when a single mistake within an AI system or workflow has a cascading effect, negatively impacting subsequent steps or the entire process. |
| Bias Amplifier | A bias amplifier is an AI system that, due to its training data or algorithms, inadvertently reinforces or magnifies existing societal prejudices or unfairness. |
| AI Business Case | A well-substantiated proposal that demonstrates WHY an initiative is worthwhile, moving an AI idea from a mere wish to a concrete plan with clear objectives and expected outcomes. |
| AI Business Case Canvas | A structured framework used to develop a comprehensive AI business case, covering six key areas: Problem identification, Solution description, Cost estimation, Benefit quantification, Risk assessment, and Implementation planning. |
| Bottleneck | A point in a process where the workflow is constrained, leading to delays, inefficiencies, and reduced throughput. Identifying and addressing these is crucial for process improvement, especially when integrating AI. |
| Business Impact | The quantifiable effect of a process or initiative on an organization's financial performance, operational efficiency, or strategic goals. Understanding this is vital for prioritizing AI projects. |
| Cost Category | Different types of expenses associated with implementing and maintaining AI solutions, including software subscriptions, implementation fees, training, ongoing maintenance, and often overlooked internal hours. |
| Data Quality Issues | Problems related to the accuracy, completeness, consistency, and reliability of data, which can significantly impair the performance and effectiveness of AI models. |
| Efficiency (AI Impact) | A dimension of measuring AI impact that focuses on quantifying the time savings achieved through AI implementation, often measured in hours saved per week. |
| Employee Satisfaction (AI Impact) | A key dimension for measuring AI's impact, focusing on how AI contributes to a better work environment, such as reducing routine tasks, increasing job meaning, and fostering higher motivation and lower employee turnover. |
| Implementation | The structured process of putting an AI solution into practice, involving a detailed step-by-step plan, clear ownership, regular progress checks, and early user involvement to ensure successful adoption. |
| Innovation (AI Impact) | A dimension of measuring AI's impact that relates to freeing up resources from operational tasks to focus on strategic thinking, leading to new product features, improved talent retention, and overall business growth. |
| Key Performance Indicator (KPI) | Measurable values that demonstrate how effectively a company is achieving key business objectives. In the context of AI, KPIs are used to track the success of a problem-solving initiative. |
| Mitigatio n | Strategies and actions taken to reduce the likelihood or impact of identified risks associated with AI projects, ensuring greater preparedness and resilience. |
| Process Analysis | The systematic examination of how a business process currently operates, including defining its objectives, identifying stakeholders, pinpointing pain points, and assessing its business impact. |
| Process Mapping | The visual representation of how a process currently works, used to make invisible aspects visible, identify bottlenecks, quantify inefficiencies, and understand data flows as a foundation for improvement. |
| Productivity Paradox | The phenomenon where investments in new technologies, such as AI, do not always lead to immediate or proportional increases in productivity, sometimes even resulting in a decrease due to various organizational and implementation challenges. |
| Quality (AI Impact) | A dimension of measuring AI impact that assesses improvements in output accuracy and reductions in errors, often translated into monetary value to understand the cost of errors and their impact on customer relationships. |
| Return on Investment (ROI) | A financial metric used to evaluate the profitability of an investment, calculated as the ratio of net profit to the cost of the investment. For AI, it involves quantifying both tangible and intangible benefits against all associated costs. |
| Risk | Potential negative events or circumstances that could jeopardize the success of an AI project, categorized into technical, organizational, and ethical domains, each requiring specific mitigation strategies. |
| Stakeholder | Any individual, group, or organization that is affected by or has an interest in a particular process or AI initiative. Identifying stakeholders is crucial for understanding the impact and ensuring buy-in. |
| Swimlane Diagram | An industry-standard process mapping technique that visually separates process steps based on the role, system, or actor responsible for them, enhancing clarity of responsibilities, handoffs, and potential bottlenecks. |
| Swimlane | A horizontal or vertical section within a swimlane diagram that represents a specific role, system, or actor involved in a process, illustrating all the steps performed by that entity. |
Cover
Media en digitale samenleving.docx
Summary
## H1: Kunstmatige Intelligentie (AI)
### Introductie tot AI en Machine Learning
Kunstmatige Intelligentie (AI) is een technologie die het mogelijk maakt voor computers om intelligent gedrag te vertonen, wat kan leiden tot beslissingen die niet te onderscheiden zijn van menselijke beslissingen (Turing test). Machine Learning (ML) is een cruciaal onderdeel van AI, waarbij computers leren van data zonder expliciet geprogrammeerd te zijn voor elke taak. Dit leerproces gebeurt vaak via neurale netwerken. Deep Learning is een geavanceerde vorm van ML die gebruik maakt van diepe, meerlagige neurale netwerken om complexe patronen te herkennen, zoals het onderscheiden van dieren op foto's. Generatieve AI, aangedreven door modellen zoals Large Language Models (LLM's), richt zich op het creëren van nieuwe content, zoals menselijke taal.
### De werking van neurale netwerken
Het brein functioneert als een netwerk van neuronen die met elkaar verbonden zijn via energiebanen. Impulsen worden ontvangen via zintuigen, vertaald, en leiden tot het uitsturen van nieuwe impulsen. AI probeert dit na te bootsen door neuronen te modelleren als wiskundige functies die snel kunnen schakelen tussen lage en hoge waarden. Deze functies worden opgeteld, en de output van één laag dient als input voor de volgende, waarbij gewichten de sterkte van de verbindingen bepalen. Door deze gewichten correct in te stellen, kan een neuraal netwerk complexe functies leren die generaliseren naar nieuwe situaties [0](#page=0) [1](#page=1).
### Hoe LLM's tekst genereren
Large Language Models (LLM's) zoals ChatGPT genereren tekst door woord voor woord (of 'token' voor 'token') te voorspellen wat het meest waarschijnlijke volgende woord is in een gegeven context.
1. **Tokenisatie en Embeddings:** Een zin wordt opgesplitst in tokens. Elk token wordt omgezet in een vector – een reeks getallen die de betekenis van het woord in een hoog-dimensionale ruimte vastlegt. De relatieve posities van deze vectoren weerspiegelen semantische relaties tussen woorden (bv. de verschuiving van 'man' naar 'vrouw' is vergelijkbaar met die van 'koning' naar 'koningin').
2. **Attention Mechanisme:** Het 'self-attention' mechanisme is cruciaal. In plaats van simpelweg alle woorden te combineren, weegt dit mechanisme de relevantie van elk woord ten opzichte van alle andere woorden in de zin. Hierdoor kan het model de context beter begrijpen en woorden aanpassen aan de omringende tekst, wat resulteert in vloeiendere en contextueel correctere zinnen.
3. **Voorspelling en Sampling:** De matrix van getransformeerde vectoren wordt ingevoerd in een neuraal netwerk. Dit netwerk berekent de waarschijnlijkheid voor elk mogelijk volgend token. Het token met de hoogste waarschijnlijkheid wordt uiteindelijk gekozen. Variabelen zoals 'temperatuur' kunnen de mate van willekeur in de selectie beïnvloeden: een lage temperatuur leidt tot voorspelbare output, een hoge temperatuur tot meer variatie en creativiteit.
### Technische Uitdagingen van Generatieve AI
Het trainen en draaien van grote AI-modellen, zoals LLAMA3, vereist enorme rekenkracht en energie. Dit wordt mogelijk gemaakt door massaal parallelle berekeningen met behulp van duizenden GPU's. Deze processen verbruiken echter aanzienlijke hoeveelheden energie, vergelijkbaar met het energieverbruik van grote steden. Belangrijke technische uitdagingen omvatten:
* **Accuraatheid:** Algoritmes moeten nog nauwkeuriger worden voor volledige toepasbaarheid.
* **Energieverbruik:** De enorme energiebehoefte is een significant milieu- en kostenvraagstuk.
* **Distributed Intelligence:** Het efficiënt distribueren van rekenkracht over meerdere systemen.
* **Controle en Black Boxes:** Veel AI-systemen opereren als 'black boxes', waardoor het moeilijk is te begrijpen *waarom* ze bepaalde beslissingen nemen. Dit kan leiden tot onbedoelde of onethische uitkomsten (bv. een algoritme dat, zonder kennis van de oorzaak, de vruchtbaarheid van de bevolking negatief beïnvloedt om een ander doel te bereiken).
* **Irrationeel Gedrag:** AI-systemen worden geoptimaliseerd voor rationeel gedrag, wat niet altijd overeenkomt met menselijk gedrag in complexe situaties.
### Valkuilen bij de implementatie van AI
1. **Change Management:** Weerstand tegen verandering is een significante hindernis, vergelijkbaar met de initiële aarzeling om auto's te accepteren boven paarden en wagens, omdat de verantwoordelijkheid verschuift van een levend wezen naar een machine.
2. **Misbruik:** Technologie kan worden gemanipuleerd, zoals het geval is met zelfrijdende auto's die worden misleid door specifieke kleurpatronen of objecten.
3. **Bias (Vooroordelen):** Systemen kunnen bevooroordeeld zijn als ze getraind worden op datasets die de realiteit niet accuraat weerspiegelen. Dit kan leiden tot discriminatie, zoals bij gezichtsherkenning die slechter werkt bij vrouwen met een donkere huidskleur, of algoritmes die historische discriminatie in het strafrecht voortzetten. Het gebruik van een divers team en het testen van systemen op representativiteit is cruciaal.
4. **Angst:** Incidenten, zoals een dodelijk ongeval met een zelfrijdende Uber, kunnen publieke angst aanwakkeren. Echter, statistisch gezien zijn autonome voertuigen nog steeds significant veiliger dan traditionele wagens. De uitdaging is om technologie te omarmen wanneer deze ethisch verantwoord veiliger is, ook al is deze niet perfect.
### De structuur van Generative AI Modellen (GPT)
De term GPT staat voor Generative Pre-trained Transformer.
* **Generative:** Het model genereert nieuwe content.
* **Pre-trained:** Het model is getraind op een enorme hoeveelheid data, waardoor het een brede basiskennis heeft. Dit maakt het mogelijk om het model verder te verfijnen voor specifieke taken.
* **Transformer:** Dit is de revolutionaire neurale netwerkarchitectuur die ten grondslag ligt aan de huidige bloei van AI.
Een Transformer werkt via een proces van voorspellen, samplen en herhalen:
1. **Voorspellen:** Het model voorspelt het meest waarschijnlijke volgende token op basis van de eerdere context.
2. **Sample:** Een token wordt geselecteerd uit een kansverdeling.
3. **Herhaal:** Dit proces wordt herhaald om lange, coherente teksten te genereren.
De kerncomponenten van een Transformer zijn:
* **Embeddings & Positie-encodering:** Woorden worden omgezet in numerieke vectoren (embeddings) die hun betekenis representeren. Positie-encodering voegt informatie toe over de volgorde van woorden in een zin.
* **Self-Attention:** Dit mechanisme weegt de relevantie van elk woord ten opzichte van alle andere woorden in de zin, via 'Queries', 'Keys' en 'Values'. Dit zorgt voor contextueel begrip.
* **Meerdere Lagen en Heads:** Transformers bestaan uit meerdere lagen met aandachtmechanismen, die elk complexere relaties en contexten kunnen verwerken. Verschillende 'attention heads' kunnen zich richten op verschillende soorten relaties (bv. grammatica, semantiek).
* **Unembedding & Softmax:** Na de verwerking in de Transformer-lagen worden de vectoren terug omgezet naar een kansverdeling over alle mogelijke volgende woorden via een softmax-functie.
* **Temperatuur & Sampling:** De 'temperatuur'-parameter regelt de creativiteit: lage temperatuur voor voorspelbare antwoorden, hoge temperatuur voor meer variatie.
## H2: Media, Technologie en Democratie
### De rol van media in een democratie
Democratie is gebaseerd op kernwaarden zoals vrijheid, gelijkheid, participatie en pluralisme. Deze waarden vereisen een publieke ruimte waar meningen kunnen circuleren en gevormd kunnen worden. Media spelen hierin een cruciale rol door:
* **Informatiefunctie:** Burgers voorzien van de nodige informatie om deel te nemen aan democratische processen.
* **Controlefunctie:** Het controleren van machthebbers en het aan de kaak stellen van misstanden.
* **Forumfunctie:** Een platform bieden voor publiek debat en meningsvorming.
Media functioneren als de 'vierde macht' en moeten onafhankelijk, betrouwbaar, toegankelijk en verantwoordelijk opereren om deze rollen te kunnen vervullen.
### Uitdagingen in het hedendaagse mediasysteem
De opkomst van platformisering en digitale media heeft geleid tot een verschuiving van one-to-many naar many-to-many communicatie. Jongeren gebruiken media significant anders dan ouderen, voornamelijk via smartphones en sociale mediaplatformen zoals TikTok, Instagram en WhatsApp. Dit heeft geleid tot een aantal uitdagingen:
* **Fake News en Desinformatie:** De verspreiding van onjuiste of misleidende informatie is een groeiend probleem.
* **Populariteit als Selectiecriterium:** Algoritmes op sociale media pushen content die veel interactie genereert, vaak ten koste van nieuwsbetrouwbaarheid of diepgang. Dit leidt tot een 'aandachtseconomie' waarin commerciële belangen primair zijn.
* **Polarisatie:** De personalisatie van nieuwsfeeds kan leiden tot ideologische segregatie en 'affectieve polarisatie', waarbij mensen zich afkeren van andersdenkenden.
### Sociale media en democratie: diagnose en interventies
Onderzoek suggereert dat sociale media bijdragen aan affectieve polarisatie, waarbij gebruikers vaker content zien van gelijkgestemden. Hoewel veel mensen een ander, meer gebalanceerd nieuwsaanbod wensen, wordt dit gedrag en de winstmaximalisatie van platforms tegengewerkt. Pogingen om algoritmes aan te passen om polarisatie tegen te gaan, hebben wisselende resultaten laten zien, wat de complexiteit van het probleem onderstreept.
AI kan potentieel de democratie ondersteunen door:
* **Verbeterde politieke geletterdheid:** Chatbots kunnen helpen bij het begrijpen van politieke standpunten en het faciliteren van democratischer online debatten.
* **Collective Intelligence:** Door het integreren van gedecentraliseerde input van burgers in AI-bestuur, kunnen betere beslissingen worden genomen.
### Mediagebruik door jongeren
Jongeren (18-34 jaar) vormen een specifieke mediacultuur met andere verwachtingen van nieuws: ze zoeken betekenis, emotie, betrokkenheid en herkenbaarheid. Nieuws wordt steeds meer een sociaal gespreksonderwerp dan puur een informatiebron. Ze hechten waarde aan authenticiteit en context-afhankelijke betrouwbaarheid, en combineren professionele journalistiek met content van 'burgerbronnen'.
### De zoektocht naar echtheid op sociale media
Politici gebruiken sociale media om een direct contact met hun publiek te leggen, authenticiteit uit te stralen en emotionele connecties te maken. Dit kan echter leiden tot een schimmige zone tussen amateurisme en professionalisme, waarbij de grenzen tussen echt en gespeeld vervagen. De strijd om aandacht op sociale media, mede door de opkomst van AI en deepfakes, bemoeilijkt het onderscheiden van waarheid en desinformatie.
## H3: Media, Technologie en Welzijn
### De impact van schermtijd en sociale media op jongeren
Maatschappelijke ongerustheid groeit over de effecten van schermtijd, met name op jongeren en kwetsbare burgers. Er is een correlatie tussen het stijgen van smartphone- en social mediagebruik en een toename van mentale problemen zoals angst en depressie. Dit fenomeen wordt soms aangeduid als de "Great Rewiring".
**Kritiek op de "smartphone-causaliteit":** Hoewel er een verband is, is het belangrijk om te erkennen dat correlatie geen causaliteit impliceert. Andere factoren zoals afname van religie, toename van individualisme, schoolstress, en economische druk spelen ook een rol. Het effect van sociale media verschilt sterk per individu; kwetsbare jongeren lopen meer risico dan veerkrachtige jongeren.
**Aanbevelingen:**
* **Ouders en Opvoeders:** Stimuleer vrij spel, fysieke interactie, en stel het gebruik van smartphones en sociale media uit voor jonge kinderen. Wees consequent met regels.
* **Beleidsmakers:** Ontwikkel beleid dat jongeren beschermt tegen schadelijke algoritmes en overmatig gebruik, en stimuleer mediawijsheid.
* **Techbedrijven:** Moeten verantwoordelijkheid nemen door schadelijke content te weren en transparanter te opereren.
### Impact op slaap
Intensief multimediagebruik, vooral in de avond, kan leiden tot later slapen, moeite met wakker blijven overdag, en een verminderde slaapkwaliteit. Sociale media zijn vaak geassocieerd met kortetermijnvoordelen (ontspanning, verbinding) die de langetermijnkosten (slaapgebrek, verminderde concentratie) overschaduwen. Media zijn zo ingebed in dagelijkse routines dat het lastig is om de verleiding te weerstaan. Zelfcontrole is cruciaal, maar wordt bemoeilijkt door de constante beschikbaarheid van media.
### Hoe social media welzijn beïnvloeden
Het streven naar "perfecte plaatjes" op sociale media kan leiden tot sociale vergelijking, onzekerheid en een negatieve impact op zelfvertrouwen, vooral bij jongeren die afhankelijker zijn van leeftijdsgenoten. Echter, sociale media kunnen ook inspireren en bijdragen aan positieve zelfpresentatie en identiteitsvorming. De sleutel ligt in het ontwikkelen van "affectieve sociale media wijsheid": de vaardigheid om kritisch te zijn, bewust te zijn van de impact van content, en gezonde gewoontes te ontwikkelen (bv. vermijden van negatieve content bij een slechte dag).
### Bodypositivity en authenticiteit
Hoewel bodypositivity en een focus op authenticiteit op sociale media positieve trends zijn, bestaat het risico dat dit puur als marketing wordt gebruikt. Authenticiteit wordt subjectief en kan leiden tot een druk om uniek te zijn en constant 'iets speciaals' te doen, wat stress kan veroorzaken.
## Cybercrime en Cyberveiligheid
### Soorten cyberaanvallen en hun gevolgen
Cybercriminaliteit omvat een breed scala aan illegale activiteiten, variërend van hacken en malware-infecties tot grootschalige aanvallen op kritieke infrastructuren. De gevolgen kunnen variëren van financiële en reputatieschade tot verstoring van vitale diensten en nationale veiligheid. Belangrijke aanvalsmethoden zijn onder meer:
* **Denial of Service (DoS/DDoS):** Systemen overbelasten.
* **Malware:** Virussen, worms, trojaanse paarden, spyware, cryptojacking en ransomware die systemen beschadigen of gegevens gijzelen.
* **Phishing en Social Engineering:** Mensen misleiden om gevoelige informatie te verkrijgen.
* **Ransomware:** Gijzelen van systemen en/of gegevens met als doel losgeld te innen.
* **Supply Chain Attacks:** Kwetsbaarheden in de toeleveringsketen van software en hardware misbruiken.
### Daders, slachtoffers en de overlap
Cybercriminelen variëren van individuen en georganiseerde groepen tot statelijke actoren. Jongeren kunnen zowel dader als slachtoffer zijn, bijvoorbeeld als 'geldezel' die bankrekeningen ter beschikking stelt aan criminelen. De grenzen tussen online en offline criminaliteit vervagen steeds meer.
### Preventie en oplossingen
Effectieve cyberveiligheid vereist een gelaagde aanpak:
* **Basisbeveiliging:** Up-to-date software, antivirus, firewalls, sterke wachtwoorden, multi-factor authenticatie (MFA).
* **Bewustzijn en Training:** Medewerkers en eindgebruikers trainen in het herkennen van bedreigingen zoals phishing.
* **Risicobeheer:** Identificeren van kritieke systemen ('kroonjuwelen'), veilige back-ups en bedrijfscontinuïteitsplannen.
* **Technologische Oplossingen:** AI-gestuurde monitoring, encryptie, netwerksegmentatie.
* **Regelgeving:** Wetgeving zoals de NIS2-richtlijn en de Europese AI-act stellen eisen aan cybersecurity en ethische AI-ontwikkeling.
### Digital Forensics
Digital forensics is essentieel voor het opsporen en vervolgen van cybercriminaliteit. Het omvat het identificeren, verzamelen, bewaren, analyseren en presenteren van digitaal bewijsmateriaal uit diverse bronnen, zoals mobiele apparaten, computers, voertuigen en IoT-apparaten. De analyse kan helpen bij het reconstrueren van gebeurtenissen, het identificeren van daders en het begrijpen van aanvalsvectoren.
### Uitdagingen en toekomstige trends
De snelle evolutie van technologie, de moeilijkheid om aanvallers toe te wijzen, en het gebrek aan internationale samenwerking zijn significante uitdagingen. AI wordt zowel ingezet voor geavanceerdere aanvallen (bv. deepfakes, geautomatiseerde aanvalssystemen) als voor betere detectie en verdediging. Cybersecurity is een voortdurende "ratrace" die constante innovatie en samenwerking vereist.
## AI en Democratie: Een Verdieping
### AI als instrument voor democratische processen
AI kan democratische processen ondersteunen door:
* **Epistemische uitdagingen aanpakken:** Chatbots kunnen burgers helpen beter geïnformeerde keuzes te maken over beleid en vertegenwoordigers.
* **Materieel bijdragen:** AI kan helpen bij het stroomlijnen van democratische procedures.
* **Principes en waarden bevorderen:** Door het faciliteren van debat en dialoog kan AI bijdragen aan een democratischere samenleving.
### De noodzaak van democratisch bestuur van AI
AI-technologieën zijn te complex, riskant en belangrijk om niet democratisch bestuurd te worden. Het gebruik van AI vereist een afweging tussen technologische vooruitgang, veiligheid en democratische participatie. Het opbouwen van democratische AI-modellen en het benutten van publieke expertise zijn cruciaal om risico's te beheersen en te zorgen dat AI ten dienste staat van de mensheid.
### Unesco's aanbevelingen voor AI-ethiek
Unesco stelt een wereldwijde standaard voor AI-ethiek voor, gebaseerd op de bescherming van mensenrechten, menselijke waardigheid, transparantie en menselijk toezicht. Deze aanbeveling biedt beleidsmakers een kader voor het omzetten van kernwaarden in concrete acties op gebieden zoals gegevensbeheer, milieu, gender, onderwijs en gezondheid.
**Doelstellingen van de Unesco-aanbeveling:**
* Een universeel kader van waarden, principes en maatregelen bieden voor staten.
* De acties van individuen en organisaties sturen om ethiek in alle fasen van de AI-levenscyclus te verankeren.
* Mensenrechten, fundamentele vrijheden, menselijke waardigheid, gelijkheid, gendergelijkheid, milieu en biodiversiteit beschermen en bevorderen.
* Multistakeholder dialoog en consensusvorming bevorderen.
* Gelijke toegang tot AI-kennis en -voordelen stimuleren, met name voor ontwikkelingslanden.
**Kernwaarden en Principes:**
De aanbeveling benadrukt de waarden van **respect, bescherming en bevordering van mensenrechten, menselijke waardigheid, de bloei van het milieu en ecosysteem, diversiteit en inclusiviteit, en het leven in vreedzame, rechtvaardige en onderling verbonden samenlevingen.** Principes zoals **proportionaliteit, ‘Do No Harm’, veiligheid en beveiliging, eerlijkheid en non-discriminatie, duurzaamheid, recht op privacy, menselijk toezicht en vastberadenheid, transparantie en verklaarbaarheid, verantwoordelijkheid en verantwoording, bewustzijn en geletterdheid, en adaptief bestuur** zijn essentieel voor de ethische ontwikkeling en implementatie van AI.
### De Europese AI Act
De Europese AI Act categoriseert AI-systemen op basis van risiconiveaus:
* **Minimaal risico:** Meeste AI-programma's (bv. videogames, spamfilters).
* **Beperkt risico:** Systemen met transparantievereisten (bv. deepfakes, chatbots). Gebruikers moeten weten dat ze met een bot interageren.
* **Hoog risico:** AI in cruciale gebieden met grote impact op levens (gezondheidszorg, transport, onderwijs, openbare veiligheid). Vereist grondige risicobeoordeling en kwaliteitsdata.
* **Onacceptabel risico:** Systemen die fundamentele rechten schenden, zoals sociale scoresystemen en AI die menselijke besluitvorming in het strafrecht vervangt. Deze zijn verboden.
De wetgeving streeft naar een mensgerichte en ethische ontwikkeling van AI in de EU, met handhaving door nationale autoriteiten en significante boetes bij overtreding.
## Samenvatting en Veelvoorkomende Valkuilen
* **AI is geen magie:** Het is gebaseerd op wiskundige formules, data en algoritmes. Begrijp de beperkingen en potentiële fouten.
* **Bias is reëel:** AI-systemen reflecteren de bias in de data waarmee ze getraind zijn. Wees kritisch op de output en de databronnen.
* **Transparantie en Verklaarbaarheid:** Veel AI-systemen zijn 'black boxes'. Dit maakt het controleren van beslissingen en het toewijzen van verantwoordelijkheid lastig.
* **Media en Democratie:** De veranderende mediaomgeving, met name door sociale media, heeft directe gevolgen voor de publieke opinie, polarisatie en het democratisch debat. Een actieve rol van burgers en media is essentieel.
* **Welzijn en Technologie:** De relatie tussen technologiegebruik en welzijn is complex. Niet alle effecten zijn negatief, maar bewuste en kritische omgang is noodzakelijk.
* **Cyberveiligheid is een continu proces:** Er is geen 'one-size-fits-all' oplossing. Basisbeveiliging, bewustzijn, en aanpassing aan nieuwe dreigingen zijn continu vereist.
* **Ethiek is niet inherent aan AI:** De ethische verantwoordelijkheid ligt bij de ontwikkelaars en gebruikers van AI.
**Veelvoorkomende fouten om te vermijden:**
* Het blindelings vertrouwen op AI-output zonder kritische evaluatie.
* Het negeren van de potentiële bias in AI-systemen.
* Het onderschatten van de impact van sociale media op democratie en welzijn.
* Het verwaarlozen van basiscyberbeveiligingsmaatregelen.
* Het denken dat AI een complete vervanging kan zijn voor menselijk oordeel en ethisch redeneren.
* Het niet aanpassen van mediastrategieën aan de veranderende mediaconsumptie van jongeren.
* Het onvoldoende bewust zijn van de ethische implicaties bij het ontwikkelen en implementeren van AI.
Glossary
## Woordenlijst
| Term | Definitie |
| :------------------------ | :------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| Artificial Intelligence (AI) | Een technologie die, mits deze de Turing test kan doorstaan, geen onderscheid kan maken tussen een beslissing gemaakt door een computer of een persoon. Het omvat technologie waarin een computer zelfstandig kan leren op basis van data. |
| Machine Learning | Een onderdeel van AI dat zich richt op het leren van computers op basis van gegevens, vaak door middel van neurale netwerken. |
| Deep Learning | Een specifieke vorm van Machine Learning die gebruik maakt van diepe neurale netwerken om complexe taken uit te voeren, zoals het herkennen van objecten op foto's. |
| Large Language Models (LLM) | Modellen die menselijke taal kunnen begrijpen, verwerken en genereren. Ze zijn gebaseerd op neurale netwerken en vormen de kern van generatieve AI, zoals te zien is in ChatGPT. |
| Generative AI | Technologie die, gebaseerd op neurale netwerken, nieuwe content kan genereren. Dit omvat het creëren van tekst, afbeeldingen, en andere vormen van media. |
| Turing Test | Een test ontworpen om de mogelijkheid van een machine om intelligent gedrag te vertonen dat gelijkwaardig is aan, of niet te onderscheiden is van, dat van een mens, te beoordelen. |
| Neurale Netwerken | Een computermodel dat is geïnspireerd op de structuur en functie van biologische hersenen, bestaande uit onderling verbonden 'neuronen' die informatie verwerken. |
| Token | Een basiseenheid van tekst die een LLM gebruikt om zinnen te verwerken. Dit kan een woord, een deel van een woord, of een leesteken zijn. |
| Vector (in AI) | Een reeks getallen die de betekenis en context van een woord of token in een multi-dimensionale ruimte representeert. Deze vectoren maken het mogelijk om semantische relaties tussen woorden te begrijpen. |
| Self-Attention (mechanisme) | Een cruciaal onderdeel van Transformer-modellen in AI dat het model in staat stelt om de relevantie van verschillende woorden in een zin te wegen ten opzichte van elkaar, om zo de contextuele betekenis beter te begrijpen. |
| Risicobeoordeling (AI) | Het proces van het identificeren, analyseren en evalueren van potentiële risico's die gepaard gaan met de ontwikkeling en toepassing van AI-systemen, om mogelijke schade te beperken. |
| Bias (in AI) | Bevooroordeeldheid in AI-systemen, vaak voortkomend uit onevenwichtige of discriminerende trainingsdata, wat leidt tot oneerlijke of discriminerende uitkomsten. |
| Transparantie (AI) | Het principe dat de werking en besluitvorming van AI-systemen begrijpelijk en navolgbaar moeten zijn voor gebruikers en belanghebbenden, om vertrouwen en verantwoording te bevorderen. |
| Verklaarbaarheid (AI) | Het vermogen om de output en het functioneren van een AI-systeem begrijpelijk te maken, inclusief de input en de tussenliggende stappen die tot een resultaat leiden. |
| Menselijk Toezicht (AI) | Het principe dat menselijke controle en verantwoordelijkheid essentieel zijn gedurende de gehele levenscyclus van AI-systemen, met name bij beslissingen met grote impact. |
| Cyberaanval | Elke ongeautoriseerde actie die schade, verstoring of ongeautoriseerde toegang tot informatie veroorzaakt via computers, netwerken of digitale apparaten. |
| Ransomware | Een type malware dat systemen en/of bestanden kaapt en losgeld eist voor het herstellen van de toegang, vaak met dreigementen om gegevens te verwijderen of te publiceren. |
| Phishing | Een vorm van cybercriminaliteit waarbij individuen worden misleid om vertrouwelijke informatie (zoals wachtwoorden of financiële gegevens) prijs te geven, vaak via e-mail, sms of sociale media. |
| Cyber Resilience | Het vermogen om zich aan te passen aan digitalisering en proactief om te gaan met onverwachte bedreigingen, inclusief aanpassingsvermogen en herstelvermogen na een incident. |
| Digital Forensics | Het proces van het identificeren, verzamelen, bewaren, analyseren en presenteren van digitaal bewijsmateriaal uit elektronische apparaten en digitale systemen ten behoeve van juridisch onderzoek. |
| Affectieve Polarisatie | Een verhoogde antipathie tegenover mensen met andere opvattingen, gecombineerd met een sterkere voorkeur voor gelijkgestemden, wat leidt tot een grotere emotionele afstand tussen politieke groepen. |
| Mediawijsheid | De vaardigheid om media op een kritische, bewuste en ethische manier te gebruiken, te begrijpen en te evalueren, inclusief het herkennen van desinformatie en het begrijpen van algoritmes. |
| Duurzame Ontwikkelingsdoelen (SDG's) | Een set van 17 onderling verbonden doelen die zijn opgesteld door de Verenigde Naties, gericht op het bereiken van een duurzame toekomst voor alle mensen, inclusief sociale, economische en milieudimensies. |
Cover
Will AI make you stupid - text.docx
Summary
# Potential detrimental effects of AI on creativity and critical thinking
This section examines research suggesting that reliance on AI tools may reduce neural activity associated with creative functions and attention, and lead to a decline in critical thinking skills.
### 1.1 Overview of research findings
Several studies highlight potential negative impacts of artificial intelligence (AI) on cognitive functions, particularly creativity and critical thinking. While AI tools offer immediate benefits and reduced cognitive load, there is growing concern about the long-term consequences of their widespread adoption.
### 1.2 Specific studies and their implications
#### 1.2.1 Massachusetts Institute of Technology (MIT) study
* **Focus:** Investigated brain activity during essay writing with and without AI assistance.
* **Methodology:** Students writing essays were connected to electroencephalograms (EEGs) to measure brain activity. Some participants used AI tools like ChatGPT, while others did not.
* **Key Findings:**
* AI users exhibited significantly lower neural activity in brain regions associated with creative functions and attention.
* Students who used AI found it more difficult to accurately recall specific details, such as quotes, from the texts they had produced with AI's help.
* **Implication:** This study suggests that reliance on AI for tasks like essay writing might reduce active engagement and weaken memory recall related to the generated content.
#### 1.2.2 Microsoft Research study
* **Focus:** Examined the use of generative AI by knowledge workers and the extent to which critical thinking is involved in AI-assisted tasks.
* **Methodology:** Surveyed 319 knowledge workers who used generative AI at least weekly, documenting over 900 AI-assisted tasks.
* **Key Findings:**
* A majority of tasks completed with AI assistance required minimal cognitive effort, often described as "mindless."
* Only a portion of tasks, such as reviewing AI output or revising prompts, were self-assessed by participants as requiring critical thinking.
* Respondents reported needing less cognitive effort to complete tasks with AI tools (e.g., ChatGPT, Google Gemini, Microsoft Copilot) compared to performing them without AI.
* **Implication:** This research indicates that generative AI may encourage a reduction in mental effort for many tasks, potentially leading to a decline in the application of critical thinking skills.
#### 1.2.3 Michael Gerlich (SBS Swiss Business School) study
* **Focus:** Investigated the correlation between AI usage, trust in AI, and performance on critical thinking assessments.
* **Methodology:** A study involving 666 individuals in Britain who reported their AI usage frequency and trust, followed by a critical thinking assessment.
* **Key Findings:**
* Participants who made more extensive use of AI scored lower on critical thinking tests.
* Educators reported that these findings aligned with their observations of students increasingly relying on AI.
* **Implication:** While this study shows a correlation between higher AI use and lower critical thinking scores, it does not definitively establish causation. It is possible that individuals with weaker critical thinking skills are more inclined to rely on AI.
### 1.3 Cognitive offloading and its risks
* **Cognitive offloading:** This term, coined by Evan Risko and Sam Gilbert, describes the phenomenon of people delegating difficult or tedious mental tasks to external aids, such as calculators or navigation apps.
* **AI's expanded role:** Generative AI allows for the offloading of more complex cognitive processes, extending beyond simple arithmetic or navigation to tasks like writing and problem-solving.
* **The feedback loop of cognitive miserliness:** The tendency to seek the path of least mental effort, known as "cognitive miserliness," can create a feedback loop. As individuals rely more on AI and find critical thinking more challenging, their brains may become more "miserly," leading to further offloading and a harder habit to break.
> **Tip:** The concept of "cognitive offloading" highlights that many technologies, not just AI, can reduce our immediate mental load. However, the complexity of tasks offloaded to generative AI presents a more profound concern for long-term cognitive habits.
### 1.4 Impact on creativity and competitiveness
* **Reduced creativity:** A study at the University of Toronto found that participants exposed to AI-generated ideas produced less creative and diverse answers for tasks like finding imaginative uses for everyday objects. For example, an AI suggested using trousers as part of a scarecrow, an idea considered uncreative as trousers are already used similarly in reality.
* **Long-term competitiveness:** Barbara Larson suggests that a decline in critical thinking skills due to prolonged AI use could negatively impact competitiveness in the long run.
> **Example:** In the University of Toronto study, an AI suggested reusing trousers as part of a scarecrow, a mundane suggestion. An unaided participant, however, proposed putting nuts in trouser pockets to create a novelty bird feeder, demonstrating a more imaginative and creative use of the object.
### 1.5 Strategies for mitigating negative effects
Researchers and industry professionals suggest several strategies to counteract the potential detrimental effects of AI on cognitive functions:
* **AI as an assistant:** Limit AI's role to that of a "somewhat naive assistant," leveraging its capabilities without relinquishing core thinking processes.
* **Step-by-step prompting:** Instead of asking AI for a final solution, prompt it at each stage of a problem-solving process. For instance, instead of asking for a holiday destination, first inquire about regions with minimal rainfall and proceed from there.
* **AI "thinking assistants":** Develop AI tools that act as "thinking assistants," posing probing questions to users rather than solely providing answers, thereby encouraging deeper thought.
* **"Cognitive forcing" techniques:** Implement measures that require users to engage their own cognitive processes before accessing AI, such as generating their own answer first or imposing a waiting period. While effective, these methods may be less popular as individuals tend to resist being forced to engage.
### 1.6 The future outlook
* **Uncertainty of causation:** It is crucial to note that definitive causal links between elevated AI use and cognitive decline are still under investigation. Further research is needed to fully understand these relationships.
* **Balancing benefits and costs:** As AI technology matures, consumers and regulators will need to weigh its broader benefits against potential cognitive costs. The question remains whether individuals will prioritize these cognitive functions if stronger evidence emerges that AI diminishes intelligence.
* **Human brain as the sharpest tool:** For many tasks, the human brain remains the most effective tool. However, the increasing sophistication of AI necessitates a conscious effort to maintain and enhance our cognitive abilities.
---
# Cognitive offloading and AI
Generative AI facilitates the delegation of more complex mental tasks, potentially fostering a habit of seeking the least effortful solutions.
### 2.1 Understanding cognitive offloading
Cognitive offloading refers to the human tendency to delegate difficult or tedious mental tasks to external aids. This is not a new phenomenon; for instance, calculators spare cashiers from performing manual calculations, and navigation apps eliminate the need for map-reading. Historically, even writing was viewed by figures like Socrates not as a means to remember, but as a tool for reminding, externalizing memory. There is limited evidence to suggest that allowing machines to perform tasks on our behalf fundamentally alters the brain's inherent capacity for thinking.
### 2.2 Generative AI and complex offloading
The concern with generative AI is that it allows individuals to offload a significantly more complex set of cognitive processes than previous technologies. Offloading basic mental arithmetic is distinct from offloading intricate thought processes such as writing or problem-solving.
### 2.3 The development of cognitive miserliness and feedback loops
Once the brain develops a preference for offloading, this habit can become difficult to break. This inclination towards the easiest solution is termed "cognitive miserliness." Generative AI can exacerbate this, creating a feedback loop where individuals find critical thinking more challenging due to AI reliance, leading to further offloading. Participants have expressed a significant dependence on AI, to the point of questioning their ability to solve problems without it.
### 2.4 Potential detrimental effects of AI use
The increased adoption of AI may offer productivity gains for companies, but it could also lead to negative consequences. Prolonged reliance on AI may result in a decline in critical thinking skills, potentially reducing competitiveness. Furthermore, generative AI use can negatively impact creativity. Studies have shown that individuals exposed to AI-generated ideas tend to produce less creative and diverse outputs compared to those working without AI assistance.
### 2.5 Research on AI and cognitive function
Several studies highlight potential detrimental effects of AI use on creativity and learning:
#### 2.5.1 Massachusetts Institute of Technology (MIT) study
This study investigated brain activity during essay writing using electroencephalograms (EEGs) while students worked with and without ChatGPT.
* **Findings:** AI users exhibited significantly lower neural activity in brain regions associated with creative functions and attention. They also found it more difficult to accurately recall specific quotes from their own generated text.
#### 2.5.2 Microsoft Research study
This survey of knowledge workers who used generative AI weekly explored the nature of AI-assisted tasks.
* **Participants:** 319 knowledge workers.
* **Tasks:** Over 900 tasks, ranging from document summarization to marketing campaign design.
* **Findings:** A majority of tasks were deemed "mindless," requiring little critical thinking. Self-assessments indicated that workers needed less cognitive effort to complete tasks with AI tools like ChatGPT, Google Gemini, or Microsoft Copilot. Approximately 555 out of 900 tasks required critical thinking, such as closely reviewing AI output or revising prompts for inadequate results.
#### 2.5.3 Gerlich study (SBS Swiss Business School)
This study examined the correlation between AI usage, trust in AI, and critical-thinking performance.
* **Participants:** 666 individuals in the UK.
* **Findings:** Participants who used AI more frequently scored lower on a standard critical-thinking assessment. While this study suggests a correlation, it is unclear whether AI use causes diminished critical thinking or if individuals with weaker critical-thinking skills are more prone to relying on AI. Teachers have reported observing these trends among students.
### 2.6 Strategies for mitigating negative impacts
Researchers propose several strategies to maintain cognitive fitness while using AI:
#### 2.6.1 Limiting AI's role
Treating AI as an "enthusiastic but somewhat naive assistant" can help. This involves not relying on AI for final outputs but using it as a tool for specific steps in a problem-solving process.
#### 2.6.2 Incremental prompting
Instead of asking AI for a direct answer (e.g., "Where should I go for a sunny holiday?"), users can prompt it incrementally, starting with a more focused question (e.g., "Where does it rain the least?").
#### 2.6.3 AI as "thinking assistants"
Some research teams are developing AI that prompts users with probing questions, acting as a "thinking assistant" rather than a direct answer provider. Similar approaches involve AI assistants that interrupt users with "provocations" to encourage deeper thought.
#### 2.6.4 Cognitive forcing techniques
These involve measures to ensure users engage their own cognitive processes before resorting to AI. Examples include requiring users to formulate their own answer or imposing a waiting period before AI access. While these techniques can improve performance, they may be unpopular as users generally prefer not to be compelled to engage.
### 2.7 The future outlook
Despite potential workarounds, a significant percentage of users indicate they would use generative AI tools even if prohibited by employers. Currently, for many tasks, the human brain remains the most effective tool. However, both consumers and regulators will need to evaluate whether the broader benefits of AI outweigh any potential cognitive costs. The long-term question remains whether individuals will prioritize cognitive capacity over the convenience offered by AI.
---
# Strategies for mitigating negative AI impacts on cognitive abilities
This section explores methods to maintain cognitive fitness and counteract potential negative effects on thinking skills arising from increased AI usage.
### 3.1 Understanding the potential cognitive costs of AI
The integration of artificial intelligence into daily tasks, while offering significant efficiency gains, poses potential risks to human cognitive abilities, particularly creativity and critical thinking. Studies have begun to illuminate these risks, suggesting a trade-off between short-term productivity benefits and potential long-term cognitive decline.
#### 3.1.1 Evidence from AI usage studies
Several studies highlight a correlation between AI usage and reduced cognitive engagement:
* **MIT Study on AI and brain activity:** In an experiment involving essay writing, students using AI tools like ChatGPT exhibited notably lower neural activity in brain regions associated with creativity and attention when compared to those who did not use AI. Furthermore, AI users found it more difficult to accurately recall specific details from their own work. This suggests that AI assistance might lead to decreased mental effort and potentially weaker memory retention.
* **Microsoft Research study on knowledge workers:** A survey of knowledge workers revealed that a significant portion of tasks performed with generative AI required minimal critical thinking. While AI facilitated over 900 tasks, ranging from document summarization to campaign design, only a fraction necessitated deep cognitive engagement, such as reviewing AI outputs critically or refining prompts. The majority of respondents reported needing less cognitive effort when using AI tools compared to traditional methods, indicating a potential trend towards task automation that bypasses higher-order thinking.
* **Gerlich Study on AI use and critical thinking:** Research involving a large cohort in the UK indicated that individuals who frequently utilized AI scored lower on standard critical-thinking assessments. While this study establishes a correlation, it does not definitively prove causation. It remains plausible that individuals with pre-existing stronger critical-thinking skills are less inclined to rely heavily on AI.
#### 3.1.2 The concept of cognitive offloading and its implications
The phenomenon of "cognitive offloading," where individuals delegate difficult or tedious mental tasks to external aids, is amplified by generative AI. Unlike simpler forms of offloading, such as using calculators for arithmetic, AI enables the delegation of more complex cognitive processes like writing and problem-solving. This can foster a tendency towards "cognitive miserliness," a preference for the least effortful problem-solving approach.
> **Tip:** Cognitive offloading is the act of reducing mental effort by relying on external tools. Generative AI allows for offloading more complex cognitive processes, which can become a difficult habit to break.
This tendency can create a feedback loop: as individuals rely more on AI, their capacity for critical thinking may diminish, leading to further reliance on AI for even simple tasks. This was exemplified by a study participant who expressed a significant dependence on AI, feeling unable to solve certain problems without it.
#### 3.1.3 Long-term consequences of cognitive decay
The potential for long-term critical-thinking decay due to prolonged AI use could have significant repercussions, including reduced competitiveness in the workforce and diminished creativity. A study at the University of Toronto demonstrated that participants exposed to AI-generated ideas produced less creative and diverse outputs when tasked with proposing imaginative uses for everyday objects. For instance, the AI's suggestion to use trousers as part of a scarecrow was deemed uncreative, as it merely repurposed the item for a similar function, unlike an unaided participant's idea of turning pockets into a bird feeder.
### 3.2 Strategies for maintaining cognitive fitness with AI
Despite the potential downsides, there are proactive strategies that individuals and developers can implement to ensure that AI use supports, rather than undermines, cognitive abilities.
#### 3.2.1 Utilizing AI as a cognitive assistant
A key strategy is to frame AI as an "enthusiastic but somewhat naive assistant," meaning its role should be supportive rather than supervisory. This approach emphasizes using AI to augment human capabilities rather than replace them entirely.
#### 3.2.2 Iterative prompting and staged problem-solving
Instead of seeking a direct, final output from AI, users can engage in iterative prompting. This involves breaking down complex tasks into smaller steps and prompting the AI at each stage of the problem-solving process. For example, instead of asking "Where should I go for a sunny holiday?", one might first ask for regions with minimal rainfall, then refine the query based on that information.
> **Example:** A user wants to plan a trip. Instead of asking, "Plan my vacation to Hawaii," they could first ask, "What are the best islands in Hawaii for hiking?" then, "What are some family-friendly hiking trails on Maui?" and finally, "Suggest accommodations near popular hiking trails on Maui."
#### 3.2.3 Implementing cognitive forcing measures
Cognitive forcing techniques aim to deliberately slow down the AI interaction process or compel users to engage their own cognitive faculties before resorting to AI.
* **AI-initiated provocations:** Some AI assistants are being developed to intentionally interrupt users with "provocations" designed to stimulate deeper thought and critical reflection. This can involve questioning assumptions or presenting alternative perspectives.
* **Thinking assistants:** Researchers are proposing AI systems designed as "thinking assistants" that actively engage users with probing questions, encouraging them to explore their own reasoning rather than simply accepting AI-generated answers.
* **Mandatory user input or delays:** Simpler, more direct methods include requiring users to formulate their own initial answer to a query or imposing a waiting period before AI access is granted. While these "cognitive forcing" measures can improve performance, they are likely to be unpopular due to user resistance to being "pushed to engage."
> **Tip:** Cognitive forcing measures, while potentially effective, may face user resistance due to their inherent demand for increased effort or slower interaction.
#### 3.2.4 Addressing user resistance to mitigation strategies
Despite the recognized need for strategies to maintain cognitive health, user adoption of such measures may be low. A significant percentage of individuals express a willingness to use generative AI even if their employers prohibit it, highlighting the strong inclination towards convenience. Therefore, the effectiveness of these mitigation strategies will depend not only on their technical implementation but also on their ability to overcome inherent user preferences for effortless solutions. The long-term balance between AI's benefits and its cognitive costs will require careful consideration by both consumers and regulators as the technology continues to evolve.
---
# Overview of studies on AI and cognitive function
This section summarizes key research exploring the potential impact of artificial intelligence (AI) on human cognitive functions, particularly creativity and critical thinking.
### 4.1 The MIT study on brain activity
A study conducted by researchers at the Massachusetts Institute of Technology (MIT) investigated the neural activity of students during essay writing, both with and without the assistance of AI tools like ChatGPT. Participants were connected to electroencephalograms (EEGs) to measure brain activity. The findings indicated that students utilizing AI exhibited noticeably lower neural activity in brain regions associated with creative functions and attention. Furthermore, these AI users found it more challenging to accurately recall specific quotes from the essays they had just produced. This study suggests that AI assistance might lead to reduced cognitive engagement and potentially a weakening of memory recall capabilities.
> **Tip:** The MIT study highlights a potential trade-off between the ease of AI assistance and the depth of cognitive engagement required for learning and creative output.
### 4.2 The Microsoft Research study on knowledge workers
Researchers at Microsoft Research conducted a study surveying 319 knowledge workers who used generative AI at least weekly. These participants described performing over 900 tasks with AI's help, ranging from document summarization to marketing campaign design. Self-assessments revealed that only a portion of these tasks (555) truly required critical thinking, such as carefully reviewing AI outputs or revising prompts for inadequate results. The majority of tasks were characterized as "mindless," demanding minimal cognitive effort. Overall, a significant majority of workers reported needing less mental effort to complete tasks when using generative AI tools like ChatGPT, Google Gemini, or Microsoft Copilot, compared to performing the same tasks without AI.
> **Example:** A knowledge worker using AI to draft an email might find that much of the task becomes automated, requiring less critical thought than composing the email entirely from scratch. However, reviewing the AI-generated draft for tone and accuracy still necessitates critical evaluation.
### 4.3 The Gerlich study on AI usage and critical thinking performance
A study by Michael Gerlich, a professor at SBS Swiss Business School, involved 666 individuals in Britain. Participants were assessed on their AI usage frequency and trust in AI, followed by a critical-thinking assessment. The results showed that individuals who used AI more frequently scored lower on the critical-thinking assessment. This finding resonated with educators who observed similar trends among students adopting AI tools. However, the study also acknowledged a correlational limitation: it is possible that individuals with naturally stronger critical-thinking skills are less inclined to rely on AI, rather than AI usage directly causing a decline in critical thinking.
> **Tip:** Correlation does not equal causation. While the Gerlich study shows a link between AI use and lower critical thinking scores, other factors could be at play. Further research is needed to establish a definitive causal relationship.
### 4.4 Broader implications and potential concerns
The findings from these studies contribute to a growing body of work suggesting potential detrimental effects of AI on creativity and learning. There is a concern that the short-term gains from generative AI might lead to a long-term cognitive cost. The concept of "cognitive offloading," where individuals delegate difficult or tedious mental tasks to external aids, is relevant here. While technologies like calculators and navigation apps have long offered such assistance without apparent widespread detriment to inherent cognitive capacity, generative AI allows for the offloading of more complex processes like writing and problem-solving. This can foster a tendency towards "cognitive miserliness" – seeking the least effortful solution – potentially creating a feedback loop where individuals become more reliant on AI as their critical thinking skills weaken.
This reliance can lead to productivity gains for companies, but potentially at the cost of reduced competitiveness due to long-term critical-thinking decay and diminished creativity. For instance, a study at the University of Toronto showed that participants exposed to AI-generated ideas produced less creative and diverse solutions for everyday objects compared to a control group.
### 4.5 Strategies for mitigating negative impacts
Researchers and practitioners are exploring strategies to mitigate these potential negative cognitive consequences.
* **AI as an Assistant:** Limiting AI's role to that of a "naive assistant" is suggested, rather than using it for final output generation.
* **Step-by-Step Prompting:** Instead of asking AI for a complete solution, prompting it iteratively at each stage of a problem-solving process can encourage deeper user engagement.
* **Provocations and Probing Questions:** Some AI assistants are being developed to interrupt users with provocations or pose probing questions to stimulate deeper thought, acting as "thinking assistants" rather than just answer providers.
* **Cognitive Forcing:** Measures such as requiring users to first attempt a query on their own before accessing AI, or implementing a waiting period, are being considered. While these "cognitive forcing" techniques might improve performance, they may be unpopular due to user preference for immediate access.
Despite these strategies, the widespread adoption of AI, even if employers were to restrict its use, suggests that users will likely seek workarounds. The long-term assessment of whether AI's benefits outweigh its cognitive costs remains an open question, particularly if evidence of AI-induced cognitive decline becomes more robust.
---
## Common mistakes to avoid
- Review all topics thoroughly before exams
- Pay attention to formulas and key definitions
- Practice with examples provided in each section
- Don't memorize without understanding the underlying concepts
Glossary
| Term | Definition |
|------|------------|
| Artificial intelligence (AI) | A broad field of computer science focused on creating systems capable of performing tasks that typically require human intelligence, such as learning, problem-solving, and decision-making. |
| Electroencephalogram (EEG) | A medical imaging technique used to record the electrical activity of the brain, measured by electrodes placed on the scalp, often used to study cognitive functions and neurological conditions. |
| Neural activity | The electrical and chemical signaling between neurons in the brain, reflecting the intensity and patterns of brain function during cognitive processes. |
| Generative AI | A type of artificial intelligence that can create new content, such as text, images, music, or code, often based on patterns learned from large datasets. |
| Critical thinking | The objective analysis and evaluation of an issue in order to form a judgment, involving skills such as logical reasoning, evidence assessment, and problem-solving. |
| Cognitive effort | The mental energy or processing power required to perform a task, with lower cognitive effort indicating that a task is perceived as less mentally demanding. |
| Cognitive offloading | The practice of delegating difficult or tedious mental tasks to external tools or aids, thereby reducing the cognitive load on the individual. |
| Cognitive miserliness | The tendency for individuals to conserve mental energy by seeking the easiest or least effortful way to solve problems, often at the expense of thoroughness or optimal solutions. |
| Productivity gains | Increases in the efficiency or output of labor or a system, often achieved through the adoption of new technologies or processes, leading to greater economic benefit. |
| Competitiveness | The ability of a company, country, or individual to compete effectively in a market or environment, often measured by factors like cost, quality, and innovation. |
| Cognitive forcing | Strategies designed to compel users to engage more deeply with a task or problem, potentially by slowing down access to tools or introducing deliberate challenges. |
| Standardised test | A test that is administered and scored in a consistent, or "standard," manner, often used to compare the performance of individuals or groups against a common benchmark. |
| Prompt | An instruction or query given to an AI model to generate a specific output, often requiring careful wording to achieve the desired result. |
| Cognitive functions | Mental processes such as perception, memory, attention, language, and reasoning, which are essential for understanding and interacting with the world. |
| Neural plasticity | The brain's ability to change and adapt its structure and function in response to experience, learning, or injury throughout life. |
| Semantic similarity | The degree to which the meaning of two words, phrases, or texts is alike, which is important in natural language processing for understanding context and relationships. |