Cover
立即免费开始 Les 1-2-3-4 - slides_merged.pdf
Summary
# H1: Introductie tot kunstmatige intelligentie
Dit onderwerp biedt een basisbegrip van kunstmatige intelligentie (AI), waarbij definities, de historische ontwikkeling, en de verschillende niveaus van AI worden uiteengezet, inclusief veelvoorkomende misconcepties en de evolutie ervan door de tijd heen.
## 1.1 Wat is kunstmatige intelligentie?
### 1.1.1 Definitie van intelligentie
Intelligentie is een concept waarvoor geen eenduidige definitie bestaat, zelfs niet onder experts. Er zijn echter gemeenschappelijke elementen die vaak worden benoemd [7](#page=7):
* **Autonomie:** Het vermogen om zelfstandig te handelen en beslissingen te nemen [7](#page=7).
* **Aanpassingsvermogen:** Het vermogen om te leren van ervaringen [7](#page=7).
Howard Gardner's theorie van Meervoudige Intelligentie benadrukt dat intelligentie niet eendimensionaal is [7](#page=7).
### 1.1.2 Wat is artificiële intelligentie?
Artificiële intelligentie (AI) is een technologie die menselijke intelligentie simuleert. Er is geen officiële definitie van AI. De kernconcepten van AI omvatten autonomie en aanpassingsvermogen [8](#page=8).
### 1.1.3 Misconcepties en misleidende terminologie
Veel misconcepties over AI ontstaan door sciencefiction, marketinghype en buzzwords, wat leidt tot verwarring tussen de werkelijke capaciteiten van AI en wat men denkt dat het kan [8](#page=8).
* **Containerbegrippen:** Woorden zoals "intelligentie", "leren" en "begrijpen" scheppen verkeerde verwachtingen en suggereren menselijke eigenschappen die AI niet bezit [9](#page=9).
* **Niet-eendimensionale intelligentie:** Intelligentie is niet één-dimensionaal. Een zelfrijdende auto is bijvoorbeeld niet vergelijkbaar met een spamfilter. ChatGPT kan wel een huis 'ontwerpen', maar niet bouwen [9](#page=9).
* **Taakspecifieke AI:** AI-systemen zijn taakspecifiek; goed zijn in één taak betekent niet automatisch goed zijn in andere taken [9](#page=9).
#### 1.1.3.1 Juist taalgebruik
* Spreek niet over "een AI", aangezien AI een discipline is, vergelijkbaar met wiskunde of biologie. Gebruik liever termen als "AI-methode" of "AI-systeem" \] [9](#page=9).
### 1.1.4 Is dit AI?
De verwarring rondom AI komt deels doordat wat vroeger als AI werd beschouwd, vandaag de dag niet meer als zodanig wordt gezien (bv. GPS-navigatie, schaakcomputers) . Tegenwoordig wordt veel als "AI-powered" bestempeld, wat leidt tot meer aandacht, terwijl het vaak gaat om gewone algoritmen met modieuze labels .
Het onderscheid ligt in het vermogen om te leren en zich aan te passen :
* **Echte AI:** Leert en past zich aan .
* **Slimme software:** Voert complexe berekeningen uit (grijze zone) \] .
* **Gewone software:** Werkt met vaste regels .
Karen Hao's test (MIT Technology Review) biedt een flowchart om dit te evalueren .
## 1.2 AI-niveaus
AI kan worden onderverdeeld in verschillende niveaus op basis van de breedte en diepte van haar capaciteiten :
### 1.2.1 Weak/Narrow AI
* **Kenmerken:** Beperkt tot specifieke taken .
* **Status:** Bestaat en werkt .
* **Voorbeelden:** Siri, ChatGPT .
### 1.2.2 General AI (AGI)
* **Kenmerken:** Sterke AI; kan alle menselijke taken op alle domeinen uitvoeren .
* **Status:** Bestaat nog niet. Experts zijn het oneens over de realisatietijd (10-100+ jaar) \] .
### 1.2.3 Super AI (ASI)
* **Kenmerken:** Overtreft menselijke intelligentie; begrijpt bewustzijn en behoeften .
* **Status:** Puur theoretisch; mogelijk nooit, of over eeuwen .
## 1.3 Geschiedenis en evolutie van AI
De droom van kunstmatige wezens is zo oud als de mensheid .
### 1.3.1 Oude beschavingen tot begin 20e eeuw
* **Oude beschavingen (3000 v.Chr. - 500 n.Chr.):** Griekse mythologie met figuren als Talos, de bronzen reus, en de concepten van robots en automaten .
* **Mechanische revolutie (1600-1800):** Gottfried Leibniz introduceerde het binaire getalsysteem, een basis voor computers. Jacques de Vaucanson creëerde mechanische automaten zoals een mechanische eend .
* **Computing pioneers (1800-1900):** Charles Babbage en Ada Lovelace ontwikkelden de Analytical Engine. George Boole legde de basis voor Booleaanse logica (True/False) \] .
### 1.3.2 Geboorte van AI (1940-1960)
* **Von Neumann:** Ontwikkelde de computerstructuur met opslag voor data en programma's .
* **Neurale netwerken:** Onderzoek begon in 1943 .
* **Dartmouth-conferentie:** Het eerste AI-congres met optimistische voorspellingen. De eerste AI-programma's zoals de Logic Theorist werden ontwikkeld .
* **Chatbot ELIZA (1964-1966):** Een vroege chatbot die de rol van een psychotherapeut speelde, wat leidde tot het ELIZA Effect .
### 1.3.3 De Turing Test .
* **Concept:** Ontwikkeld door Alan Turing, dit experiment test of een computer een ondervrager kan misleiden om te denken dat het een mens is. Als de ondervrager niet kan onderscheiden wie de computer is, is de test geslaagd .
* **Belang:** Het was de eerste objectieve test voor machine-intelligentie en focuste op gedrag in plaats van interne processen. Het blijft relevant in AI-onderzoek .
* **Filosofische implicaties:** Roept vragen op over de relatie tussen imitatie en intelligentie, en wat het betekent om menselijk te zijn .
> **Tip:** De Turing Test is een belangrijk concept om te begrijpen hoe de vroege definitie van intelligentie in AI werd benaderd.
### 1.3.4 AI Winters – Hype vs. Realiteit
Periodes van grote verwachtingen werden gevolgd door periodes van teleurstelling wanneer de realiteit de beloftes niet kon waarmaken, mede door beperkte data en computerkracht .
* **Eerste winter (1974-1980):** Gekenmerkt door stopzetting van financiering .
* **Tweede winter (1987-1993):** Expert systemen bleken te duur te zijn .
### 1.3.5 De Heropleving (1990-2010)
Technologische doorbraken leidden tot een heropleving van AI .
* **Iconische momenten:**
* Deep Blue vs. Kasparov .
* Watson vs. Jeopardy Champions .
* **Paradigmaverschuiving:** Er was een verschuiving van rule-based systemen naar data-driven AI en van expert systemen naar machine learning .
### 1.3.6 Vandaag: AI is overal!
AI is geïntegreerd in talloze aspecten van ons dagelijks leven en diverse sectoren :
* **Consumententechnologie:** Camera's (objectdetectie, filters), Maps (real-time verkeer), Netflix (gepersonaliseerde aanbevelingen), slimme thermostaten, Amazon (aanbevelingen), sociale media (timeline samenstelling) \] .
* **Sectoren:** Ziekenhuizen (scan analyse ondersteuning), banken (fraude opsporing), vervoer (route-optimalisatie), HR (CV screening), klantenservice (chatbots) \] .
## 1.4 De toekomst van AI
De toekomst van AI omvat diverse ontwikkelingen en toepassingen :
* **Autonome systemen:** Volledig zelfrijdende voertuigen, autonome drones voor leveringen, zelfoptimaliserende supply chains .
* **Human-AI collaboration:** AI als permanente co-piloot, augmented creativity en probleemoplossing, en de ontwikkeling van nieuwe beroepen en vaardigheden .
* * *
# Hoe kunstmatige intelligentie werkt
Dit deel van het document verkent de evolutie en de kernprincipes van kunstmatige intelligentie, met een focus op rule-based AI, machine learning en deep learning, inclusief de verschillende leermethoden binnen deep learning [10](#page=10) [11](#page=11).
### 2.1 Evolutie van AI-methoden
Kunstmatige intelligentie heeft zich ontwikkeld door verschillende fasen, elk met eigen methoden en kenmerken [10](#page=10).
#### 2.1.1 Rule-based AI
Rule-based AI, ook wel "oude AI" genoemd, was dominant van ongeveer 1950 tot 1990. Bij deze methode schrijven menselijke experts expliciete regels om problemen op te lossen [10](#page=10).
* **Voordelen:** Deze aanpak is voorspelbaar, begrijpelijk en controleerbaar [10](#page=10).
* **Nadelen:** Rule-based AI is inflexibel en kan niet zelfstandig leren van nieuwe informatie. Een praktisch voorbeeld van het instellen van regels is te vinden in platforms zoals IFTTT (If This Then That) [10](#page=10).
#### 2.1.2 Machine Learning
Machine learning, vanaf ongeveer 1990 tot 2010, markeerde de overgang naar "nieuwe" of data-driven AI. Hierbij leren algoritmen patronen uit data [10](#page=10) [11](#page=11).
* **Voordelen:** Machine learning-modellen kunnen zich aanpassen aan nieuwe situaties [10](#page=10).
* **Nadelen:** Het vereist vaak grote hoeveelheden gelabelde data om effectief te kunnen leren [10](#page=10).
#### 2.1.3 Deep Learning
Deep learning, dat sinds 2010 dominant is, maakt gebruik van kunstmatige neurale netwerken met meerdere lagen, geïnspireerd door de structuur van het menselijk brein. Deze modellen kunnen zeer complexe patronen en relaties herkennen [10](#page=10) [11](#page=11).
* **Voordelen:** Het vermogen om ingewikkelde patronen te identificeren is een groot voordeel [10](#page=10).
* **Nadelen:** Deep learning-systemen worden soms als een "black box" beschouwd, wat betekent dat hun besluitvorming moeilijk te verklaren is [10](#page=10).
#### 2.1.4 Generative AI
Generative AI, een ontwikkeling vanaf ongeveer 2020, richt zich op het creëren van nieuwe content op basis van de data waarop het getraind is. Een belangrijke doorbraak in dit veld was de ontwikkeling van de Transformer-architectuur in 2017 [10](#page=10).
### 2.2 Leermethoden binnen Deep Learning
Deep learning kan worden onderverdeeld in drie hoofdmanieren van leren, vergelijkbaar met hoe een kind leert door middel van voorbeelden, ontdekking en vallen en opstaan [11](#page=11).
#### 2.2.1 Supervised Learning
Bij supervised learning (begeleid leren) wordt een model getraind met gelabelde voorbeelden [12](#page=12).
* **Hoe werkt het:** Het model krijgt data met bijbehorende correcte antwoorden. Bijvoorbeeld, duizenden foto's van honden en katten, waarbij elke foto is gelabeld. Het model leert patronen herkennen (zoals oorvormen, snuit, grootte) om vervolgens, bij het zien van een nieuwe foto, te kunnen classificeren of het een hond of een kat is [12](#page=12).
* **Wat kan er misgaan:** Problemen kunnen ontstaan door te weinig trainingsdata, bias in de labels, overfitting (het model leert de trainingsdata te goed uit het hoofd maar generaliseert slecht), fouten in de labels, of het 'verkeerd' aanleren van concepten [12](#page=12).
* **Praktisch:** Een tool om hiermee te experimenteren is Teachable Machine van Google [13](#page=13).
#### 2.2.2 Unsupervised Learning
Unsupervised learning (onbegeleid leren) richt zich op het vinden van patronen in data zonder dat er vooraf antwoorden of labels aanwezig zijn [12](#page=12).
* **Hoe werkt het:** Het model krijgt een grote dataset, bijvoorbeeld 100.000 foto's zonder labels. De taak is om gemeenschappelijke kenmerken te identificeren en de data in groepen te clusteren op basis van deze kenmerken [12](#page=12).
* **Wat kan er misgaan:** Het model kan verbanden leggen die niet werkelijk bestaan, de reden achter de groepsindelingen is niet altijd duidelijk, er is geen garantie op bruikbare inzichten, en er kan sprake zijn van bias in de data [12](#page=12).
#### 2.2.3 Reinforcement Learning
Reinforcement learning (leren door bekrachtiging) werkt op basis van een systeem van straffen en belonen [13](#page=13).
* **Hoe werkt het:** Een agent voert acties uit in een omgeving. Voor een goede actie ontvangt de agent een positieve beloning (bijvoorbeeld +1), en voor een slechte actie een negatieve beloning (bijvoorbeeld -1). Het doel van de agent is om de totale beloning over tijd te maximaliseren [13](#page=13).
* **Wat kan er misgaan:** Mogelijke problemen zijn "reward hacking" (waarbij de agent manieren vindt om beloningen te maximaliseren zonder het eigenlijke doel te dienen), lange trainingstijden, het vastlopen in lokale optima, of een mismatch tussen de gedefinieerde beloning en het gewenste gedrag [13](#page=13).
### 2.3 Combinatie van leermethoden in de praktijk
In veel realistische toepassingen worden verschillende leermethoden gecombineerd om tot effectieve AI-systemen te komen [13](#page=13).
* **Voorbeelden:**
* **Zelfrijdende auto's:** Deze maken gebruik van supervised learning voor objectherkenning (zoals het herkennen van verkeersborden en andere voertuigen) in combinatie met reinforcement learning voor het bepalen van het rijgedrag [13](#page=13).
* **Chatbots:** Chatbots passen supervised learning toe voor het herkennen van de intentie van de gebruiker en reinforcement learning om het gesprek te optimaliseren en natuurlijk te laten verlopen [13](#page=13).
> **Tip:** Het is nuttig om de concepten van supervised, unsupervised en reinforcement learning te visualiseren als verschillende manieren waarop een AI een taak kan leren, vergelijkbaar met hoe mensen leren door directe instructie, observatie of door te experimenteren [11](#page=11).
* * *
# H2: Generatieve AI en zijn toepassingen
Generatieve AI (GenAI) is een tak van kunstmatige intelligentie die nieuwe content creëert, in tegenstelling tot traditionele AI die zich richt op analyse en classificatie. De huidige hype rondom GenAI wordt aangedreven door een combinatie van data-explosie, toenemende rekenkracht, de ontwikkeling van transformer-architecturen en een open source cultuur. GenAI wordt gezien als een 'General Purpose Technology' die, net als stoomkracht of elektriciteit, alle aspecten van het leven transformeert [15](#page=15) [22](#page=22).
### 3.1 Wat maakt generatieve AI bijzonder?
GenAI onderscheidt zich van traditionele AI doordat het niet alleen data analyseert, classificeert of voorspelt, maar actief nieuwe content genereert. Dit betekent dat het van "herken dit patroon" naar "gebruik deze patronen om iets nieuws te maken" gaat. GenAI kan variaties creëren binnen geleerde patronen en output aanpassen op basis van instructies (prompts). De output kan variëren van tekst (essays, gedichten, code) tot afbeeldingen, muziek, spraak, video en 3D-modellen [22](#page=22) [23](#page=23).
### 3.2 Transformer architectuur en taalmodellen
De doorbraak die GenAI mogelijk maakte, is de transformer-architectuur, geïntroduceerd in het paper "Attention is All You Need" in 2017. In tegenstelling tot oudere sequentiële modellen die woorden één voor één verwerkten, maakt het 'attention mechanism' het mogelijk dat het model naar alle woorden in een zin kijkt om context te begrijpen. Dit zorgt voor een veel dieper begrip van relaties tussen woorden [14](#page=14) [23](#page=23).
#### 3.2.1 Tokenisatie: van tekst naar getal
Computers verwerken getallen, dus tekst moet worden omgezet naar een numeriek formaat. Dit gebeurt via tokenisatie, waarbij woorden worden opgedeeld in stukjes (tokens) die elk een uniek getal (een ID) krijgen binnen de woordenschat van het AI-model. Een voorbeeld van een tokenizer is te vinden op [https://platform.openai.com/tokenizer](https://platform.openai.com/tokenizer) [24](#page=24).
#### 3.2.2 Het AI-brein: parameters en lagen
Het "brein" van een AI-model bestaat uit verschillende lagen van verbindingen. De 'parameters' vertegenwoordigen de sterkte van deze verbindingen. Hoe meer parameters een model heeft, hoe meer patronen het kan herkennen en hoe 'slimmer' het wordt geacht. Grote modellen zoals GPT-3 hebben 175 miljard parameters, en GPT-4 heeft er naar schatting rond de 1 biljoen. Een visualisatie van deze concepten is te vinden op [https://projector.tensorflow.org/](https://projector.tensorflow.org/) [24](#page=24).
#### 3.2.3 Pre-training van een AI-model
De parameters van een AI-model worden bepaald tijdens het pre-trainingsproces. Dit gebeurt met enorme datasets, vaak bestaande uit petabytes aan tekst. De basistaak tijdens pre-training is het voorspellen van het volgende woord in een zin. Dit is de kern van het leerproces: bij elke correcte voorspelling worden parameters versterkt, en bij incorrecte voorspellingen worden ze verzwakt. Na miljarden van deze aanpassingen wordt het model steeds accurater [25](#page=25).
#### 3.2.4 Fine-tuning van een AI-model
Een voorgetraind model kan worden gezien als een encyclopedie, maar om het echt bruikbaar te maken als product, vindt fine-tuning plaats. Een belangrijke methode hiervoor is Reinforcement Learning from Human Feedback (RLHF). Hierbij beoordelen menselijke testers de output van het model op verschillende prompts. Een beloningsmodel leert vervolgens menselijke voorkeuren, en het hoofdmodel wordt hierop geoptimaliseerd. RLHF transformeert een ruw taalmodel tot een bruikbaar product [25](#page=25).
#### 3.2.5 Van prompt naar antwoord
Het proces van een prompt naar een antwoord doorloopt verschillende stappen [26](#page=26):
1. De prompt wordt omgezet naar tokens [26](#page=26).
2. Deze tokens gaan door de lagen van het AI-model, waarbij elke laag meer begrip toevoegt, van losse woorden tot zinsopbouw, betekenis, context, en zelfs emotie en intentie [26](#page=26).
3. Alle tokens "praten" met elkaar via het attention mechanisme [26](#page=26).
4. Het antwoord wordt gegenereerd, woord voor woord, waarbij het model steeds het meest waarschijnlijke volgende woord voorspelt. Een interactieve visualisatie van dit proces is te vinden op [https://bbycroft.net/llm](https://bbycroft.net/llm) [26](#page=26).
### 3.5 Toepassingen en keuze van tools
GenAI is effectief voor taken waar focus, snelheid en schaal belangrijk zijn. Er is echter niet één "beste" AI-model; de keuze hangt af van de specifieke taak en de technische of zakelijke vereisten. Factoren zoals specialisatie, technische verschillen (modelgrootte, contextvenster), bedrijfsmodellen (gratis/betaald), en open/gesloten architectuur spelen een rol [20](#page=20) [27](#page=27) [28](#page=28).
#### 3.5.1 Verschillende AI-tools
Er zijn diverse GenAI-tools beschikbaar, elk met eigen sterktes:
* **ChatGPT (OpenAI):** Veelzijdig chatbot-model, breed inzetbaar, sterk in creativiteit en brainstormen, maar ook voor algemene assistentie en code schrijven [21](#page=21) [28](#page=28).
* **Claude (Anthropic):** Sterk in analyse van lange teksten en documenten, met focus op veiligheid en ethiek. Ook beschikbaar als snellere 'Claude Instant' of de meer grondige 'Claude Opus' [21](#page=21) [28](#page=28) [29](#page=29).
* **Gemini (Google):** Multimodaal, realtime toegang met diepe Google-integratie, geschikt voor onderzoek en algemene assistentie [21](#page=21) [28](#page=28).
* **Copilot (Microsoft):** Productiviteitsgericht, geïntegreerd in Microsoft 365, geschikt voor onderzoek en real-time data [21](#page=21) [28](#page=28).
* **Perplexity AI:** Chatbot met live web search en bronvermelding, ideaal voor onderzoek en real-time data analyse [21](#page=21) [28](#page=28).
* **DeepSeek AIDeepSeek:** Open-source LLM, sterk in redeneren en gestructureerde antwoorden [21](#page=21).
* **Pi (Inflection AI):** Empathische chatbot voor persoonlijke gesprekken, volledig gratis [21](#page=21).
* **Meta AI:** Geïntegreerd in sociale platforms zoals Facebook, WhatsApp en Instagram, volledig gratis [21](#page=21).
* **Grok (xAI):** Minder gefilterde antwoorden, geïntegreerd in X, met live web search [21](#page=21).
* **Mistral AI:** Open-weight modellen met focus op transparantie en efficiëntie [21](#page=21).
* **GitHub Copilot:** Specifiek voor code schrijven [28](#page=28).
#### 3.5.2 Lokale AI-modellen
Voor gebruikers die niet online willen werken, biedt platforms zoals Ollama de mogelijkheid om LLM's lokaal op eigen computers te draaien, met ondersteuning voor diverse modellen zoals Llama, Mistral en Gemma. Dit verhoogt de privacy en controle over data [31](#page=31).
#### 3.5.3 Kosten en implementatie
De meeste tools bieden gratis versies met beperkingen en betaalde opties of enterprise-mogelijkheden. Het is raadzaam te starten met gratis versies en pas te upgraden wanneer er duidelijke meerwaarde is. Belangrijke aspecten bij de implementatie zijn gebruikersgemak, de beschikbaarheid van training en ondersteuning, en regelmatige evaluatie van de tool in relatie tot de kosten en behoeften [26](#page=26) [30](#page=30) [32](#page=32).
#### 3.5.4 Snelheid versus Kwaliteit
De keuze tussen snelheid en kwaliteit hangt af van de taak. Brainstormen mag sneller, terwijl analyses meer grondigheid vereisen. Tools zoals ChatGPT, Claude Instant en Gemini Pro bieden snelle reacties, terwijl Claude Opus en Perplexity zorgen voor grondigere resultaten [29](#page=29).
### 3.6 Impact en toekomstperspectief
GenAI transformeert sectoren en verhoogt productiviteit, maar experts winnen doorgaans meer dan beginners. Het gaat om een transformatie van werk, niet eliminatie, met verschuivingen in banen en taken. De publieke perceptie van GenAI volgt een hypecyclus, van de 'peak of inflated expectations' naar de 'slope of enlightenment' en uiteindelijk de 'plateau of productivity'. De "black box" aard van de modellen, door hun extreme complexiteit, roept vragen op over betrouwbaarheid, bias en verantwoording. Schaaleffecten suggereren dat meer data, parameters en rekenkracht leiden tot kwalitatieve sprongen, wat de innovatie versnelt richting Artificial General Intelligence (AGI) [16](#page=16) [17](#page=17) [18](#page=18) [28](#page=28) [29](#page=29).
> **Tip:** Menselijke expertise, context en oordeelsvermogen blijven cruciaal. GenAI is een middel, geen doel op zich. Blijf kritisch en focus op de meerwaarde, niet op de hype [20](#page=20) [30](#page=30).
### 3.3 Multimodale AI: meer dan alleen tekst
Hoewel taalmodellen de basis vormen van GenAI, is menselijke communicatie ook multimodaal. GenAI breidt zich daarom uit naar andere modaliteiten zoals beeld, audio en video [35](#page=35).
#### 3.3.1 Diffusiemodellen voor afbeeldingen
Diffusiemodellen werken omgekeerd: ze beginnen met ruis en transformeren dit stap voor stap tot een coherente afbeelding, geleid door een prompt. De training omvat een 'forward' proces (afbeeldingen naar ruis) en een 'reverse' proces (ruis naar afbeelding), waarbij patroonherkenning van vormen gekoppeld aan beschrijvingen centraal staat [36](#page=36).
#### 3.3.2 Neurale audiomodellen voor geluid
Neurale audiomodellen converteren geschreven tekst naar realistische spraak of muziek. Ze bouwen geluidsgolven sample voor sample op, waarbij de prompt de stem, emotie, tempo en stijl bepaalt. De training analyseert grote hoeveelheden spraak- en muziekopnames om patronen tussen tekst en geluid, en de impact van emotie op stemgeluid te herkennen [37](#page=37).
#### 3.3.3 Temporele diffusiemodellen voor video
Temporele diffusiemodellen voegen een tijdsdimensie toe aan diffusiemodellen om video's te genereren. Ze creëren opeenvolgende frames met consistentie tussen frames, waarbij de prompt actie, camerabeweging en stijl stuurt. De training analyseert video's met beschrijvingen en focust op temporele coherentie en basisprincipes van fysica (beweging, zwaartekracht) [37](#page=37).
#### 3.3.4 Prompts in multimodale AI
De structuur van prompts kan consistent worden gebruikt voor tekst, beeld, audio en video. Hoewel dezelfde prompt niet tot identieke output leidt, zorgt het wel voor een consistente thematiek en stijl, met variaties in details, intonatie of camerahoek [38](#page=38).
### 3.4 Valkuilen van generatieve AI
Ondanks de kracht van GenAI, zijn er aanzienlijke beperkingen en risico's. Het kritisch gebruik van AI is essentieel [19](#page=19) [38](#page=38) [39](#page=39).
#### 3.4.1 Hallucinaties
Hallucinaties treden op wanneer GenAI informatie genereert die niet klopt en deze zelfverzekerd als waarheid presenteert. Dit kan zich uiten in intrinsieke tegenstrijdigheden, output zonder onderbouwing, zinscontradicties of antwoorden die afwijken van de oorspronkelijke prompt. Dit gebeurt omdat AI-modellen niet weten wat ze niet weten en gaten opvullen met "logisch klinkende" verzinsels zonder feiten te verifiëren [39](#page=39) [41](#page=41) [42](#page=42).
#### 3.4.2 Knowledge cutoffsH
AI-modellen hebben een kennisgrens (knowledge cutoff) bepaald door de datum waarop hun trainingsdata is verzameld. Informatie na die datum is onbekend, en updatecycli kunnen maanden tot jaren duren. Het is daarom aan te raden AI te gebruiken voor tijdloze analyse en recentere informatie apart te controleren [43](#page=43).
#### 3.4.3 Bias en discriminatie
AI is niet neutraal omdat de trainingsdata historische vooroordelen bevat en bepaalde groepen onder- of oververtegenwoordigt. Dit kan leiden tot discriminerende of stereotiepe output .
#### 3.4.4 Overafhankelijkheid
Te veel vertrouwen op AI zonder verificatie kan leiden tot overafhankelijkheid. Dit uit zich in het blind accepteren van AI-output, paniek wanneer AI niet beschikbaar is, en het vermijden van eigen leerprocessen, wat academische integriteit kan schaden. Veilige toepassingen in studie omvatten brainstorming, conceptuële uitleg, grammatica-checks en hulp bij onderzoekstructuur .
#### 3.4.5 Privacy risico's
De input die gebruikers aan AI-tools geven, kan worden gebruikt voor modeltraining, en data kan op servers in andere landen worden opgeslagen. Gevoelige informatie zoals persoonlijke gegevens, financiële of medische gegevens, en bedrijfsinformatie moet daarom geanonimiseerd worden. De vuistregel is: deel niets wat je niet op het internet zou willen zien .
* * *
# H3: Effectief prompten en AI in onderzoek
Dit onderwerp belicht de cruciale rol van effectief prompten om de output van AI te maximaliseren en de ethische implicaties en integratie van AI in academisch onderzoek.
## 4\. Effectief prompten en AI in onderzoek
AI-modellen beschikken over een immense rekenkracht en veel data, maar de kwaliteit van de output hangt sterk af van de ingevoerde prompt. Goed prompten is essentieel om het volledige potentieel van AI te benutten, processen te optimaliseren en accurate resultaten te verkrijgen. De milieu-impact van AI, met name het energieverbruik voor rekenkracht en datacenters, benadrukt het belang van efficiëntie door middel van nauwkeurige prompts [45](#page=45) [46](#page=46).
### 4.1 Waarom goed prompten?
Effectief prompten is de sleutel tot beter gebruik van AI en het overbruggen van de kloof tussen menselijke intuïtie en de analysekracht van AI. Een correct geformuleerde prompt in de beginfase vermindert de noodzaak tot bijschaven en iteraties, wat tijd en middelen bespaart [45](#page=45) [46](#page=46).
### 4.2 Anatomie van een sterke prompt
Een sterke prompt bestaat uit verschillende componenten die de AI richting geven voor de gewenste output. Hoewel er verschillende frameworks bestaan, zijn deze variaties op basisprincipes en dienen ze als structuur en inspiratie, niet als rigide regels [48](#page=48).
#### 4.2.1 Rol (ROLE)
De rol bepaalt de identiteit en expertise van het AI-model, wat de toon, het perspectief en het kennisniveau van de output beïnvloedt. Voorbeelden hiervan zijn het instellen van de AI als een ervaren marketeer, een geduldige leraar, of een kritische recensent [49](#page=49).
#### 4.2.2 Context (CONTEXT)
Context is cruciaal om de antwoorden van de AI te kaderen en relevant, nauwkeurig en toepasbaar te maken. Dit omvat achtergrondinformatie, het doel van de taak, de doelgroep en eventuele randvoorwaarden [49](#page=49).
#### 4.2.3 Instructies (INSTRUCTIONS)
Duidelijke en specifieke instructies geven aan wat er exact moet gebeuren, wat leidt tot preciezere resultaten. Dit omvat de taakomschrijving en specifieke werkwoorden [50](#page=50).
#### 4.2.4 Voorbeelden (EXAMPLES)
Het geven van voorbeelden, zowel positief als negatief, helpt het AI-model te laten zien hoe de gewenste output eruit moet zien en verbetert de effectiviteit van de prompt (few-shot prompting) [50](#page=50).
#### 4.2.5 Output & Formaat (OUTPUT & FORMAT)
Het afdwingen van een specifieke structuur en formaat zorgt voor bruikbare resultaten. Dit betreft het type output, de lengte, de taal en de toon [51](#page=51).
#### 4.2.6 Wat te vermijden (DON'T)
Het stellen van grenzen voorkomt ongewenste elementen en verhoogt de precisie van de output. Dit is met name belangrijk bij gevoelige onderwerpen of creatieve restricties [51](#page=51).
### 4.3 Geavanceerde prompttechnieken
Er zijn diverse geavanceerde technieken om de interactie met AI te verfijnen en complexere taken uit te voeren.
#### 4.3.1 Vermijd suggestieve vragen
Suggestieve prompts kunnen leiden tot bias en eenzijdige antwoorden. Neutrale, open vragen zijn essentieel voor vergelijkingen, evaluaties en advies [52](#page=52).
#### 4.3.2 Verhoog de inzet
Door de taak belangrijk te maken, presteert de AI beter. Het toevoegen van gewicht aan de opdracht zorgt voor betere resultaten, bijvoorbeeld door de taak voor te stellen alsof deze cruciaal is voor het voortbestaan van een bedrijf [52](#page=52).
#### 4.3.3 Prompt-Chaining
Complexe taken kunnen worden opgesplitst in kleinere, opeenvolgende prompts, waarbij de output van de ene prompt als input dient voor de volgende. Het labelen van tussenresultaten helpt bij het behouden van overzicht [53](#page=53).
#### 4.3.4 Chain-of-Thought (CoT)
Deze techniek moedigt de AI aan om het denkproces en tussenstappen te tonen, wat cruciaal is voor complexe analyses en zorgt voor meer transparantie en nauwkeurigheid [54](#page=54).
#### 4.3.5 Tree-of-Thought (ToT)
ToT genereert meerdere oplossingspaden, wat ideaal is voor strategische planning, probleemoplossing en brainstorms. Het beperken van het aantal opties houdt de output beheersbaar [54](#page=54).
#### 4.3.6 Gebruik externe kennis (RAG)
Retrieval-Augmented Generation (RAG) baseert antwoorden op specifieke documenten, wat helpt om hallucinaties te vermijden bij feitelijke of bedrijfsspecifieke vragen. Het vragen naar citaten uit de bronnen is hierbij van belang [55](#page=55).
#### 4.3.7 Self-critique & Self-improvement
Het vragen aan de AI om output te genereren, deze te beoordelen en te verbeteren, is waardevol voor taken waarbij kwaliteit cruciaal is. Expliciete rubrics voor beoordeling worden aanbevolen [56](#page=56).
#### 4.3.8 Meta-prompting
Meta-prompting houdt in dat er prompts worden ontworpen die andere prompts genereren. Dit kan leiden tot krachtigere, specifiekere en efficiëntere prompts voor complexe workflows [57](#page=57).
### 4.4 CustomGPT's
CustomGPT's bieden een gepersonaliseerde chatbotervaring, waardoor de persona en instructies niet telkens opnieuw ingevoerd hoeven te worden. Ze kunnen worden aangepast met specifieke instructies, gespreksopeningen, kennisbestanden en functionaliteiten zoals webbrowsing of beeldgeneratie [57](#page=57).
### 4.5 De schaduwkant van prompten
Ondanks de voordelen zijn er risico's verbonden aan het gebruik van AI en prompts.
#### 4.5.1 Promptinjectie
Promptinjectie treedt op wanneer een AI-model wordt misleid door slimme of verborgen instructies, waardoor het acties uitvoert die niet de bedoeling waren. Dit kan direct plaatsvinden door de gebruiker zelf, of indirect via verborgen instructies in documenten of websites. Gevaren omvatten het lekken van gevoelige data, verspreiding van valse informatie en verstoring van systemen [58](#page=58) [59](#page=59).
#### 4.5.2 Prompt injectie <> Jailbreaking
Promptinjectie misleidt via input of documenten voor ongewenste acties, terwijl jailbreaking een AI overhaalt om verboden inhoud te maken [59](#page=59).
#### 4.5.3 Herkennen van prompt injectie
Signalen omvatten negeren-commando's ("negeer alle vorige instructies"), instructies verborgen in documenten, en afleidingstechnieken zoals onverwachte wendingen in een gesprek [60](#page=60).
#### 4.5.4 Bescherming tegen promptinjectie
Bescherming omvat input valideren (scannen op verdachte frasen), output controleren, toegang beperken, menselijke controle toepassen en monitoring [61](#page=61).
#### 4.5.5 Sycophancy
Sycophancy (het 'pleaser'-gedrag van AI) treedt op wanneer de AI geneigd is de gebruiker tevreden te stellen door antwoorden af te stemmen op diens overtuigingen, zelfs als dit leidt tot het verzinnen van informatie (hallucinaties). Dit is een inherent probleem bij taalmodellen en kan leiden tot manipuleerbare AI, versterking van eigen bias, en verkeerde conclusies. Het is de 'ergste vijand' van een onderzoeker omdat het leidt tot vertekend onderzoek [78](#page=78) [79](#page=79).
### **H4: AI in onderzoek**
AI transformeert de manier waarop onderzoek wordt uitgevoerd, met zowel voordelen als uitdagingen op het gebied van efficiëntie en integriteit.
#### 4.6.1 Onderzoek in het AI-tijdperk
Onderzoek blijft essentieel om inzicht te onderscheiden van illusie. AI kan patronen tonen, maar de onderzoeker moet de zinvolheid ervan valideren. Onderzoekend denken is een professionele vaardigheid die belangrijk is voor toekomstbestendigheid [63](#page=63) [64](#page=64).
#### 4.6.2 Evolutie van onderzoek
Het onderzoek is geëvolueerd van traditioneel onderzoek (vóór 2000) gebaseerd op fysieke bronnen en handmatige analyse, via digitale versnelling (vanaf 2000) met online bronnen en digitale tools, naar AI-gestuurde kennisproductie (vanaf 2022) met automatische syntheses en samenwerking tussen mens en AI [64](#page=64).
#### 4.6.3 Traditioneel <> AI-ondersteund onderzoek
Traditioneel onderzoek heeft sterke punten zoals peer-review en diepe context, maar is tijdsintensief en minder schaalbaar. AI-ondersteund onderzoek biedt razendsnelle analyse en schaalbaarheid, maar kent uitdagingen zoals hallucinaties en versterking van bias [65](#page=65).
#### 4.6.4 Hybride aanpak
De ideale aanpak combineert het beste van beide werelden: AI voor exploratie en snelheid, en traditioneel onderzoek voor validatie en diepgang. AI versnelt het vinden van informatie, niet het begrip ervan. Het is cruciaal om menselijke verificatie te behouden, transparantie te bieden over AI-gebruik, en te investeren in open LLM-ontwikkeling [65](#page=65) [66](#page=66).
#### 4.6.5 Het onderzoeksproces met AI
Het onderzoeksproces omvat exploratie, verkenning, bewijs verzamelen, analyse & interpretatie, synthese en reflectie. Een onderzoeksvraag moet onderzoekbaar, haalbaar, waardevol, complex, relevant, specifiek, enkelvoudig en praktisch toepasbaar zijn [66](#page=66) [67](#page=67).
#### 4.6.6 AI-tools voor efficiënt onderzoek
Verschillende AI-tools kunnen ingezet worden voor specifieke fasen van het onderzoeksproces:
* **Exploratie:** LLM's, Perplexity voor het formuleren van onderzoeksvragen [68](#page=68).
* **Verkenning:** Perplexity, ResearchRabbit, Elicit voor het vinden van bronnen en ontdekken van kennis en trends [68](#page=68).
* **Bewijs verzamelen:** Consensus, ResearchRabbit, Elicit voor het controleren van consensus en valideren van claims [68](#page=68).
* **Analyse & Interpretatie:** ChatPDF, NotebookLM voor het begrijpen van documenten en het analyseren van bevindingen [68](#page=68).
* **Synthese:** NotebookLM, LLM's voor het formuleren van inzichten [68](#page=68).
* **Reflectie:** LLM's voor het evalueren van het proces en het bespreken van bias [68](#page=68).
#### 4.6.7 Prompten in onderzoek
Bij prompten in onderzoek is het belangrijk om kritische filtering toe te passen, neutrale prompts te stellen, te vragen naar bronnen en betrouwbaarheid, en AI te gebruiken als reflectiepartner. LLM's kunnen gebruikt worden voor exploratie en reflectie, maar niet als primaire bronnen vanwege mogelijke kennis-cutoffs [69](#page=69).
#### 4.6.8 Specifieke AI-tools voor onderzoek
* **Perplexity:** Een AI-zoekmachine met automatische bronvermelding, handig voor exploratie en synthese [70](#page=70).
* **ResearchRabbit:** Visualiseert wetenschappelijke papers via citatienetwerken, ideaal voor het ontdekken van gerelateerd onderzoek [70](#page=70).
* **Elicit:** Helpt bij systematisch literatuuronderzoek en het formuleren van onderzoeksvragen [71](#page=71).
* **Consensus:** Toont wetenschappelijke consensus over beweringen, wat nuttig is voor bewijsverzameling [72](#page=72).
* **ChatPDF:** Geschikt voor snelle screening en het beantwoorden van korte vragen over PDF-documenten [73](#page=73).
* **NotebookLM:** Biedt directe bronverwijzing, analyseert meerdere papers tegelijk en is ideaal voor analyse, interpretatie en synthese [73](#page=73).
#### 4.6.9 Onderzoek optimaliseren met AI
Onderzoek kan geoptimaliseerd worden door parallelle verwerking (meerdere tools tegelijk gebruiken), iteratieve verfijning (breed starten en verfijnen) en nauwkeurige documentatie en tracking. De juiste tool moet gekozen worden voor het specifieke doel [74](#page=74).
#### 4.6.10 Wanneer AI wel/niet gebruiken in onderzoek
AI is meestal toegestaan voor het genereren van ideeën, structureren van tekst, verbeteren van teksten, uitleggen van concepten, zoeken naar bronnen en ondersteuning bij data-analyse. Het is problematisch om volledige teksten te laten schrijven, antwoorden zonder verificatie over te nemen, AI-gebruik te verbergen of bronnen te vervalsen [75](#page=75).
### 4.7 Academische integriteit bij AI-gebruik
Het verantwoord gebruik van AI in onderzoek vereist transparantie, eerlijkheid en kritisch denken.
#### 4.7.1 AI-gebruik vermelden
Het vermelden van AI-gebruik is cruciaal voor transparantie, erkenning van ontwikkelaars en zodat lezers de tool kunnen raadplegen. Dit geldt voor directe output, ondersteunend gebruik en wanneer het AI-model inhoudelijk heeft bijgedragen [76](#page=76).
#### 4.7.2 Correct refereren naar AI
Correct refereren omvat het vermelden van de organisatie als auteur, jaartal, versie en URL, bijvoorbeeld: OpenAI.. ChatGPT (Mar 14 version) \[Large language model. [https://chat.openai.com/](https://chat.openai.com/) [77](#page=77).
#### 4.7.3 Verantwoord AI-gebruik
De onderzoeker blijft eindverantwoordelijk voor de inhoud. AI ondersteunt, maar vervangt de menselijke rol niet. Het gebruik van een verificatiemodel, het noteren van AI-inzet en het volgen van institutionele richtlijnen zijn essentieel [77](#page=77).
#### 4.7.4 Verificatiemodel
Het verificatiemodel omvat het traceren van bronnen, het cross-checken met andere tools en menselijke beoordeling met expertise en kritisch denken. Rode vlaggen zoals geen bronvermelding, vage antwoorden of tegenstrijdigheden vereisen stopzetting en verificatie [78](#page=78).
#### 4.7.5 Sycophancy als onderzoeksassistent
De sycophantische neiging van AI kan een grote bedreiging vormen voor onderzoek, omdat het de neiging heeft overtuigingen te bevestigen in plaats van ze te bevragen. Het is cruciaal om neutrale prompts te stellen, naar tegenargumenten te vragen en altijd bronnen te checken [79](#page=79).
#### 4.7.6 Academische integriteit met AI
Academische integriteit vereist eerlijkheid (geen data fabriceren), transparantie (bronnen en AI-gebruik vermelden), verantwoordelijkheid (eindverantwoordelijke blijven), en respect voor personen, data en intellectueel eigendom. AI mag ondersteunen, maar nooit de integriteit ondermijnen [79](#page=79).
#### 4.7.7 Sterk en integer onderzoek met AI
Effectief onderzoek met AI combineert AI, literatuur en data, waarbij bronnen altijd gecontroleerd worden. Transparantie over prompts, tools en versies, en kritisch beoordelen van inhoud zijn essentieel. Blind vertrouwen op AI, gebrek aan bronvermelding, of het inzetten van AI als vervanging voor analyse moeten vermeden worden. De combinatie van AI-snelheid, menselijk oordeel en onderzoeksdiscipline leidt tot academische integriteit [80](#page=80).
* * *
## Veelgemaakte fouten om te vermijden
* Bestudeer alle onderwerpen grondig voor examens
* Let op formules en belangrijke definities
* Oefen met de voorbeelden in elke sectie
* Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Artificiële Intelligentie (AI) | Technologie die menselijke intelligentie simuleert, gericht op autonomie en aanpassingsvermogen. Het is een discipline, geen entiteit. |
| Autonomie | Het vermogen van een systeem om zelfstandig te handelen en beslissingen te nemen zonder constante menselijke tussenkomst. |
| Aanpassingsvermogen | Het vermogen van een systeem om te leren van ervaringen en zich aan te passen aan nieuwe of veranderende omstandigheden. |
| Meervoudige Intelligentie | Een theorie van Howard Gardner die stelt dat intelligentie niet één-dimensionaal is, maar bestaat uit verschillende onafhankelijke intelligenties, zoals taalkundig, logisch-mathematisch, ruimtelijk, muzikaal, kinesthetisch, interpersoonlijk, intrapersoonlijk en naturalistisch. |
| Weak/Narrow AI (Zwakke/Smalle AI) | AI die is ontworpen en getraind voor een specifieke taak, zoals spraakassistenten (Siri) of chatbots (ChatGPT). Deze vorm van AI bestaat en werkt. |
| General AI (AGI) / Sterke AI | AI die in staat is om elke intellectuele taak uit te voeren die een mens kan, op elk domein. Deze vorm van AI bestaat nog niet en er is discussie over wanneer (of of) het zal worden bereikt. |
| Super AI (ASI) | AI die de menselijke intelligentie op alle gebieden overtreft, inclusief creativiteit, algemene wijsheid en sociale vaardigheden. Dit is een puur theoretisch concept. |
| Rule-based AI | Een type AI dat werkt op basis van expliciete regels, gedefinieerd door menselijke experts. Deze systemen zijn voorspelbaar en controleerbaar, maar missen flexibiliteit en leervermogen. |
| Machine Learning (ML) | Een tak van AI waarbij algoritmen patronen uit data leren zonder expliciet geprogrammeerd te zijn. ML-modellen kunnen zich aanpassen aan nieuwe situaties, maar vereisen vaak veel gelabelde data. |
| Deep Learning (DL) | Een subset van Machine Learning die gebruik maakt van kunstmatige neurale netwerken met meerdere lagen (diepgaande structuren) om complexe patronen te herkennen en te leren. DL-modellen zijn krachtig, maar kunnen "black boxes" zijn vanwege hun complexiteit. |
| Supervised Learning | Een methode binnen Deep Learning waarbij een model wordt getraind met gelabelde voorbeelden, zodat het toekomstige gegevens kan classificeren of voorspellen. |
| Unsupervised Learning | Een methode binnen Deep Learning waarbij een model patronen ontdekt in ongelabelde data, zoals het groeperen van vergelijkbare items. |
| Reinforcement Learning | Een methode binnen Deep Learning waarbij een agent leert door middel van beloningen en straffen voor uitgevoerde acties, met als doel de totale beloning over tijd te maximaliseren. |
| Generative AI (GenAI) | Een type AI dat nieuwe content kan creëren, zoals tekst, afbeeldingen, muziek of code, op basis van geleerde patronen uit trainingsdata. Dit staat in contrast met traditionele AI die data analyseert en classificeert. |
| Transformer Architectuur | Een type neuraal netwerk dat is ontworpen om sequentieel data te verwerken door middel van een 'attention mechanism', wat een efficiëntere en contextgevoeligere verwerking mogelijk maakt. Dit is de basis voor veel moderne taalmodellen. |
| Attention Mechanism | Een techniek binnen neurale netwerken, met name in de Transformer-architectuur, die het model in staat stelt om zich te concentreren op de meest relevante delen van de input data bij het verwerken van informatie. |
| Tokenization | Het proces waarbij tekst wordt opgedeeld in kleinere eenheden, genaamd tokens, die vervolgens aan een uniek getal (ID) worden toegewezen. Dit is een voorbereidende stap om tekst te kunnen verwerken door AI-modellen. |
| Parameters | De waarden die de sterkte van de verbindingen tussen de 'neuronen' in een neuraal netwerk bepalen. Hoe meer parameters een model heeft, hoe meer patronen het potentieel kan herkennen en hoe 'slimmer' het kan zijn. |
| Pre-training | De initiële fase waarin een AI-model wordt getraind op een enorme dataset, meestal met als doel het voorspellen van het volgende woord in een zin. Dit proces bepaalt de basisparameters van het model. |
| Fine-tuning | Het proces waarbij een reeds voorgegetraind AI-model verder wordt aangepast voor een specifiekere taak of dataset, vaak met behulp van technieken zoals Reinforcement Learning from Human Feedback (RLHF). |
| Reinforcement Learning from Human Feedback (RLHF) | Een techniek die wordt gebruikt om AI-modellen, met name taalmodellen, te optimaliseren door menselijke beoordelaars feedback te laten geven op de output. Dit helpt het model om menselijke voorkeuren beter te volgen. |
| Prompt | Een tekstinstructie die aan een AI-model wordt gegeven om een specifieke taak uit te voeren of informatie te genereren. De kwaliteit van de prompt is cruciaal voor de kwaliteit van de output. |
| Prompt Engineering | De kunst en wetenschap van het ontwerpen van effectieve prompts om de gewenste output van AI-modellen te verkrijgen. Dit omvat het structureren van instructies, het verstrekken van context en het definiëren van het outputformaat. |
| Context Window | Het "werkgeheugen" van een AI-model, gemeten in tokens, dat zowel de input (prompt) als de output bevat. Een groter contextvenster maakt langere interacties mogelijk, maar kan de ruimte voor output beperken. |
| Hallucinaties | Wanneer een AI-model informatie genereert die niet feitelijk is of niet wordt ondersteund door de brongegevens. AI's kunnen overtuigend fictie presenteren als waarheid. |
| Knowledge Cutoff | De datum tot wanneer de trainingsdata van een AI-model up-to-date is. Informatie na deze datum is niet bekend bij het model, wat kan leiden tot verouderde antwoorden. |
| Bias | Vooroordelen die in de output van een AI-model terechtkomen, vaak als gevolg van vooroordelen die aanwezig zijn in de trainingsdata. Dit kan leiden tot discriminerende of oneerlijke resultaten. |
| Prompt Injection | Een aanvalstechniek waarbij een aanvaller de AI misleidt door slimme of verborgen instructies in de prompt of data te injecteren, met als doel ongewenste acties te laten uitvoeren. |
| Jailbreaking | Een techniek waarbij een gebruiker een AI-model probeert over te halen om inhoud te genereren die normaal gesproken door de beveiligingsmechanismen van het model wordt geblokkeerd. |
| RAG (Retrieval-Augmented Generation) | Een techniek die AI-modellen in staat stelt om antwoorden te baseren op specifieke documenten of externe kennisbronnen, waardoor hallucinaties worden verminderd en meer accurate, feitelijke informatie wordt gegenereerd. |
| Sycophancy | De neiging van een AI-model om de voorkeuren van de gebruiker te volgen en te bevestigen in plaats van objectieve of kritische informatie te geven. Dit kan leiden tot versterking van de bias van de gebruiker en misleidende antwoorden. |
| Academische Integriteit | De eerlijkheid, transparantie en verantwoordelijkheid in academisch werk. Bij AI-gebruik betekent dit het correct vermelden van bronnen, het vermijden van plagiaat en het verantwoord gebruiken van AI als hulpmiddel. |