Cover
Börja nu gratis Generic AI presentation (1).pptx
Summary
# Wat is kunstmatige intelligentie en machine learning?
Dit onderwerp verkent de definitie en basisprincipes van Kunstmatige Intelligentie (AI) en Machine Learning (ML), inclusief hoe deze worden gemodelleerd met wiskundige functies.
## 1. Wat is kunstmatige intelligentie en machine learning?
Kunstmatige Intelligentie (AI) kan worden gezien als een wiskundige formule. Het doel is om complexe relaties en patronen in data te modelleren. Machine Learning (ML) is een subdiscipline van AI die zich richt op het ontwikkelen van algoritmen waarmee computers kunnen leren van data zonder expliciet geprogrammeerd te worden.
### 1.1 Het modelleren van AI met wiskundige functies
AI en ML maken gebruik van wiskundige functies om relaties tussen input en output te beschrijven. Een eenvoudig voorbeeld hiervan is het modelleren van de prijs van een product over tijd.
#### 1.1.1 Lineaire functies
Een lineaire functie kan de relatie tussen tijd en prijs weergeven. Als we de prijs in twee verschillende jaren kennen, kunnen we een lineaire functie opstellen.
Stel, de prijs van een brood was in 2003 1,61 euro en in 2023 2,94 euro. We kunnen dit modelleren met een lineaire functie van de vorm:
$$ \text{Prijs}(x) = a_0 + a_1 x $$
waarbij $x$ het aantal jaren sinds 2003 is.
Met de gegeven data kunnen we de parameters $a_0$ en $a_1$ bepalen:
* Bij $x=0$ (jaar 2003) is de prijs 1,61 euro. Dus, $a_0 = 1.61$.
* Bij $x=20$ (jaar 2023) is de prijs 2,94 euro.
$$ 2.94 = 1.61 + a_1 \times 20 $$
$$ 2.94 - 1.61 = a_1 \times 20 $$
$$ 1.33 = a_1 \times 20 $$
$$ a_1 = \frac{1.33}{20} = 0.0665 $$
De formule wordt dan:
$$ \text{Prijs}(x) = 1.61 + 0.0665x $$
Deze formule kan gebruikt worden om de prijs in een tussenliggend jaar te schatten, bijvoorbeeld 2013 ($x=10$):
$$ \text{Prijs}(10) = 1.61 + 0.0665 \times 10 = 1.61 + 0.665 = 2.275 \text{ euro} $$
#### 1.1.2 Meer complexe functies
AI kan ook veel complexere functies modelleren dan enkel lineaire relaties. Dit kan worden uitgedrukt met polynomiale functies:
$$ y = a_0 + a_1 x_1 + a_2 x_2 + \ldots + a_n x_n $$
of zelfs met hogere-orde interacties:
$$ y = a_{00} + a_{01} y_1 + a_{10} x_1 + a_{11} x_1 y_1 + \ldots + a_{nn} x_n y_n $$
Het aantal parameters in zo'n functie kan snel toenemen met het aantal variabelen ($m$) en de orde ($n$) van de polynoom. Het aantal parameters kan berekend worden met de volgende formules:
* Voor een polynoom van orde $n$ met 2 variabelen:
$$ \#\text{parameters} = \frac{(n+2)!}{n! \times 2!} $$
* Voor een polynoom van orde $n$ met $m$ variabelen:
$$ \#\text{parameters} = \frac{(n+m)!}{n! \times m!} $$
Het oplossen van systemen met zo'n groot aantal vergelijkingen en parameters is wiskundig vaak onmogelijk.
### 1.2 Het creëren en trainen van wiskundige modellen
#### 1.2.1 Het genereren van de functievorm
Een belangrijk aspect van AI en ML is dat de technologie zelf de vorm van de functie genereert. Dit betekent dat men niet expliciet alle wiskundige relaties hoeft te kennen. Het model leert deze relaties uit de data.
#### 1.2.2 Neuronen en gewichten
Modellen kunnen worden opgebouwd uit sommaties van individuele functies, waarbij gewichten ($w_x$) worden toegepast op inputwaarden ($O_x$).
$$ \text{SOM}(w_x \ast O_x) $$
De training van deze modellen omvat het aanpassen van deze gewichten om fouten te minimaliseren. Dit proces is vergelijkbaar met regressie. Een veelgebruikte update-regel voor de gewichten is:
$$ w_x = w_x - \beta (w_x - o_x) $$
waarbij $\beta$ de leerfrequentie is en $(w_x - o_x)$ de fout.
> **Tip:** Dit principe van het aanpassen van gewichten om fouten te reduceren, ligt aan de basis van de meeste neurale netwerken en machine learning-algoritmen.
#### 1.2.3 Het leren van correlaties
Door het genereren van de functie vormt het model correlaties in de data die voorheen onbekend of te complex waren om te redeneren. Dit is nuttig voor toepassingen zoals:
* Optimalisatie van chemische recepten.
* Complexe spellen zoals schaken.
### 1.3 Large Language Models (LLM's)
LLM's zijn een geavanceerde vorm van AI die tekst kunnen genereren.
#### 1.3.1 Hoe LLM's tekst genereren
LLM's werken door het raden van het volgende woord in een sequentie. Dit gebeurt op basis van de context van de voorgaande woorden.
**Voorbeeld:**
Een zin als "The athlete crossed the finish line, raising their arms in \_\_\_\_\_\_". Het model voorspelt "Victory" met een hoge waarschijnlijkheid, gebaseerd op patronen in de trainingsdata.
#### 1.3.2 Technieken achter LLM's
1. **Tokenization:** Tekst wordt opgesplitst in kleinere eenheden, genaamd 'tokens'. Dit kunnen woorden, delen van woorden of zelfs enkele karakters zijn.
**Voorbeeld:** "Unbelievably fantastic!" kan worden getokenized als ["Un", "believ", "ably", " fantastic", "!"].
2. **Encoding:** Tokens worden omgezet in numerieke representaties, zogenaamde 'embeddings', in een multi-dimensionale ruimte. Dit gebeurt via een lookup matrix $V \times D$, waarbij $V$ de grootte van het vocabulaire is en $D$ de dimensionaliteit van de embedding. Voor GPT-3 is $D$ bijvoorbeeld 12.288. De woordenschat van GPT-3 bevat 50.257 tokens.
$$ \text{Lookup Matrix: } V \times D $$
De positie en relatie tussen tokens in deze ruimte is cruciaal.
3. **Contextualisatie met Aandacht (Attention):** Om de context te behouden, wordt het 'attention'-mechanisme gebruikt. Dit mechanisme zorgt ervoor dat het model belangrijke woorden in de sequentie zwaarder weegt bij het voorspellen van het volgende token. Dit helpt om de relatie tussen woorden beter te begrijpen, zelfs als ze ver van elkaar verwijderd zijn in de tekst.
4. **Voorspelling van het volgende woord:** De verrijkte embeddings, na het toepassen van attention, worden gebruikt door een neuraal netwerk om de waarschijnlijkheid van elk mogelijk volgend token te voorspellen.
**Samengevat, de drie stappen voor tekstgeneratie met LLM's zijn:**
1. Encoderen in tokens.
2. Gebruik van attention om de context te integreren.
3. Gebruik van het resultaat om het volgende woord te voorspellen.
#### 1.3.3 Computationele kosten van LLM's
Het trainen en draaien van LLM's vereist enorme rekenkracht en geheugen. Het vermenigvuldigen van grote matrices is hierbij een kernactiviteit.
* **Training:** Het trainen van een model zoals Llama 3 nam Meta 3 maanden in beslag op een cluster van 24.000 NVIDIA H100 GPU's, wat aanzienlijke kosten en energieverbruik met zich meebrengt. De kosten voor infrastructuur bedroegen ongeveer 75 miljoen dollars.
* **Inferentie (gebruik):** Het draaien van een model zoals OpenAI's model vereist ook een groot cluster van GPU's en heeft hoge operationele kosten. De energiekosten kunnen oplopen tot 615 megawattuur per dag, wat vergelijkbaar is met het energieverbruik van een middelgrote stad.
### 1.4 Technische uitdagingen in AI
Er zijn diverse technische uitdagingen bij de ontwikkeling en implementatie van AI:
* **Nauwkeurigheid van Algoritmen:** Het garanderen dat AI-modellen correcte en betrouwbare voorspellingen doen, zelfs voor complexe situaties (bv. het herkennen van een zebra in een veld, of een man voor een winkel).
* **Energieverbruik:** Zoals eerder genoemd, is het energieverbruik van zowel training als inferentie van grote AI-modellen een significante uitdaging, wat pleit voor computationeel duurzame oplossingen.
* **Gedistribueerde Intelligentie:** Het efficiënt beheren van AI-systemen die over meerdere locaties of apparaten zijn verspreid.
* **Controle behouden:** Zorgen dat AI-systemen doen wat we bedoelen en niet onvoorspelbaar of gevaarlijk gedrag vertonen.
* **Irrationeel gedrag:** AI kan soms gedrag vertonen dat niet logisch of wenselijk is, wat nader onderzoek vereist.
### 1.5 Valkuilen bij AI-implementatie
Naast technische uitdagingen zijn er ook praktische valkuilen bij de implementatie van AI:
* **Change Management:** Organisaties moeten zich aanpassen aan de introductie van AI-technologie, wat weerstand kan oproepen.
* **Misbruik:** AI-technologie kan worden misbruikt voor schadelijke doeleinden.
* **Bias:** AI-modellen kunnen vooroordelen (bias) vertonen als ze getraind worden op onrepresentatieve datasets.
* **Voorbeeld:** Een gezichtsherkenningssysteem getraind op voornamelijk witte mannen kan minder goed werken voor andere demografische groepen.
* Het is cruciaal om datasets te gebruiken die de populatie accuraat weerspiegelen. Echter, als de historische data al oneerlijk is, kan het model dit 'bias' overnemen en versterken.
* **Angst:** Angst voor de technologie, bijvoorbeeld rond zelfrijdende auto's, kan de adoptie belemmeren. Het is belangrijk om de feiten te presenteren en de voordelen af te wegen tegen de risico's (bv. het aantal verkeersongevallen door traditionele auto's versus autonome voertuigen).
### 1.6 Innovatie en controle behouden
Om succesvol te innoveren met AI en tegelijkertijd controle te behouden, zijn de volgende actiepunten belangrijk:
* **Kennisdeling:** Zorg dat iedereen in het team basiskennis van AI heeft en begrijpt hoe AI ethisch en wettelijk correct te implementeren.
* **Expertise inschakelen:** Haal expertise in huis voor de specifieke technologie en bedrijfsdoelstellingen.
* **USP's beschermen:** Zorg dat de introductie van AI de Unique Selling Propositions van het bedrijf niet aantast.
* **Modellering en Validatie:**
* Gebruik verschillende soorten modellen voor robuustheid.
* Valideer modellen door een onafhankelijk team om de bias van modelbouwers en supervisors te minimaliseren.
* Gebruik gespecialiseerde validatietools.
* Zorg voor een divers team (qua achtergrond, geslacht, expertise) om verschillende perspectieven mee te nemen.
* **Testen en Monitoren:**
* Test huidige modellen en hun evolutie in de tijd.
* Houd rekening met databronnen, populatieveranderingen en modeldrift.
* Gebruik een validatieproces en "model drift dashboards".
> **Tip:** AI is een krachtige technologie, maar het is essentieel om bewust te zijn van de imperfecties, ethische overwegingen, energieverbruik en mogelijke misbruik. Vertrouw op de technologie, maar gebruik ze correct.
---
# Hoe werken grote taalmodellen (LLM's)?
Grote taalmodellen (LLM's) genereren tekst door de meest waarschijnlijke volgende 'token' te voorspellen, gebaseerd op de reeds gegenereerde tekst, waarbij complexe wiskundige en neurale netwerktechnieken worden toegepast.
### 2.1 Tekstgeneratie met LLM's
LLM's functioneren in essentie als een geavanceerd systeem dat de volgende meest waarschijnlijke 'token' voorspelt. Dit wordt geïllustreerd met het voorbeeld van de atleet die de finishlijn overschrijdt, waarbij het model steeds de meest waarschijnlijke vervolgtokens suggereert om de zin te voltooien, zoals "arms", "in", en uiteindelijk "Victory".
> **Tip:** Het kernidee is dat het model niet 'begrijpt' in menselijke zin, maar patronen herkent en op basis daarvan de meest statistisch waarschijnlijke vervolgwoorden genereert.
### 2.2 De onderliggende stappen van tekstgeneratie
Het proces van tekstgeneratie door LLM's kan worden opgesplitst in drie cruciale stappen:
#### 2.2.1 Tokenisatie
De eerste stap is het opdelen van de invoertekst in kleinere eenheden, genaamd 'tokens'. Dit proces, tokenisatie genaamd, kan woorden, delen van woorden of zelfs leestekens omvatten.
* **Voorbeeld:** De zin "Unbelievably fantastic!" kan worden getokeniseerd als "Un", "believ", "ably", " fantastic", "!".
#### 2.2.2 Codering (Embedding)
Nadat de tekst is getokeniseerd, worden deze tokens omgezet in numerieke representaties in een hoogdimensionale ruimte. Dit wordt gedaan met behulp van een 'embedding'-laag, die een woordenboek (vocabulary) van tokens koppelt aan vectoren in deze ruimte.
* De embedding-dimensie $D$ bepaalt de grootte van deze vectoren (bijvoorbeeld 12.288 voor GPT-3).
* De grootte van het vocabulaire $V$ is het totale aantal unieke tokens dat het model kent (bijvoorbeeld 50.257 tokens voor GPT-3).
* De embedding-laag kan worden voorgesteld als een matrix met dimensies $V \times D$.
Het doel van deze codering is om semantische en syntactische relaties tussen woorden vast te leggen. Woorden met vergelijkbare betekenissen of die in vergelijkbare contexten voorkomen, zullen dichter bij elkaar in deze vectorruimte komen te liggen.
#### 2.2.3 Aandacht (Attention)
Een significant probleem met eenvoudige neurale netwerken die opeenvolgende tokens verwerken, is het verlies van context over langere reeksen. Om dit te ondervangen, wordt het 'aandachtsmechanisme' (attention mechanism) geïntroduceerd.
* Aandacht stelt het model in staat om te bepalen welke delen van de invoertekst het meest relevant zijn voor het genereren van het volgende token. Het 'verplaatst' de tokens in de representatieruimte naar meer correcte locaties op basis van hun relatie tot andere tokens in de context.
* Dit mechanisme weegt het belang van elk token in de invoerreeks bij het voorspellen van het volgende token, waardoor langetermijnafhankelijkheden beter kunnen worden gemodelleerd.
#### 2.2.4 Voorspellen van het volgende token
Na de codering en toepassing van aandacht, worden de resulterende representaties gevoed aan een neuraal netwerk. Dit netwerk voorspelt de waarschijnlijkheid van elk mogelijk token in het vocabulaire om het volgende token te zijn. Het token met de hoogste waarschijnlijkheid wordt geselecteerd, of er wordt een samplingstrategie toegepast om meer variatie te genereren.
> **Tip:** De combinatie van tokenisatie, codering, aandacht en de uiteindelijke voorspelling vormt de kern van hoe LLM's tekst genereren.
### 2.3 De schaal van LLM's en technische uitdagingen
De kracht van LLM's schuilt in hun enorme schaal, zowel in termen van het aantal parameters als de hoeveelheid trainingsdata. Dit brengt echter aanzienlijke technische en computationele uitdagingen met zich mee.
#### 2.3.1 Computationele kosten
Het trainen en draaien van LLM's vereist een immense hoeveelheid rekenkracht.
* **Training:** Het bouwen van een model zoals LLAMA 3 nam naar schatting drie maanden in beslag op een cluster van 24.000 NVIDIA H100 GPU's. De infrastructuurkosten alleen al worden geschat op ongeveer 75 miljoen dollars, met een dagelijks energieverbruik van ongeveer 550 megawattuur.
* **Inferentie (gebruik):** Het draaien van een model zoals dat van OpenAI (voor tekstgeneratie) vereist een cluster van 30.000 NVIDIA H100 GPU's. De geschatte kosten voor infrastructuur bedragen ongeveer 85 miljoen dollars, met een dagelijks energieverbruik van circa 615 megawattuur.
> **Tip:** Deze cijfers benadrukken de enorme investeringen in hardware en energie die nodig zijn om state-of-the-art LLM's te ontwikkelen en te onderhouden.
#### 2.3.2 Uitdagingen op het gebied van algoritmes en data
Verschillende technische uitdagingen moeten worden overwonnen:
* **Nauwkeurigheid van algoritmes:** Het waarborgen van de correctheid en betrouwbaarheid van de gegenereerde output blijft een focuspunt.
* **Energieverbruik:** De hoge energiebehoefte voor training en inferentie is een belangrijke duurzaamheidsuitdaging.
* **Gedistribueerde intelligentie:** Het effectief beheren en coördineren van rekenkracht over grote, gedistribueerde systemen is complex.
* **Controle en irrationaliteit:** Het behouden van controle over de output van LLM's en het voorkomen van ongewenst of irrationeel gedrag zijn cruciale aspecten.
#### 2.3.3 Valkuilen bij de implementatie
Naast de technische uitdagingen zijn er ook diverse valkuilen bij de implementatie van LLM's:
* **Change management:** Het integreren van AI-technologie vereist aanpassing binnen organisaties en bij gebruikers.
* **Misbruik:** De potentie voor kwaadwillig gebruik van LLM's is significant, wat ethische en veiligheidsrisico's met zich meebrengt.
* **Bias:** LLM's kunnen bias uit hun trainingsdata overnemen en versterken. Het is essentieel om representatieve datasets te gebruiken en te waken voor onbewuste vooroordelen in de data die tot onethische of discriminerende resultaten kunnen leiden.
* **Voorbeeld:** Een gezichtsherkenningsmodel getraind op een dataset met overwegend witte mannen kan minder goed presteren op vrouwen of mensen met een andere etniciteit.
* **Angst:** Hoewel er reële zorgen zijn over AI, is het belangrijk om niet te bezwijken voor angst en de technologie rationeel te benaderen, rekening houdend met zowel de voordelen als de risico's.
> **Tip:** Een diverse trainingsdataset en een rigoureus validatieproces met een onafhankelijk team zijn cruciaal om bias te minimaliseren.
### 2.4 Wiskundige basis en conclusie
LLM's zijn fundamenteel gebaseerd op wiskunde en statistiek. Hoewel de modellen complex zijn, is er geen 'ziel' of bewustzijn aanwezig; ze zijn een product van geavanceerde wiskundige modellen.
* **Wiskunde is de kern:** De kern van AI, inclusief LLM's, is wiskunde. Modellen zoals die voor de prijs van brood tonen aan hoe lineaire en polynomiale regressie kunnen worden gebruikt om relaties te modelleren.
* **LLM's zijn wiskundige tools:** Ondanks hun indrukwekkende capaciteiten, zijn LLM's geavanceerde wiskundige gereedschappen.
Het is belangrijk om de kracht van deze technologie te erkennen, maar ook alert te zijn op de onvolkomenheden, ethische implicaties, energieverbruik, en potentiële misbruik. Een gebalanceerde en verantwoorde benadering is essentieel om de voordelen van AI te maximaliseren en de risico's te beperken.
---
# Bouwen en draaien van generatieve AI-modellen
Dit gedeelte behandelt de kosten, de benodigde middelen en de energieverbruikseisen die gepaard gaan met het trainen en uitvoeren van generatieve AI-modellen.
## 3.1 Kosten en benodigde middelen voor training en inferentie
Het bouwen en draaien van generatieve AI-modellen, met name Large Language Models (LLM's), vereist aanzienlijke computationele middelen en brengt hoge kosten met zich mee.
### 3.1.1 Kosten voor het bouwen (trainen) van modellen
Het trainingsproces van een geavanceerd model, zoals LLAMA3, is extreem resource-intensief. Meta's LLAMA3-project vereiste bijvoorbeeld drie maanden training op een cluster van 24.000 NVIDIA H100 GPU's.
* **Hardwarekosten:** Eén NVIDIA H100 GPU kost ongeveer 20.000 euro en verbruikt ongeveer 700 watt. Voor het LLAMA3-project bedroegen de infrastructuurkosten alleen al circa 75 miljoen euro.
* **Energieverbruik:** Het dagelijkse energieverbruik van het LLAMA3-trainingsproces werd geschat op ongeveer 550 megawattuur, wat vergelijkbaar is met het energieverbruik van 75.000 mensen in de regio Kortrijk.
### 3.1.2 Kosten voor het draaien (inferentie) van modellen
Ook het uitvoeren van getrainde modellen, bekend als inferentie, is kostbaar. OpenAI's gebruik van generatieve AI-modellen vereist een cluster van 30.000 NVIDIA H100 GPU's.
* **Hardwarekosten:** De geschatte infrastructuurkosten voor deze setup bedragen ongeveer 85 miljoen euro.
* **Energieverbruik:** Het dagelijkse energieverbruik voor inferentie wordt geschat op 615 megawattuur, wat overeenkomt met het verbruik van 110.000 mensen in de regio Brugge.
## 3.2 Technische uitdagingen bij generatieve AI
Naast de kosten zijn er diverse technische uitdagingen verbonden aan het ontwikkelen en implementeren van generatieve AI-modellen.
### 3.2.1 Nauwkeurigheid van algoritmen
Het waarborgen van de nauwkeurigheid van de output van AI-modellen blijft een uitdaging. Modellen moeten in staat zijn om correcte en relevante resultaten te genereren in diverse scenario's, zoals het beschrijven van afbeeldingen of het herkennen van objecten.
### 3.2.2 Energieverbruik
Zoals eerder benadrukt, is het hoge energieverbruik een significant probleem, zowel voor training als voor inferentie. Het vinden van energie-efficiëntere methoden en hardware is cruciaal voor duurzame inzetbaarheid.
### 3.2.3 Gecentraliseerde versus gedistribueerde intelligentie
Het beheer en de schaalbaarheid van AI-modellen kunnen complex worden. Het organiseren van intelligentie in gedistribueerde systemen brengt uitdagingen met zich mee op het gebied van communicatie, synchronisatie en fouttolerantie.
### 3.2.4 Controle behouden
Zorgen dat het AI-model zich gedraagt zoals verwacht en binnen de gestelde grenzen blijft, is essentieel. Dit omvat het voorkomen van ongewenst of onvoorspelbaar gedrag.
### 3.2.5 Irrationeel gedrag
AI-modellen kunnen soms gedrag vertonen dat als irrationeel kan worden beschouwd, wat kan leiden tot onverwachte of ongewenste uitkomsten.
## 3.3 Mogelijke valkuilen en risico's
Bij de implementatie van generatieve AI-modellen zijn er meerdere valkuilen waar organisaties en ontwikkelaars zich bewust van moeten zijn.
### 3.3.1 Change management
Het integreren van AI in bestaande processen vereist een goed change management. Medewerkers moeten getraind worden en de organisatie moet zich aanpassen aan de nieuwe mogelijkheden en workflows.
### 3.3.2 Misbruik
Generatieve AI-technologie kan voor schadelijke doeleinden worden misbruikt, zoals het creëren van desinformatie, deepfakes of het automatiseren van cyberaanvallen.
### 3.3.3 Bias (vooroordelen)
AI-modellen kunnen vooroordelen overnemen uit de data waarop ze getraind zijn. Dit kan leiden tot discriminerende of oneerlijke resultaten.
* **Representatieve datasets:** Het is cruciaal om datasets te gebruiken die de populatie waarvoor het model bedoeld is, adequaat weerspiegelen.
* **Historische data:** Als historische data zelf vooringenomen is, zal het model deze vooroordelen reproduceren. Dit kan leiden tot onethische uitkomsten.
* **Mitigatie:** Het aanpakken van bias vereist een zorgvuldige selectie van data, validatiestrategieën en het bewustzijn van de oorsprong van deze vooroordelen. Diverse teams en de inzet van domeinspecifieke kennis kunnen helpen bias te identificeren en te verminderen.
### 3.3.4 Angst en wantrouwen
Er kan angst en wantrouwen bestaan rondom nieuwe technologieën, met name op het gebied van autonomie (bijvoorbeeld zelfrijdende auto's). Het is belangrijk om feitelijke informatie te verstrekken en de voordelen af te wegen tegen de risico's, met de nadruk op correct gebruik van de technologie. Hoewel traditioneel autoverkeer aanzienlijk meer slachtoffers eist, is het belangrijk om vertrouwen te hebben in de technologische vooruitgang, mits deze correct wordt ingezet.
## 3.4 Samenvatting van belangrijke punten
* AI is fundamenteel wiskunde.
* LLM's zijn krachtige wiskundige instrumenten zonder bewustzijn of ziel.
* Generatieve AI is een krachtige technologie met inherente imperfecties.
* Wees bewust van ethische overwegingen, energieverbruik, misbruik en potentiële gevaren.
* Angst mag de adoptie van de technologie niet verlammen, maar correct en verantwoord gebruik is essentieel.
---
# Technische uitdagingen en valkuilen van AI
Deze sectie behandelt de significante technische uitdagingen en potentiële valkuilen die gepaard gaan met de ontwikkeling en implementatie van kunstmatige intelligentie.
### 4.1 Technische uitdagingen
#### 4.1.1 Nauwkeurigheid van algoritmen
Het waarborgen van de nauwkeurigheid van AI-algoritmen is een fundamentele uitdaging. Dit wordt geïllustreerd aan de hand van voorbeelden zoals beeldherkenning, waarbij de prestaties afhankelijk zijn van de kwaliteit en representativiteit van de trainingsdata. Een algoritme dat getraind is op afbeeldingen van een zebra in een grasveld kan moeite hebben met het correct identificeren van andere objecten, zoals een man voor een winkel met een klok, indien de trainingsdataset niet divers genoeg is.
#### 4.1.2 Energieverbruik
Het energieverbruik van AI-modellen, met name grote taalmodellen (LLM's), is aanzienlijk. Het trainen van modellen zoals LLAMA 3 vereist maanden op krachtige GPU-clusters en resulteert in een dagelijks energieverbruik dat vergelijkbaar is met dat van tienduizenden huishoudens. Het draaien van deze modellen (inferentie) is eveneens energie-intensief.
> **Tip:** Het is cruciaal om rekening te houden met het energieverbruik bij het ontwerpen en implementeren van AI-oplossingen, vooral gezien de potentiële milieu-impact.
#### 4.1.3 Gedistribueerde intelligentie
De uitdagingen met betrekking tot gedistribueerde intelligentie worden benoemd, hoewel de specifieke details hierover beperkt zijn in de verstrekte tekst. Dit omvat het coördineren en laten samenwerken van meerdere AI-agenten of systemen die verspreid zijn over verschillende locaties of machines.
#### 4.1.4 Controle en irrationeel gedrag
Een belangrijke uitdaging is het behouden van controle over AI-systemen, met name wanneer deze complexe beslissingen nemen of zich op onvoorspelbare manieren gedragen. Het concept van "irrationeel gedrag" van AI wordt genoemd, wat impliceert dat de systemen soms op manieren kunnen reageren die niet direct logisch of wenselijk zijn vanuit menselijk perspectief.
> **Tip:** Het ontwikkelen van robuuste mechanismen voor toezicht en interventie is essentieel om te allen tijde controle te behouden over AI-systemen.
### 4.2 Valkuilen van AI
#### 4.2.1 Bias
Bias in AI-systemen is een significant probleem dat voortkomt uit de trainingsdata. Als een dataset niet representatief is voor de populatie, kan het AI-model bevooroordeelde resultaten produceren.
* **Representativiteit van datasets:** Een gezichtsherkenningssysteem dat is getraind met een dataset die voornamelijk witte mannen bevat, zal waarschijnlijk minder goed presteren op andere demografische groepen.
* **Historische data en oneerlijkheid:** Als trainingsdata historische onrechtvaardigheden weerspiegelen, kan het AI-model deze oneerlijkheden reproduceren en versterken. Dit kan leiden tot onethische uitkomsten en problemen op het gebied van risico en ethiek.
> **Tip:** Het is essentieel om te streven naar representatieve datasets en kritisch te evalueren of historische data ethisch verantwoord zijn om te gebruiken.
#### 4.2.2 Misbruik
Het potentieel voor misbruik van AI-technologie vormt een ernstige bedreiging. Dit kan variëren van kwaadwillige toepassingen tot onbedoelde negatieve gevolgen door onjuist gebruik.
#### 4.2.3 Verandermanagement
Het implementeren van AI in bestaande processen en organisaties brengt uitdagingen met zich mee op het gebied van verandermanagement. Dit vereist dat iedereen in een team een basisbegrip van AI heeft en hoe deze ethisch en wettelijk kan worden ingezet. Het inschakelen van expertise die zowel technologische kennis als domeinspecifieke inzichten combineert, is hierbij van belang.
#### 4.2.4 Angst en acceptatie
Er kan angst bestaan rondom AI, met name bij technologieën zoals zelfrijdende auto's. Incidenten met autonome voertuigen kunnen leiden tot een negatieve perceptie, zelfs als traditionele voertuigen statistisch gezien gevaarlijker zijn. Het is belangrijk om feiten te presenteren en de voordelen van technologie te benadrukken, terwijl ook de beperkingen worden erkend en men leert hoe de technologie correct te gebruiken.
### 4.3 Modelvalidatie en mitigatie van valkuilen
Om de valkuilen van AI te mitigeren, zijn verschillende actiepunten en methoden voor modelvalidatie essentieel:
* **Begrip en ethische implementatie:** Zorg ervoor dat alle teamleden de basisprincipes van AI begrijpen en hoe deze ethisch en wettelijk correct te implementeren.
* **Deskundigheid inschakelen:** Breng mensen met diepgaande technische kennis en kennis van de bedrijfsspecifieke unieke verkoopargumenten (USP's) aan boord.
* **Modellering en validatie:**
* Gebruik verschillende soorten modellen.
* Valideer modellen door een apart team om modelleur- en supervisorbias te elimineren.
* Gebruik gespecialiseerde validatietools.
* Zorg voor een divers team, met een mix van AI-kennis en domeinspecifieke kennis, en houd rekening met verschillen in achtergrond en denkwijze.
* **Testen en evolutie van modellen:**
* Test huidige modellen en hun evolutie in de loop van de tijd.
* Monitor bias, prestaties en veranderingen in databronnen en populaties.
* Gebruik een validatieproces en model drift dashboards om de actuele staat van het model te beoordelen.
> **Voorbeeld:** Het testen van een AI-model voor kredietbeoordeling op verschillende demografische groepen om verborgen bias te identificeren en te corrigeren.
>
> **Tip:** Continue monitoring en validatie zijn cruciaal, omdat AI-modellen kunnen "driften" (hun prestaties kunnen verslechteren) na verloop van tijd door veranderingen in de data of de omgeving.
---
# Innovatie en controle met AI
Dit onderwerp behandelt de uitdagingen en strategieën voor het innoveren met kunstmatige intelligentie (AI) terwijl tegelijkertijd controle en ethische overwegingen worden gewaarborgd, met specifieke aandacht voor actiepunten en valkuilen.
### 5.1 De aard van AI en LLM's
AI wordt in essentie beschouwd als een wiskundige formule die patronen kan leren en genereren. Grote taalmodellen (LLM's) functioneren door het voorspellen van het volgende token (woord of woorddeel) in een reeks, gebaseerd op probabilistische modellen.
#### 5.1.1 Hoe LLM's werken
Het proces van het genereren van tekst met LLM's omvat doorgaans de volgende stappen:
1. **Tokenisatie:** Zinnen worden opgesplitst in kleinere eenheden, tokens.
2. **Codering:** Tokens worden omgezet in numerieke vectoren in een meerdimensionale ruimte (embedding). Dit gebeurt met behulp van een opslagmatrix $V \times D$, waar $V$ de woordenschatgrootte is en $D$ de dimensionaliteit van de embedding.
3. **Aandacht (Attention):** Een mechanisme dat de context van woorden in de zin meeneemt door hun relatieve posities in de embedding-ruimte aan te passen. Dit helpt bij het creëren van meer correcte en contextueel relevante representaties.
4. **Voorspelling:** De gecodeerde en gecontextualiseerde informatie wordt gebruikt door een neuraal netwerk om het meest waarschijnlijke volgende token te voorspellen.
> **Tip:** LLM's zijn krachtige wiskundige tools die patronen herkennen en genereren; ze beschikken niet over bewustzijn of emoties.
#### 5.1.2 Bouwen en draaien van Generatieve AI-modellen
Het bouwen en trainen van grote AI-modellen, zoals LLAMA3, vereist aanzienlijke rekenkracht en tijd. Dit omvat het uitvoeren van vele matrixvermenigvuldigingen. Het draaien van deze modellen, ook wel inferentie genoemd, vereist eveneens aanzienlijke middelen, met name op het gebied van energieverbruik.
### 5.2 Technische uitdagingen bij AI
Bij de implementatie van AI komen diverse technische uitdagingen kijken:
* **Nauwkeurigheid van algoritmes:** Zorgen dat de AI-modellen correcte en betrouwbare output genereren in diverse situaties.
* **Energieverbruik:** De aanzienlijke hoeveelheid energie die nodig is voor zowel training als inferentie van AI-modellen is een belangrijke factor.
* **Gedistribueerde intelligentie:** Het effectief coördineren en beheren van AI-systemen die over meerdere locaties of apparaten verspreid zijn.
* **Controle behouden:** Zorgen dat AI-systemen zich gedragen zoals bedoeld en binnen vooraf gedefinieerde grenzen opereren.
* **Irrationeel gedrag:** Het potentieel van AI-systemen om onverwacht of niet-optimaal gedrag te vertonen, zelfs bij correcte input.
### 5.3 Valkuilen en risico's
Naast technische uitdagingen zijn er diverse valkuilen en risico's die overwogen moeten worden:
#### 5.3.1 Verandermanagement
De introductie van AI vereist zorgvuldig verandermanagement binnen organisaties. Het negeren van dit aspect kan leiden tot weerstand en suboptimale implementatie.
#### 5.3.2 Misbruik
AI-technologie kan voor kwaadwillige doeleinden worden ingezet. Dit vereist waakzaamheid en beleid om dergelijk misbruik te voorkomen.
#### 5.3.3 Bias
AI-modellen kunnen onbedoeld bias vertonen, vaak als gevolg van bevooroordeelde trainingsdata.
* **Oorzaken van bias:**
* **Niet-representatieve datasets:** Trainingsdata die niet de volledige populatie of de te verwachten realiteit weerspiegelen.
* **Historische ongelijkheid:** Gebruik van data die historische ongelijkheden reflecteert, wat kan leiden tot discriminerende uitkomsten.
* **Gevolgen:** Modellen kunnen onethische of oneerlijke resultaten produceren, wat leidt tot problemen op het gebied van risico en ethiek.
> **Tip:** Het gebruik van een representatieve dataset die de populatie nauwkeurig weerspiegelt, is cruciaal om bias te minimaliseren.
#### 5.3.4 Angst
Er kan angst ontstaan rondom AI, bijvoorbeeld door incidenten met autonome voertuigen. Het is belangrijk om de feiten te wegen en de risico's van AI te vergelijken met die van bestaande technologieën. Traditionele auto's veroorzaken bijvoorbeeld jaarlijks miljoenen doden en verwondingen wereldwijd.
### 5.4 Actiepunten voor innovatie en controle
Om succesvol te innoveren met AI en tegelijkertijd controle te behouden, zijn de volgende actiepunten essentieel:
* **AI-geletterdheid:** Zorg ervoor dat iedereen in het team een basisbegrip heeft van AI en hoe deze ethisch en conform wetgeving kan worden ingezet.
* **Technologie en USP's:** Integreer expertise in de technologie met diepgaande kennis van de unieke verkoopargumenten (USP's) van het bedrijf, om te voorkomen dat de technologie de USP's devalueert.
* **Modellering en validatie:**
* Gebruik verschillende typen modellen.
* Valideer modellen door een apart team om modelleur- of supervisorbias te elimineren.
* Maak gebruik van gespecialiseerde validatietools.
* **Diversiteit in teams:** Zorg voor diverse teams met een mix van AI-kennis en domeinspecifieke kennis, inclusief verschillende achtergronden (bijvoorbeeld man/vrouw, verschillende opleidingsachtergronden).
* **Modelgedrag testen:**
* Test het huidige model en de evolutie ervan in de tijd.
* Houd rekening met veranderingen in de databronnen en de populatie.
* Gebruik een continu validatieproces met dashboards om modeldrift te monitoren.
> **Voorbeeld:** Een team dat een AI-systeem voor gezichtsherkenning ontwikkelt, moet ervoor zorgen dat de trainingsdata een diverse groep personen bevat, in plaats van een dataset die overwegend witte mannen bevat.
### 5.5 Conclusie: Waar te onthouden
* AI is krachtige technologie die gebaseerd is op wiskunde.
* LLM's zijn wiskundige tools zonder bewustzijn.
* Wees bewust van de onvolkomenheden van AI, zoals bias, energieverbruik en potentieel misbruik.
* Wees niet bang voor AI, maar gebruik het correct en met inachtneming van ethische principes.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Kunstmatige Intelligentie (AI) | Een tak van computerwetenschappen die zich richt op het creëren van systemen die taken kunnen uitvoeren waarvoor normaal gesproken menselijke intelligentie nodig is, zoals leren, probleemoplossing en besluitvorming. |
| Machine Learning (ML) | Een subset van AI die systemen in staat stelt te leren van data zonder expliciet geprogrammeerd te zijn, door patronen te identificeren en voorspellingen te doen op basis van die patronen. |
| Wiskundige Functie | Een relatie tussen een verzameling invoerwaarden en een verzameling uitvoerwaarden, waarbij aan elke invoer precies één uitvoer wordt toegewezen. In AI worden deze gebruikt om complexe relaties in data te modelleren. |
| Polynoom | Een wiskundige uitdrukking die bestaat uit variabelen en coëfficiënten, en waarbij de operaties optellen, aftrekken, vermenigvuldigen en niet-negatieve gehele exponenten van variabelen zijn. |
| Neuronen | De fundamentele verwerkingseenheden in kunstmatige neurale netwerken, geïnspireerd door de biologische neuronen in de hersenen, die signalen ontvangen, verwerken en doorgeven. |
| SOM (Self-Organizing Map) | Een type kunstmatig neuraal netwerk dat wordt gebruikt voor ongecontroleerde leren en dat een laag-dimensionale (typisch tweedimensionale) representatie van de invoerruimte produceert, waarbij vergelijkbare inputs op nabijgelegen locaties worden geplaatst. |
| Regressie | Een statistische methode die wordt gebruikt om de relatie tussen een afhankelijke variabele en een of meer onafhankelijke variabelen te modelleren en te analyseren. |
| Grote Taalmodellen (LLM's) | Krachtige AI-modellen die zijn getraind op enorme hoeveelheden tekstdata en die natuurlijke taal kunnen begrijpen, genereren en verwerken, zoals het schrijven van teksten, samenvatten en vertalen. |
| Token | Een basiseenheid van tekst, zoals een woord, een deel van een woord of een leesteken, die door een LLM wordt gebruikt voor verwerking en analyse. |
| Tokenisatie | Het proces van het opdelen van een tekst in tokens. |
| Embedding | Een techniek om discrete entiteiten, zoals woorden, te representeren als dichte vectoren in een continue vectorruimte, waarbij semantische relaties tussen de entiteiten worden vastgelegd door hun vectorposities. |
| Woordenboek (Vocabulary) | De set van alle unieke tokens die een AI-model kan herkennen en verwerken. |
| Dimensionaliteit | Het aantal dimensies in een vectorruimte, wat aangeeft hoeveel onafhankelijke kenmerken of eigenschappen een entiteit kan hebben. |
| Neuraal Netwerk | Een computermodel geïnspireerd op de structuur en functie van biologische hersenen, bestaande uit onderling verbonden knooppunten (neuronen) die informatie verwerken en leren door aanpassingen in de verbindingen. |
| Context | De relevante informatie die omringt of voorafgaat aan een bepaald stuk tekst, die essentieel is voor het begrijpen van de betekenis en het genereren van passende antwoorden. |
| Attentie (Attention Mechanism) | Een mechanisme in neurale netwerken, vooral gebruikt in LLM's, dat het model in staat stelt om zich te concentreren op de meest relevante delen van de invoer bij het verwerken van informatie of het genereren van uitvoer. |
| Generatieve AI | AI-systemen die nieuwe content kunnen creëren, zoals tekst, afbeeldingen, muziek of code, in plaats van alleen data te analyseren of te classificeren. |
| Matrixvermenigvuldiging | Een fundamentele lineaire algebra-operatie die wordt gebruikt in veel machine learning-algoritmen, waarbij twee matrices worden gecombineerd om een derde matrix te produceren. |
| Training (van een model) | Het proces waarbij een AI-model wordt blootgesteld aan data om zijn parameters aan te passen en zo te leren patronen te herkennen en taken uit te voeren. |
| Inferentie (van een model) | Het proces waarbij een getraind AI-model wordt gebruikt om voorspellingen te doen of beslissingen te nemen op basis van nieuwe, ongeziene data. |
| Bias | Systematische afwijking of vooroordeel in data of algoritmen, die kan leiden tot oneerlijke of discriminerende resultaten. |
| Ethiek (in AI) | De studie van morele principes en waarden die van toepassing zijn op de ontwikkeling en het gebruik van AI-systemen, met een focus op eerlijkheid, verantwoordelijkheid en het voorkomen van schade. |