Cover
Comença ara de franc sv Statistiek voor de gezondheidswetenschappen theorie (2).pdf
Summary
# Vergelijking van statistische methoden en modellering
Dit onderwerp behandelt de methoden voor het omgaan met confounders en effectmodificatie, en de opbouw en beoordeling van predictiemodellen.
### 1.1 Omgaan met confounders en effectmodificatie
Bij het analyseren van de relatie tussen een centrale determinant en een uitkomstvariabele, is het cruciaal om rekening te houden met mogelijke verstorende factoren.
#### 1.1.1 Effectmodificatie nagaan
Effectmodificatie gaat na of de relatie tussen de centrale determinant en de uitkomstvariabele anders verloopt door de aanwezigheid van een effectmodificator [41](#page=41).
* **Determinanten voor effectmodificatie:** In theorie kunnen alle determinanten getest worden, maar in de praktijk wordt dit beperkt tot een select aantal variabelen [41](#page=41).
* **Stratificatie:** De mate van stratificatie hangt af van de specifieke context en het aantal variabelen dat wordt onderzocht [41](#page=41).
#### 1.1.2 Confounding nagaan
Confounding kan op verschillende manieren worden aangepakt:
* **A) Simultane toevoeging van confounders:** Een set van mogelijke confounders wordt in één keer toegevoegd aan het model om te observeren hoe de oorspronkelijke relatie tussen de centrale determinant en de uitkomstvariabele verandert [41](#page=41).
* **B) One-by-one testen van confounders:** Confounders worden één voor één getest om een gedetailleerder beeld te krijgen. Een veelgebruikte vuistregel is dat als de regressiecoëfficiënt met meer dan 10 procent verandert na het toevoegen van een variabele, deze als een confounder wordt beschouwd [41](#page=41).
* **C) Stepwise adjustments:** Groepen van variabelen die inhoudelijk samenhangen, worden stapsgewijs toegevoegd [41](#page=41).
**Methode van confounding nagaan:**
* Een verandering van 10% in de regressiecoëfficiënt na het opnemen van een variabele in het model leidt tot de beslissing om deze variabele op te nemen [41](#page=41).
* Het controleren van de p-waarde van de oorspronkelijke relatie en hoe deze verandert in het gecorrigeerde model, helpt bij het bepalen van confounding [41](#page=41).
#### 1.1.3 Meervoudige regressiemodellen
Vaak worden mogelijke confounders standaard opgenomen in een regressiemodel. Dit heeft als doel:
* Het aantonen van het onafhankelijke effect van de centrale determinant [41](#page=41).
* Het schatten van onafhankelijke effecten: de relatie van determinant X tot uitkomstvariabele U, onafhankelijk van andere determinanten in het model [41](#page=41).
* Confounders worden constant gehouden om de relatie tussen de centrale determinant en de uitkomstvariabele te beoordelen onder deze constante condities [41](#page=41).
**Volgorde van analyse:**
* In de praktijk wordt confounding vaak eerst nagegaan, waarna effectmodificatie wordt onderzocht. Echter, het is ook gangbaar om eerst effectmodificatie op een beperkt aantal variabelen te onderzoeken en vervolgens groepen apart te onderzoeken op mogelijke confounders [42](#page=42).
* De ruwe analyse wordt vergeleken met de gecorrigeerde analyse [42](#page=42).
### 1.2 Opbouw van predictiemodellen
Predictiemodellen worden opgebouwd om een continue uitkomstvariabele zo goed mogelijk te voorspellen aan de hand van een reeks variabelen. Dit kan handmatig of via software zoals SPSS [42](#page=42).
#### 1.2.1 Selectieprocedures voor predictiemodellen
Er zijn verschillende procedures voor het selecteren van variabelen in een predictiemodel:
* **A) Backward selectieprocedure:**
* Men start met een ruim model en verwijdert stapsgewijs variabelen die het minste bijdragen (hoogste p-waarde) aan de relatie [42](#page=42).
* Een veelgebruikte grens voor verwijdering is een p-waarde van 0.10 [42](#page=42).
* **B) Forward selectieprocedure:**
* Alle mogelijke determinanten worden apart bekeken en de beste voorspeller met de laagste p-waarde wordt geselecteerd voor het basismodel [42](#page=42).
* Vervolgens worden alle overige determinanten apart toegevoegd aan het basismodel en wordt de beste voorspeller voor het nieuwe basismodel geselecteerd [42](#page=42).
* Dit proces wordt herhaald totdat er geen voorspellers meer opduiken, met een grens van een p-waarde van 0.10 [42](#page=42).
#### 1.2.2 Kwaliteit van predictiemodellen
De algemene kwaliteit van een finaal predictiemodel wordt beoordeeld op basis van hoe goed het de uitkomstvariabele voorspelt [42](#page=42).
* **Verklarende variantie:** De verklaarde variantie (R-kwadraat) is een indicatie voor de totale voorspellingskwaliteit. Het is belangrijk om de **adjusted R-square** te gebruiken in plaats van de standaard R-square [42](#page=42).
* `> **Voorbeeld:** Een adjusted R-square van 0.474 betekent dat 47 procent van de variatie in de uitkomstvariabele verklaard kan worden door de lineaire relatie met de determinanten in het model.` [42](#page=42).
### 1.3 Toetsen en schatten in statistische analyse
Toetsen en schatten zijn complementaire processen in statistische analyse [44](#page=44).
#### 1.3.1 Toetsen
* Toetsen geeft een idee of de nulhypothese verworpen kan worden en of een resultaat significant is [44](#page=44).
* Het doel is om te berekenen hoeveel evidentie er is tegen de nulhypothese. Dit gebeurt door een statistische grootheid (bv. t-waarde) te berekenen en de bijbehorende p-waarde te bepalen aan de hand van een tabel [44](#page=44).
#### 1.3.2 Schatten
* Schatten richt zich op de betrouwbaarheid en de effectgrootte van een schatting [44](#page=44).
* Dit wordt gedaan door het berekenen van een betrouwbaarheidsinterval rond de puntschatting. De berekening van dit interval vereist de t-waarde, die uit de tabel wordt afgeleid [44](#page=44).
### 1.4 Overzicht van statistische tests (impliciet uit de vragen)
De vragen in het document impliceren kennis van verschillende statistische tests:
* **Gepaarde t-test:** Geschikt wanneer de verschillen tussen gepaarde observaties normaal verdeeld zijn. Het is een parametrische test voor continue uitkomstvariabelen waarbij dezelfde variabele tweemaal bij dezelfde personen wordt gemeten. De nulhypothese betreft de doelpopulatie, niet de steekproef [42](#page=42).
* **ANOVA test:** Veronderstelt dat de uitkomstvariabele normaal verdeeld is in elk van de te vergelijken groepen en vereist gelijke varianties (homogeniteit van varianties). ANOVA vergelijkt gemiddelden tussen groepen. Het is een parametrische test [43](#page=43).
* **Betrouwbaarheidsinterval (BI):** Als een 95% BI rond een steekproefgemiddelde een theoretische waarde µ1 omvat, betekent dit dat er 95% zekerheid is dat het werkelijke populatiegemiddelde binnen de grenzen ligt, of een kans van 5% dat het daarbuiten valt. Het steekproefgemiddelde ligt altijd binnen het betrouwbaarheidsinterval [43](#page=43).
* **Independent-sample of two-sample t-test:** Veronderstelt dat de waarden in elke van de twee te vergelijken groepen onafhankelijk zijn. Deze test vergelijkt één variabele tussen twee onafhankelijke groepen [43](#page=43).
* **Mann-Whitney U test:** Een non-parametrische test gebaseerd op de rangorde van observaties in twee te vergelijken groepen. Het vereist geen normaliteitsveronderstelling en is daardoor minder krachtig dan parametrische testen [43](#page=43).
* **Kruskal-wallis test:** Een non-parametrische test die een uitbreiding is van de Mann-Whitney U test. Het wordt gebruikt om na te gaan of de uitkomstvariabele in de doelpopulatie gelijk is aan die van gelijke groepen [43](#page=43).
* **Regressielijn (slope/helling):** De helling van de regressielijn tussen een verklarende variabele x en een afhankelijke variabele y vertegenwoordigt de gemiddelde voorspelde verandering in Y voor een eenheid stijging in x. Het is synoniem aan de regressiecoëfficiënt en de gradiënt van de regressielijn. De helling kan negatief zijn. De regressiecoëfficiënt ligt altijd binnen de grenzen van het 95% betrouwbaarheidsinterval [43](#page=43).
* **Partiële regressiecoëfficiënt (bi) in meervoudige lineaire regressie:** Geeft de gemiddelde verwachte verandering weer in de afhankelijke variabele wanneer de covariaat i met één eenheid stijgt, en alle andere covariaten constant blijven. Het beschrijft de lineaire relatie van de covariaat i met de afhankelijke variabele, onafhankelijk van de andere covariaten in het model. Dit maakt het mogelijk om meerdere determinanten tegelijkertijd te vergelijken [43](#page=43) [44](#page=44).
---
# Analyse van overlevingsdata
Overlevingsanalyse is een statistische methode die de tijd tot het optreden van een bepaalde uitkomst onderzoekt. Hoewel oorspronkelijk ontwikkeld voor sterfteonderzoek, kan het ook worden toegepast op andere gebeurtenissen zoals morbiditeit of herstel [60](#page=60) [61](#page=61).
### 2.1 Grondbeginselen van overlevingsanalyse
* **Kernconcept:** Overlevingsanalyse focust niet primair op het al dan niet optreden van een dichotome uitkomst, maar op de *tijd* die verstrijkt totdat deze uitkomst zich voordoet [60](#page=60) [61](#page=61).
* **Toepassing:** Het doel is te onderzoeken of bepaalde groepen of determinanten leiden tot een vroegere of latere intrede van de uitkomst, zoals sterfte [60](#page=60).
* **Censoring:** Dit fenomeen treedt op wanneer deelnemers de studie niet voltooien, de uitkomst niet bereiken aan het einde van de follow-up, of de studie voortijdig verlaten [60](#page=60).
### 2.2 Kaplan-Meier-overlevingscurve
De Kaplan-Meier-overlevingscurve is een grafische weergave die de overlevingsgegevens op een visuele manier weergeeft [60](#page=60).
* **Werking:** De follow-up tijd wordt opgedeeld in segmenten. Per segment wordt de kans op overleven berekend, gegeven dat de persoon aan het begin van die periode nog in leven is [60](#page=60).
* **Resultaat:** Dit resulteert in een trapvormige curve die de cumulatieve overlevingskans weergeeft [60](#page=60).
* **Markeringen:** Zwarte vierkantjes op de curve duiden op gecensureerde gegevens, waarbij individuen niet langer deelnemen aan de studie [60](#page=60).
### 2.3 Log-ranktoets
De log-ranktoets wordt gebruikt om overlevingscurves te vergelijken [60](#page=60) [61](#page=61).
* **Toepassing:** Geschikt voor het vergelijken van twee of meerdere groepen [60](#page=60) [61](#page=61).
* **Nulhypothese:** De twee (of meer) curves vallen volledig samen [60](#page=60).
* **Uitkomst:** De toets berekent de mate van evidentie tegen de nulhypothese en levert een p-waarde op die aangeeft of er een significant verschil is tussen de overlevingscurves. Het is een algemene toets en geeft geen effectmaat [60](#page=60) [61](#page=61).
### 2.4 Cox-regressieanalyse
De Cox-regressieanalyse is een regressiemodel dat analoog is aan logistische regressie, maar specifiek is ontworpen voor overlevingsdata [60](#page=60) [61](#page=61).
* **Toepassing:** Vereist prospectieve gegevens en een follow-up periode [60](#page=60) [61](#page=61).
* **Modellering:** In plaats van de dichotome uitkomst zelf, modelleert de Cox-regressie de *tijd* tot het optreden van die uitkomst [61](#page=61).
* **Uitkomstvariabele transformatie:** De natuurlijke logaritme van de hazard (het inverse van overleving) wordt gebruikt om een lineaire functie mogelijk te maken [62](#page=62).
#### 2.4.1 Enkelvoudige en meervoudige Cox-regressie
* **Enkelvoudige analyse (simple cox analysis):** Test één determinant in het model [62](#page=62).
* **Meervoudige analyse (multiple cox analysis):** Modelleert meerdere determinanten tegelijkertijd [62](#page=62).
* **Determinanttypen:** Geschikt voor categorische, dichotome, meervoudig categorische en continue determinanten [62](#page=62).
#### 2.4.2 Hazard Ratio
De hazard ratio (HR) is de effectmaat in de Cox-regressieanalyse [62](#page=62).
* **Interpretatie:** Het kwantificeert de kans op de uitkomstvariabele op elk tijdstip [62](#page=62).
* Een HR van 1 betekent geen effect [62](#page=62).
* Een HR groter dan 1 duidt op een grotere kans op de uitkomst [63](#page=63).
* Een HR kleiner dan 1 duidt op een lagere kans op de uitkomst [63](#page=63).
* **Berekening (voor dichotome determinant):** De HR drukt het verband uit tussen de determinant en de uitkomstvariabele. Bijvoorbeeld, een HR van 2.6 betekent 2.6 keer meer kans op herstel in de interventiegroep vergeleken met de controlegroep, berekend op basis van het gemiddelde [62](#page=62).
* **Voorwaarde voor constante HR:** De hazard ratio moet constant blijven over de tijd (proportional hazards assumption). Dit kan getest worden door de continue predictor te categoriseren [62](#page=62) [63](#page=63).
#### 2.4.3 Output van de Cox-regressieanalyse
De output verschilt enigszins van standaardregressieanalyses, met name door het ontbreken van een intercept [62](#page=62).
* **Sig (p-waarde):** Afgeleid van de Wald-statistiek, wordt gebruikt om de significantie van het resultaat te beoordelen [62](#page=62).
* **Betrouwbaarheidsinterval:** Als 1 buiten het betrouwbaarheidsinterval ligt, is het resultaat significant [62](#page=62).
#### 2.4.4 Schattingsmethode
* **Maximum Likelihood:** Parameters worden geschat op basis van maximum likelihood [62](#page=62).
* **Likelihood Ratio-toets:** Deze toets wordt meegeleverd in de output. Het verschil tussen twee modellen (bijvoorbeeld een nulmodel en een model met een predictor) wordt geëvalueerd [62](#page=62) [63](#page=63).
* De toets volgt een chi-kwadraatverdeling met vrijheidsgraden gelijk aan het verschil in het aantal parameters tussen de vergeleken modellen [63](#page=63).
#### 2.4.5 Omgaan met determinanten
* **Categorische determinanten:** Gebruik van dummycodering waarbij categorieën worden vergeleken met een referentiegroep [63](#page=63).
* **Continue determinanten:** Kunnen als zodanig worden ingevoerd. De hazard ratio wordt geïnterpreteerd als de verandering in hazard voor een stijging van één eenheid in de determinant. Soms wordt de determinant omgezet naar een groter aantal eenheden voor betere interpretatie [63](#page=63).
> **Tip:** De interpretatie van de hazard ratio voor een continue determinant veronderstelt een lineair verband, wat betekent dat de HR constant is, ongeacht de waarde van de determinant [63](#page=63).
* **Confounding en effectmodificatie:** Deze concepten zijn op dezelfde manier relevant als in eerdere analyses. Om confounding te testen, wordt een tweede analyse uitgevoerd waarbij de potentiële confounder als determinant wordt toegevoegd en de hazard ratio's van de ruwe en gecorrigeerde analyses worden vergeleken [63](#page=63).
---
# Hypothesen testen met theoretische kansverdelingen
Hypothesen testen met theoretische kansverdelingen stelt ons in staat om de plausibiliteit van een nulhypothese te evalueren aan de hand van steekproefgegevens door gebruik te maken van wiskundige modellen die de kans op waargenomen resultaten onder de nulhypothese kwantificeren [13](#page=13).
### 3.1 Algemene principes van hypothesetesten
Het proces van hypothesetesten kent vijf hoofdfasen [13](#page=13):
1. **Formuleren van hypothesen:** Vanuit de onderzoeksvraag worden de nulhypothese ($H_0$) en de alternatieve hypothese ($H_a$) opgesteld [13](#page=13).
2. **Gegevensverzameling:** Data wordt verzameld uit een steekproef van individuen [13](#page=13).
3. **Berekenen van de teststatistiek:** Op basis van de steekproefgegevens wordt een teststatistiek (het steekproefresultaat) berekend [13](#page=13).
4. **Berekenen van een statistische grootheid:** Een statistische grootheid wordt berekend die de verhouding tot de nulhypothese weergeeft [13](#page=13).
5. **Afleiden van de p-waarde:** Op basis van de statistische grootheid wordt een p-waarde afgeleid [13](#page=13).
Een statistische test vergelijkt het steekproefresultaat met de nulhypothese. De teststatistiek, berekend op basis van het steekproefresultaat, geeft een indicatie van de hoeveelheid evidentie tegen de nulhypothese; een grotere teststatistiek duidt op minder compatibiliteit met $H_0$ en dus meer evidentie tegen $H_0$ [13](#page=13).
### 3.2 Theoretische kansverdelingen in hypothesetesten
Theoretische kansverdelingen zijn wiskundige modellen die het mogelijk maken om een bijbehorende p-waarde af te leiden voor de berekende teststatistieken. Deze verdelingen zijn gebaseerd op het principe van oneindige herhaling van steekproeftrekkingen, waarbij de steekproefschatting wordt beschouwd als een random variabele. Omdat in werkelijkheid niet meerdere keren een steekproef kan worden genomen, spreken we van een *theoretische* kansverdeling. De probabiliteitsdistributie wordt gebruikt om de p-waarde te vinden die overeenkomt met de teststatistiek [13](#page=13).
Enkele veelgebruikte theoretische kansverdelingen in de statistiek zijn [13](#page=13):
* **Z-distributie (Standaardnormale verdeling):** Gebruikt voor het schatten van gemiddelden van continue uitkomstvariabelen [13](#page=13) [14](#page=14).
* **T-distributie:** Een alternatieve verdeling voor het toetsen van gemiddelden, met name wanneer de populatiestandaarddeviatie onbekend is en de steekproefgrootte klein is.
* **Binomiale verdelingen:** Gebruikt voor dichotome uitkomstvariabelen.
#### 3.2.1 Probabiliteitsdistributie voor continue variabelen
Bij continue variabelen is de X-as van de probabiliteitsdistributie de teststatistiek. De Y-as representeert kansdichtheden, niet exacte kansen. Hoe verder een steekproefresultaat van het midden van de distributie ligt, hoe meer evidentie er is tegen de nulhypothese. Het gearceerde gebied, bijvoorbeeld het gebied voorbij een bepaalde teststatistiek (zoals X2), vertegenwoordigt de p-waarde. Deze p-waarde geeft de kans weer om een steekproefresultaat te bekomen dat even extreem of extremer is dan het waargenomen resultaat, áls de nulhypothese waar zou zijn [14](#page=14).
#### 3.2.2 De Z-verdeling (Standaardnormale verdeling)
De Z-verdeling is de standaardnormale kansverdeling en wordt gebruikt voor het toetsen van steekproefgemiddelden van continue uitkomstvariabelen. Het doel is om de teststatistiek te berekenen, die aangeeft hoe het onderzoeksresultaat zich verhoudt tot de nulhypothese. Deze toetsingsgrootheid, vaak aangeduid als 'Z', geeft een idee van de hoeveelheid evidentie tegen $H_0$, rekening houdend met de onzekerheid in de schatting [14](#page=14).
De formule voor de Z-toetsingsgrootheid kan worden weergegeven als:
$$Z = \frac{\bar{x} - \mu_0}{s/\sqrt{n}}$$
Hierbij is:
* $\bar{x}$ het waargenomen gemiddelde in de steekproef [15](#page=15).
* $\mu_0$ het verwachte gemiddelde onder de nulhypothese [15](#page=15).
* $s$ de standaarddeviatie van de steekproef [15](#page=15).
* $n$ de steekproefgrootte [15](#page=15).
Een grotere absolute waarde van Z betekent dat het steekproefgemiddelde verder afwijkt van het verwachte gemiddelde onder $H_0$, wat meer evidentie tegen $H_0$ genereert. De bijbehorende p-waarde wordt bepaald door de positie van Z op de standaardnormale distributie te zoeken [15](#page=15).
**Kenmerken van de Z-distributie:**
* Het is de enige standaardnormale verdeling [15](#page=15).
* Het gemiddelde is 0 en de standaarddeviatie is 1 [15](#page=15).
* De X-as loopt van negatief oneindig tot positief oneindig [15](#page=15).
* De Y-as toont kansdichtheden, en de totale oppervlakte onder de curve is gelijk aan 1 of 100% [15](#page=15).
* Het standaardiseren van een variabele betekent deze uitdrukken in het aantal standaarddeviaties van het gemiddelde. Elke normaal verdeelde variabele kan worden gestandaardiseerd, wat nuttig is voor het vergelijken van variabelen in verschillende eenheden [15](#page=15).
#### 3.3 De p-waarde en statistisch toetsen
Statistische toetsen leiden tot p-waarden, waarbij een zo klein mogelijke p-waarde wenselijk is. De p-waarde is de overschrijdingskans: de kans op het waargenomen onderzoeksresultaat (of extremer), gegeven dat de nulhypothese waar is. Als $H_0$ waar is, betekent dit dat er geen effect is in de volledige onderzoekspopulatie. Een lagere p-waarde, corresponderend met een hogere teststatistiek, duidt erop dat het onderzoeksresultaat slecht past bij de nulhypothese, en er dus voldoende evidentie is om $H_0$ te verwerpen [15](#page=15).
### 3.4 Specifieke theoretische kansverdelingen en hun toepassingen
#### 3.4.1 De Z-distributie voor continue variabelen
De Z-distributie, of standaardnormale verdeling, wordt gebruikt voor het schatten van gemiddelden van continue uitkomstvariabelen. De berekening van de toetsingsgrootheid Z helpt om de teststatistiek te kwantificeren en de mate van evidentie tegen de nulhypothese te beoordelen [13](#page=13) [14](#page=14).
#### 3.4.2 De T-distributie
Hoewel de documentatie kort de T-distributie noemt wordt de specifieke toepassing ervan niet verder uitgewerkt in de verstrekte tekst. De T-distributie wordt doorgaans gebruikt wanneer de populatiestandaarddeviatie ($\sigma$) onbekend is en wordt geschat met de steekproefstandaarddeviatie ($s$). Dit is vaak het geval bij kleinere steekproeven [13](#page=13) [14](#page=14).
#### 3.4.3 Binomiale verdelingen
Binomiale verdelingen zijn relevant voor dichotome (binaire) uitkomstvariabelen. Ze modelleren het aantal successen in een vast aantal onafhankelijke Bernoulli-experimenten, elk met dezelfde succeskans. De toepassing hiervan in hypothesetesten zou gericht zijn op het toetsen van proporties of het testen van hypotheses over het aantal gebeurtenissen in een binair scenario [13](#page=13).
> **Tip:** Het kiezen van de juiste theoretische kansverdeling is cruciaal voor de correctheid van hypothesetesten. Dit hangt af van het type variabele (continu, categorisch) en de informatie die beschikbaar is over de populatie (bijvoorbeeld of de populatiestandaarddeviatie bekend is).
### 3.5 Overgang van beschrijvende naar inferentiële statistiek
De theoretische kansverdelingen vormen een brug tussen beschrijvende statistiek (zoals het berekenen van gemiddelden en spreidingsmaten) en inferentiële statistiek (het trekken van conclusies over een populatie op basis van een steekproef). Terwijl beschrijvende statistiek de data samenvat, maken theoretische kansverdelingen het mogelijk om te kwantificeren hoe waarschijnlijk deze samenvattingen zijn onder een specifieke hypothese [13](#page=13).
---
# Statistische toetsen voor het vergelijken van gemiddelden
Statistische toetsen voor het vergelijken van gemiddelden worden gebruikt om te bepalen of waargenomen verschillen tussen groepen of metingen statistisch significant zijn [23](#page=23).
### 4.1 Verschillende testen
Parametrische testen zijn specifiek ontworpen voor vergelijkende onderzoeksvragen waarbij met gemiddelde waarden van continue uitkomstvariabelen wordt gewerkt. Deze testen vereisen dat bepaalde voorwaarden worden voldaan om correct toegepast te kunnen worden; bij het niet voldoen aan deze voorwaarden, wordt overgeschakeld op non-parametrische testen, die werken met rangnummers in plaats van gemiddelden. Parametrische testen worden als krachtiger en informatiever beschouwd dan non-parametrische testen [23](#page=23).
#### 4.1.1 Gepaarde t-toets
De gepaarde t-toets is een analysetechniek binnen één groep om gemiddelden van twee metingen bij dezelfde personen te vergelijken. Dit is nuttig bij gepaarde observaties, zoals wanneer dezelfde personen meerdere keren worden gemeten op een continue variabele. De nulhypothese ($\text{H}_0$) stelt dat het gemiddeld verschil in de continue variabelen tussen de eerste en tweede meting in de doelpopulatie gelijk is aan nul ($\Delta = 0$) (#page=23, 24) [23](#page=23) [24](#page=24).
De gepaarde t-toets is een parametrische test en vereist dat de continue uitkomstvariabele normaal verdeeld is. De toets berekent een t-statistiek die de verhouding weergeeft tussen het waargenomen verschil in de steekproef en de nulhypothese, rekening houdend met de standaardfout van het gemiddelde. Deze t-waarde wordt vervolgens in een t-distributie getoetst om een p-waarde te bepalen, waarbij de vrijheidsgraden afhangen van de steekproefgrootte ($n-1$). Naast het toetsen op significantie, wordt ook het 95% betrouwbaarheidsinterval (BI) voor het verschil geschat om de grootte van het effect en de klinische relevantie te beoordelen. Als de waarde van de nulhypothese buiten de grenzen van het BI valt, wordt de nulhypothese verworpen [24](#page=24).
> **Tip:** In SPSS wordt de p-waarde van een gepaarde t-toets vaak gerapporteerd als "Sig. (2-tailed)" en kan deze zeer klein zijn (bv. < 0,001) [25](#page=25).
#### 4.1.2 One sample t-toets
De one sample t-toets wordt gebruikt om het gemiddelde van een continue variabele in een steekproef te vergelijken met een specifieke standaardwaarde, die niet gemeten is binnen de steekproef. De nulhypothese stelt dat het gemiddelde van de populatie gelijk is aan deze standaardwaarde [25](#page=25).
Net als bij de gepaarde t-toets, vereist de one sample t-toets dat de uitkomstvariabele of het verschil tussen de variabele en de standaardwaarde min of meer normaal verdeeld is. De toets berekent een t-statistiek en een p-waarde om de nulhypothese te toetsen. Er wordt ook een betrouwbaarheidsinterval rond het gemiddelde verschil berekend; als 0 niet binnen dit interval valt, is het resultaat significant [25](#page=25) [26](#page=26).
> **Voorbeeld:** Een onderzoeker vergelijkt de gemiddelde kennis van een groep studenten met een historische gemiddelde kennis van 75 punten uit de populatie [25](#page=25).
#### 4.1.3 Independent samples t-toets / T-test
De independent samples t-toets vergelijkt de gemiddelden van een continue variabele tussen twee onafhankelijke groepen. De nulhypothese stelt dat de gemiddelden van de twee populaties gelijk zijn ($\mu_1 = \mu_2$) [26](#page=26).
Voor deze toets zijn de volgende voorwaarden van belang:
* **Normaliteit:** De uitkomstvariabele moet in beide groepen min of meer normaal verdeeld zijn [26](#page=26).
* **Homoscedasticiteit:** De varianties (spreiding) van de uitkomstvariabele moeten gelijk zijn in beide groepen [26](#page=26).
Bij het berekenen wordt rekening gehouden met de spreiding in beide groepen, waarbij soms de 'pooled standard error' (sp) wordt berekend als tussenstap (#page=26, 27). De p-waarde die uit de t-distributie wordt afgelezen, moet verdubbeld worden als de voorwaarde van gelijke varianties geschonden is. Een betrouwbaarheidsinterval rond het verschil van de gemiddeldes wordt berekend om de grootte van het effect te schatten [26](#page=26) [27](#page=27).
In SPSS wordt de Levene's test for equality of variances gebruikt om homoscedasticiteit te toetsen. Als de p-waarde van Levene's test significant is (bv. < 0,05), wat aangeeft dat de varianties niet gelijk zijn, wordt de onderste rij van de t-toetsoutput ("equal variances not assumed") gebruikt. Anders wordt de bovenste rij ("equal variances assumed") geïnterpreteerd [27](#page=27).
#### 4.1.4 ANOVA (Variantieanalyse) toets
De variantieanalyse (ANOVA) wordt gebruikt om de gemiddelden van een continue variabele te vergelijken wanneer er drie of meer onafhankelijke groepen zijn. In plaats van de t-distributie, maakt ANOVA gebruik van de F-distributie [28](#page=28).
De nulhypothese stelt dat alle groepsgemiddelden gelijk zijn ($\mu_1 = \mu_2 = \mu_3$). Net als parametrische t-toetsen, heeft ANOVA voorwaarden van normaliteit en homoscedasticiteit. De kern van ANOVA ligt in het opsplitsen van de totale variantie in de steekproef in twee componenten [28](#page=28):
* **Tussengroepsvariantie (between-groups variance):** Meet het verschil tussen de gemiddelden van de groepen [28](#page=28).
* **Binnengroepsvariantie (within-groups variance):** Meet de spreiding van waarden binnen elke groep [28](#page=28).
De F-toetsingsgrootheid vergelijkt de verhouding tussen deze twee varianties. Een hoge F-waarde, die duidt op meer tussengroepsvariantie ten opzichte van binnengroepsvariantie, geeft meer evidentie tegen de nulhypothese [28](#page=28).
Omdat ANOVA alleen een algemeen significant verschil tussen de groepen aangeeft, zijn post-hoc testen nodig voor paarsgewijze vergelijkingen om te bepalen welke specifieke groepen van elkaar verschillen [28](#page=28).
> **Tip:** Bij het uitvoeren van meerdere post-hoc testen is het belangrijk om te corrigeren voor het multiple-toetsingsprobleem om een verhoogde kans op Type I fouten te vermijden [28](#page=28).
### 4.2 Vergelijken scheef verdeelde continue variabelen
Wanneer een continue variabele significant afwijkt van de normaliteitsverdeling, zijn er twee hoofdstrategieën: transformatie van de variabele of het gebruik van non-parametrische testen [29](#page=29).
1. **Transformatie:**
* De variabele kan worden getransformeerd, bijvoorbeeld met de natuurlijke logaritme [29](#page=29).
* Na transformatie wordt de parametrische test (bv. t-toets of ANOVA) uitgevoerd op de getransformeerde variabele [29](#page=29).
* Het resultaat van de test wordt vervolgens terug getransformeerd met de inverse functie (bv. exponentiële functie) om het te interpreteren in de oorspronkelijke meeteenheid [29](#page=29).
* Bij het gebruik van gemiddelden na een logaritmische transformatie, is het geometrische gemiddelde relevanter [29](#page=29).
> **Tip:** Het histogram van een variabele biedt visuele informatie over de verdeling, maar de beslissing om te transformeren hangt ook af van de steekproefgrootte.
2. **Non-parametrische testen:**
* Deze testen zijn gebaseerd op rangnummers in plaats van op de werkelijke waarden van de data [29](#page=29).
* Ze vereisen geen normaliteitsassumptie [29](#page=29).
* Non-parametrische testen zijn doorgaans minder krachtig dan parametrische testen en bieden geen effectschattingen, enkel een p-waarde om significantie aan te geven [29](#page=29).
### 4.3 Vergelijken met non-parametrische testen
Non-parametrische testen worden gebruikt wanneer de aannames voor parametrische testen, met name normaliteit, niet worden voldaan, of bij kleine steekproeven waar normaliteit moeilijk te beoordelen is (#page=23, 29). Ze werken met rangnummers en bieden doorgaans geen effectschattingen, enkel een p-waarde voor significantie [23](#page=23) [29](#page=29).
#### 4.3.1 Mann-Whitney U test
De Mann-Whitney U test is de non-parametrische tegenhanger van de independent samples t-toets. Deze test wordt gebruikt om twee onafhankelijke groepen te vergelijken op een numerieke variabele die niet normaal verdeeld is. De nulhypothese stelt dat de distributie van de variabele in de twee groepen gelijk is, wat impliceert dat de som van de rangnummers in de ene groep gelijk is aan die in de andere [30](#page=30).
#### 4.3.2 Wilcoxon signed rank test
De Wilcoxon signed rank test is de non-parametrische equivalent van de gepaarde t-toets en wordt toegepast bij gepaarde observaties binnen één groep (twee verschillende metingen bij dezelfde personen). De nulhypothese stelt dat de mediaan van het verschil tussen de metingen nul is, of equivalent, dat de som van de rangnummers met een positief teken gelijk is aan de som van de rangnummers met een negatief teken. Positieve rangnummers indiceren een stijging tussen metingen, negatieve een daling [30](#page=30).
#### 4.3.3 Sign test (tekentoets)
De sign test (tekentoets) is een non-parametrische toets die gebruikt kan worden om het gemiddelde van één groep te vergelijken met een standaardwaarde, vergelijkbaar met de one sample t-toets. De nulhypothese wordt hierbij getoetst op basis van de tekens (positief of negatief) van de verschillen tussen de observaties en de standaardwaarde [30](#page=30).
---
# Meervoudige lineaire regressie
Meervoudige lineaire regressie is een statistisch model dat de lineaire relatie tussen één continue uitkomstvariabele en meerdere onafhankelijke variabelen (determinanten of predictoren) onderzoekt, rekening houdend met hun gecombineerde effecten en onafhankelijke bijdragen.
### 5.1 Principes van meervoudige lineaire regressie
Meervoudige lineaire regressie breidt enkelvoudige lineaire regressie uit door het modelleren van de relatie tussen een continue uitkomstvariabele en meerdere onafhankelijke variabelen tegelijkertijd. Het model schat partiële regressiecoëfficiënten, die de verandering in de uitkomstvariabele vertegenwoordigen voor een eenheidstoename in een specifieke onafhankelijke variabele, terwijl alle andere onafhankelijke variabelen in het model constant worden gehouden [37](#page=37) [41](#page=41).
#### 5.1.1 Voorwaarden
De voorwaarden voor meervoudige lineaire regressie zijn vergelijkbaar met die van enkelvoudige regressie [37](#page=37):
* **Lineariteit**: Voor alle continue predictoren moet er een lineaire relatie bestaan met de uitkomstvariabele [37](#page=37).
* **Normaliteit van residuen**: Een histogram van de residuen kan worden opgevraagd om te controleren of de normaliteit wordt voldaan [37](#page=37).
* **Homoscedasticiteit**: De variantie van de residuen moet constant zijn over de voorspelde waarden. Een trechtervorm in de residuenplot duidt op een sterke afwijking van homoscedasticiteit [37](#page=37).
#### 5.1.2 Typen modellen
Meervoudige regressie kan worden gebruikt voor twee hoofdtypes modellen [37](#page=37):
1. **Associatiemodellen**: Deze modellen zijn gericht op het zuiver beschrijven van de relatie tussen een centrale determinant en de uitkomstvariabele, terwijl er rekening wordt gehouden met mogelijke confounders en effectmodificatoren. Het doel is om de relatie zo zuiver mogelijk te beschrijven [37](#page=37).
* **Confounding (verstorende variabele)**: Confounding treedt op wanneer een variabele ($C$) gerelateerd is aan de onafhankelijke variabele ($X$) en tegelijkertijd ook gerelateerd is aan de uitkomstvariabele ($Y$). Dit kan de geschatte relatie tussen $X$ en $Y$ vertekenen. Confounding wordt getest door de regressiecoëfficiënt voor $X$ te vergelijken in een enkelvoudig model (enkel $X$ en $Y$) met die in een meervoudig model (waarin $C$ is toegevoegd). Als de regressiecoëfficiënt voor $X$ met minstens 10% verandert na het toevoegen van $C$, wordt $C$ beschouwd als een confounder. Verschillende methoden om confounding na te gaan zijn onder meer het tegelijk toevoegen van een set mogelijke confounders, het één voor één testen van confounders, of het stapsgewijs toevoegen van groepen van variabelen (stepwise adjustments). Vaak worden mogelijke confounders sowieso meegenomen in het regressiemodel om het onafhankelijke effect van de centrale determinant te kunnen aantonen [38](#page=38) [41](#page=41).
* **Effectmodificatie (interactie)**: Effectmodificatie, ook wel interactie genoemd, treedt op wanneer de relatie tussen $X$ en $Y$ afhankelijk is van de waarde op een andere variabele ($C$). De relatie tussen $X$ en $Y$ is dus anders voor verschillende niveaus van $C$. Interactie wordt getest door een interactieterm toe te voegen aan het model, wat het product is van de centrale determinant ($X$) en de potentiële effectmodificator ($C$). Meestal wordt er gekeken naar de p-waarde van de interactieterm; een p-waarde kleiner dan 0.10 wordt vaak als significant beschouwd voor interactie. Als er sprake is van interactie, kan dit verder worden onderzocht door middel van stratificatie, waarbij de analyse wordt uitgevoerd binnen verschillende subgroepen (strata) gedefinieerd door de effectmodificator. Dit kan visueel worden weergegeven met een lijndiagram [38](#page=38) [39](#page=39).
> **Tip:** Bij het opbouwen van associatiemodellen is het belangrijk om rekening te houden met de steekproefgrootte ($N$). Een veelgebruikte vuistregel is dat het aantal predictoren niet meer dan 1/10e van de steekproefgrootte mag zijn (bijvoorbeeld maximaal 20 predictoren bij $N=200$). Ook moet aandacht worden besteed aan multicollineariteit, waarbij onafhankelijke variabelen sterk met elkaar correleren [40](#page=40).
> **Tip:** Het ruwe model (crude model of unadjusted model) dient als vertrekpunt om de impact van toegevoegde factoren (confounders of effectmodificatoren) te beoordelen [40](#page=40).
2. **Predictiemodellen**: Deze modellen zijn gericht op het zo goed mogelijk voorspellen van de uitkomstvariabele aan de hand van een reeks determinanten [39](#page=39).
#### 5.1.2.1 Procedure voor het opbouwen van predictiemodellen
Er zijn verschillende procedures om predictiemodellen op te bouwen, zowel handmatig als via software zoals SPSS [42](#page=42):
* **Backward selectieprocedure**: Men begint met een uitgebreid model en verwijdert stapsgewijs variabelen met de hoogste p-waarde (meestal boven 0.10) die het minst bijdragen aan de relatie [42](#page=42).
* **Forward selectieprocedure**: Men start met het selecteren van de beste enkele voorspeller (laagste p-waarde) en voegt vervolgens stapsgewijs de beste resterende voorspeller toe aan het model, totdat er geen nieuwe variabelen meer significant bijdragen (p-waarde grens van 0.10) [42](#page=42).
#### 5.1.2.2 Kwaliteit van predictiemodellen
De algehele kwaliteit van een predictiemodel wordt beoordeeld aan de hand van de verklarende variantie, vaak weergegeven door de **adjusted R-square**. Een adjusted R-square van bijvoorbeeld 0.474 betekent dat 47.4 procent van de spreiding (variatie) in de uitkomstvariabele kan worden verklaard door de lineaire relatie met de determinanten in het model [42](#page=42).
### 5.2 Formules en berekeningen
De basisvergelijking voor een meervoudig lineair regressiemodel met $k$ onafhankelijke variabelen ($X_1, X_2, \dots, X_k$) en een uitkomstvariabele ($Y$) is:
$$ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \dots + \beta_k X_k + \epsilon $$
Waar:
* $Y$ is de uitkomstvariabele.
* $\beta_0$ is het intercept (de verwachte waarde van $Y$ wanneer alle onafhankelijke variabelen gelijk zijn aan nul).
* $\beta_i$ ($i=1, \dots, k$) is de partiële regressiecoëfficiënt voor de onafhankelijke variabele $X_i$. Deze vertegenwoordigt de verwachte verandering in $Y$ voor een eenheidstoename in $X_i$, waarbij alle andere onafhankelijke variabelen constant worden gehouden.
* $X_i$ is de $i$-de onafhankelijke variabele.
* $\epsilon$ is de foutterm, die de onverklaarde variatie in $Y$ vertegenwoordigt.
#### 5.2.1 Interactieterm in LaTeX
Wanneer een interactie tussen twee variabelen $X$ en $C$ wordt gemodelleerd, wordt een interactieterm, $X \cdot C$, toegevoegd aan het model. De formule wordt dan:
$$ Y = \beta_0 + \beta_1 X + \beta_2 C + \beta_3 (X \cdot C) + \epsilon $$
Hierbij is $\beta_3$ de coëfficiënt van de interactieterm die aangeeft in welke mate de relatie tussen $X$ en $Y$ afhankelijk is van $C$.
> **Tip:** Bij het interpreteren van de resultaten van een meervoudige lineaire regressie is het cruciaal om onderscheid te maken tussen geassocieerde en onafhankelijke effecten. Het meenemen van confounders in het model helpt bij het schatten van het onafhankelijke effect van een centrale determinant [41](#page=41).
---
# Statistische toetsen voor categorische uitkomstvariabelen
Dit hoofdstuk behandelt statistische toetsen die gebruikt worden wanneer de uitkomstvariabele categorisch is, met een specifieke focus op dichotome uitkomstvariabelen en vergelijkingen tussen groepen [45](#page=45).
### 6.1 Dichotome uitkomstvariabelen – 1 groep
Wanneer er één groep met een dichotome uitkomstvariabele wordt geanalyseerd, kan dit betrekking hebben op het vergelijken van twee metingen bij dezelfde personen of het vergelijken van een proportie binnen een groep met een standaardwaarde [45](#page=45).
#### 6.1.1 Vergelijken van twee metingen bij dezelfde personen (gepaarde observaties)
* **McNemar-toets**
* Deze toets wordt gebruikt om verschillen tussen proporties in dezelfde groep te testen bij herhaalde metingen [45](#page=45).
* De nulhypothese stelt dat er geen verandering is in de dichotome variabele tussen de eerste en tweede meting, wat betekent dat de proportie van de uitkomst bij de tweede meting gelijk is aan die bij de eerste meting [45](#page=45).
* Het verschil tussen de twee proporties wordt gelijk aan nul verondersteld onder de nulhypothese [45](#page=45).
* Deze toets wordt niet frequent gebruikt en de berekening ervan wordt buiten het bestek van deze samenvatting gelaten, met focus op interpretatie van de output [45](#page=45).
#### 6.1.2 Vergelijken van een proportie in een groep met een standaardwaarde
* **Z-toets voor proportie**
* Deze toets wordt ingezet om het verschil tussen de proportie in een bepaalde groep en een theoretisch betekenisvolle standaardwaarde (vaak gebaseerd op eerder onderzoek) te toetsen [45](#page=45).
* De nulhypothese kan op twee manieren geformuleerd worden:
1. De proportie in de volledige doelpopulatie is gelijk aan de standaardproportie [45](#page=45).
2. Het verschil tussen de proportie in de doelpopulatie en de standaardwaarde is gelijk aan nul [45](#page=45).
* **Voorwaarden voor de Z-distributie:**
* Een minimale voorwaarde is dat er in beide groepen meer dan 5 personen zijn. Dit is een arbitraire vuistregel; grotere aantallen leiden tot een betere benadering door de normale verdeling [46](#page=46).
* **Toetsen:**
* Hierbij wordt een statistische grootheid berekend die de evidentie tegen de nulhypothese weergeeft [46](#page=46).
* De standaardfout van de proportie onder de nulhypothese ($sep HO$) wordt eerst berekend met de formule:
$$ sep HO = \sqrt{\frac{p_0(1-p_0)}{n}} $$
waarbij $p_0$ de standaardproportie is en $n$ het aantal observaties [46](#page=46).
* Vervolgens wordt de Z-statistiek berekend:
$$ Z = \frac{\hat{p} - p_0}{sep HO} $$
waarbij $\hat{p}$ de geobserveerde proportie in de steekproef is [46](#page=46).
* De uitkomst van de Z-score wordt vervolgens in een tabel opgezocht om de bijbehorende p-waarde te bepalen [46](#page=46).
* **Schatten (Betrouwbaarheidsinterval):**
* Een betrouwbaarheidsinterval (BI) wordt geschat rond de steekproefproportie (puntschatting). Hiervoor is opnieuw de standaardfout nodig, maar met een aangepaste formule voor het BI [46](#page=46).
* De Z-waarde die nodig is voor het BI is doorgaans 1,96 voor een 95% betrouwbaarheidsniveau, aangezien er met één Z-verdeling gewerkt wordt [46](#page=46).
* De formule voor het betrouwbaarheidsinterval is:
$$ \hat{p} \pm Z_{\alpha/2} \times SE(\hat{p}) $$
waarbij $SE(\hat{p})$ de standaardfout van de geobserveerde proportie is.
* Alternatief kan een betrouwbaarheidsinterval worden berekend rond het verschil met de standaardwaarde [47](#page=47).
* De formule voor het BI rond het verschil is:
$$ (\hat{p} - p_0) \pm Z_{\alpha/2} \times SE(\hat{p} - p_0) $$
waarbij $SE(\hat{p} - p_0)$ de standaardfout van het verschil is [47](#page=47).
* De standaardfout van de proportie ($sep$) wordt berekend met de formule:
$$ se = \sqrt{\frac{\hat{p}(1-\hat{p})}{n}} $$
waarbij $\hat{p}$ de geobserveerde proportie is [47](#page=47).
> **Tip:** Bij een standaardwaarde van 50 procent, wordt een proportie van minder dan 50 procent als significant beschouwd als de p-waarde kleiner is dan 0,5 [47](#page=47).
### 6.2 Dichotome variabelen – twee groepen
Dit gedeelte behandelt situaties waarin proporties tussen twee onafhankelijke groepen worden vergeleken. Dit is relevant voor het onderzoeken van de associatie tussen twee dichotome variabelen [47](#page=47).
#### 6.2.1 Vergelijken van proporties tussen 2 onafhankelijke groepen
* **Chikwadraattoets (Chi-kwadraattoets)**
* Dit is een veelgebruikte toets om de associatie tussen twee dichotome variabelen te toetsen [47](#page=47).
* Het is een uitbreiding van de Z-distributie en kan worden gebruikt voor diverse verbanden tussen categorische variabelen [47](#page=47).
* **Werking:**
* De toets berekent de evidentie tegen de nulhypothese, die stelt dat er geen associatie is tussen de variabelen in de doelpopulatie [47](#page=47).
* De berekening start vanuit een kruistabel en vergelijkt de geobserveerde aantallen (O) met de verwachte aantallen (E) in elke cel [48](#page=48).
* Het geobserveerde aantal is het aantal dat uit de steekproef komt [48](#page=48).
* Het verwachte aantal (E) wordt berekend op basis van kansberekening, gebruikmakend van de rijtotaal, kolomtotaal en het volledige totaal per cel. De formule voor het verwachte aantal in een cel is [48](#page=48):
$$ E_{ij} = \frac{\text{Rijtotaal}_i \times \text{Kolomtotaal}_j}{\text{Totaal Aantal}} $$
* De toetsingsgrootheid chi-kwadraat wordt berekend door de bijdragen van elke cel op te tellen:
$$ \chi^2 = \sum \frac{(O_{ij} - E_{ij})^2}{E_{ij}} $$
Een grotere chi-kwadraat waarde duidt op meer evidentie tegen de nulhypothese [48](#page=48).
* **Vrijheidsgraden:** De vorm van de chi-kwadraatverdeling is afhankelijk van het aantal vrijheidsgraden. Bij een 2x2 kruistabel is dit $(r-1)(c-1)$, wat voor een 2x2 tabel neerkomt op 1 vrijheidsgraad [48](#page=48).
* **Interpretatie:** De p-waarde wordt opgezocht in een chi-kwadraattabel, waarbij men kijkt naar de vrijheidsgraden en de berekende toetsingsgrootheid [48](#page=48).
* **Benadering:** De chikwadraattoets is een benadering; de exacte p-waarde wordt onderschat, en de werkelijke associatie wordt overschat [48](#page=48).
* **Fisher's Exact Toets**
* Dit is een exacte methode om de p-waarde te schatten en wordt gebruikt als alternatief voor de chikwadraattoets, met name bij kleinere steekproeven. De berekening hoeft niet gekend te zijn, enkel de interpretatie [48](#page=48).
* **Continuïteitscorrectie**
* Deze correctie kan worden toegepast bij de chikwadraattoets om de benadering te verbeteren [48](#page=48).
* **Voorwaarden chikwadraattoets:**
* Een voorwaarde voor het gebruik van de chikwadraattoets is dat de verwachte aantallen in de meerderheid (80%) van de cellen minimaal 5 zijn, en in elke cel moet het aantal groter zijn dan 1 [48](#page=48).
* Indien de voorwaarden voor de chikwadraattoets niet voldaan zijn, biedt de Fisher's Exact Toets een alternatief.
#### 6.2.2 Schatten van het verschil tussen twee proporties
* De chikwadraattoets geeft enkel een p-waarde en geen directe schattingsmethode. Om de grootte van het verband te kwantificeren, worden effectmaten gebruikt, afhankelijk van het studiedesign [49](#page=49).
* **Risicoverschil (Risk Difference - RD):** Gebruikt in prospectieve cohortstudies.
* **Odds Ratio (OR):** Gebruikt in geval-controle studies.
* Een neutrale methode om het verschil tussen twee proporties te beoordelen is door de effectgrootte van dit verschil te bekijken, onafhankelijk van het studiedesign [49](#page=49).
* Het verschil tussen de twee proporties wordt geschat met de formule $P_1 - P_2$ [49](#page=49).
* Hierbij worden een bovengrens en ondergrens berekend, na een tussenstap om de mate van onzekerheid te bepalen met de standaardfout van het verschil in proporties ($Se$) [49](#page=49).
* De kritieke Z-waarde is ook hier nodig [49](#page=49).
* **Basisvoorwaarde voor het schatten van het verschil:**
* De aantallen moeten voldoende groot zijn voor de standaardnormale verdeling. Een minimale voorwaarde is dat het aantal groter is dan 5 in beide groepen [49](#page=49).
### 6.3 Dichotome variabelen bij meer dan twee groepen
Dit deel behandelt het vergelijken van proporties tussen drie of meer onafhankelijke groepen [50](#page=50).
#### 6.3.1 Vergelijken van proporties tussen 3 of meer onafhankelijke groepen
* **Chikwadraattoets**
* Wanneer er drie of meer groepen zijn, wordt de chikwadraattoets gebruikt om de verschillen tussen de proporties te toetsen [50](#page=50).
* De onderzoeksresultaten worden weergegeven in een kruistabel, minimaal een 3x3 tabel [50](#page=50).
* De toets onderzoekt de algemene associatie of samenhang tussen twee categorische variabelen, gebaseerd op geobserveerde en verwachte aantallen in elke cel [50](#page=50).
* **Vrijheidsgraden:** Zijn minimaal 2 bij meer dan twee groepen.
* **Voorwaarden:**
* 80% van de cellen moet een verwachte count van minimaal 5 hebben [50](#page=50).
* Alle cellen moeten een waarde groter dan 1 hebben [50](#page=50).
* **Fisher's Exact Toets en Continuïteitscorrectie**
* Deze methoden zijn niet beschikbaar wanneer er meer dan twee groepen worden vergeleken [50](#page=50).
* Als de voorwaarden voor de chikwadraattoets niet voldaan zijn bij meer dan twee groepen, is er geen direct alternatief voor deze toets in de vorm van een exacte toets of een continuïteitscorrectie [50](#page=50).
* **Trendtoets (Lineair by Lineair Association)**
* Wanneer er meer dan twee groepen worden vergeleken en de groeperingsvariabele een ordinaal karakter heeft, kan de trendtoets interessant zijn [50](#page=50).
* Deze toets geeft een waarde, een aantal vrijheidsgraden en een p-waarde, die belangrijk is voor interpretatie [50](#page=50).
* Het is met name nuttig om te kijken naar de trend in de percentage van de uitkomstvariabele over de geordende groepen [50](#page=50).
> **Tip:** De trendtoets is enkel interessant en interpreteerbaar als de variabele die de groepen definieert een ordinale variabele is [50](#page=50).
---
# Logistische regressie voor dichotome uitkomstvariabelen
Logistische regressie is een veelgebruikte regressietechniek voor het analyseren van dichotome uitkomstvariabelen, waarbij de relatie met één of meerdere determinanten wordt onderzocht [51](#page=51).
### 7.1 Principe van logistische regressie
Logistische regressie analyse is analoog aan lineaire regressie, maar specifiek ontworpen voor situaties waarin de uitkomstvariabele dichotoom is. Het doel is om een model op te bouwen waarin de dichotome uitkomstvariabele in verband wordt gebracht met één of meerdere determinanten [51](#page=51).
#### 7.1.1 Enkelvoudige en meervoudige logistische regressie
* **Enkelvoudige logistische regressie:** Hierbij wordt één determinant als onafhankelijke variabele gebruikt [51](#page=51).
* **Meervoudige logistische regressie:** Hierbij worden meerdere determinanten tegelijkertijd in het model getest [52](#page=52).
Zowel categorische als continue variabelen kunnen als determinanten worden ingezet in een logistische regressieanalyse [52](#page=52).
#### 7.1.2 Transformatie van de uitkomstvariabele
Omdat een dichotome uitkomstvariabele niet direct continu en normaal verdeeld is, kan de standaard lineaire regressievergelijking niet zomaar worden toegepast. Om dit te omzeilen, wordt de dichotome uitkomstvariabele getransformeerd naar een continue, normaal verdeelde variabele door de natuurlijke logaritme van de odds te nemen. Wat in een logistische regressieanalyse gemodelleerd wordt, is de natuurlijke logaritme van de odds [52](#page=52).
#### 7.1.3 Odds Ratio als effectmaat
De Odds Ratio (OR) is de primaire effectmaat die voortkomt uit een logistische regressieanalyse. Een Odds Ratio is een verhouding van odds, waarbij odds de relatieve kans op een bepaalde uitkomst weergeven [51](#page=51).
* **Odds:** `P / (1-P)`, waarbij `P` de kans is dat een bepaalde uitkomstvariabele `y` optreedt [51](#page=51).
* **Interpretatie van Odds Ratio:** De Odds Ratio wordt geïnterpreteerd als het verschil in odds dat optreedt wanneer de determinant met één eenheid stijgt. Een Odds Ratio groter dan 1 duidt op een verhoogde kans op de uitkomst, terwijl een Odds Ratio kleiner dan 1 wijst op een verlaagde kans. Een Odds Ratio van 1 geeft aan dat er geen verband is tussen de determinant en de uitkomst [52](#page=52) [53](#page=53).
> **Tip:** De interpretatie van een Odds Ratio als een relatief risico is een overschatting [53](#page=53).
#### 7.1.4 Schattingsmethode: Maximum Likelihood
Logistische regressie maakt gebruik van de 'methode van de maximum likelihood' (ML) om regressiecoëfficiënten te schatten. Deze methode schat de regressiecoëfficiënten zodanig dat de aannemelijkheid (likelihood) van het waargenomen model zo groot mogelijk is. Dit gebeurt op basis van de berekening van de kans op de uitkomst voor elke persoon in het onderzoek [53](#page=53).
* **-2 log likelihood:** Een output van een logistische regressieanalyse is de waarde van -2 log likelihood. Deze waarde moet zo laag mogelijk zijn voor een goed geschat model. Deze waarde kan gebruikt worden om de kwaliteit van verschillende modellen te vergelijken [53](#page=53) [54](#page=54).
* **Likelihood ratio test:** Deze test vergelijkt de -2 log likelihood waarden van twee modellen. Het aantal vrijheidsgraden is het verschil in het aantal parameters tussen de twee modellen. Deze test wordt gebruikt om te bepalen of twee modellen significant van elkaar verschillen [54](#page=54).
### 7.2 Determinanten in logistische regressie
#### 7.2.1 Categorische determinanten met meer dan twee groepen
Categorische variabelen met meer dan twee groepen moeten in logistische regressie worden geanalyseerd als dummyvariabelen, omdat de relatie niet noodzakelijkerwijs lineair is. Drie groepen kunnen bijvoorbeeld worden beschreven met twee dummyvariabelen. De onderzoeker bepaalt welke groep als referentiegroep dient. De Odds Ratio van een dummyvariabele geeft dan de odds weer ten opzichte van de referentiegroep [54](#page=54).
#### 7.2.2 Continue determinanten
Continue variabelen kunnen ook als determinant worden getest. De Odds Ratio die wordt gerapporteerd is voor een stijging van één eenheid in de variabele. Om de interpretatie te vergemakkelijken, kan de Odds Ratio worden omgezet om de verandering voor meerdere eenheden te berekenen. Een alternatieve aanpak is het categoriseren van de continue predictor en deze vervolgens als categorische variabele te analyseren. Als de analyse met de categorische variabele een lineair verband suggereert, kan de continue variabele als zodanig worden gemodelleerd. Anders is het beter om met de categorische variabele te werken. Gebruikelijke categorisaties zijn tertielen of kwartielen, of inhoudelijke groeperingen (bv. BMI-categorieën) [55](#page=55).
### 7.3 Meervoudige logistische regressie
Meervoudige logistische regressie maakt het mogelijk om de relatie tussen meerdere determinanten en een dichotome uitkomstvariabele te onderzoeken. Hierbij worden partiële regressiecoëfficiënten geschat, die het effect van een determinant weergeven terwijl andere determinanten constant worden gehouden [56](#page=56).
#### 7.3.1 Associatiemodellen en predictiemodellen
Er zijn twee hoofdbenaderingen binnen de meervoudige logistische regressie:
1. **Associatiemodellen:** Deze modellen richten zich op het 'uitzuiveren' van het verband tussen een centrale determinant en de dichotome uitkomstvariabele, door rekening te houden met confounding en effectmodificatie [56](#page=56).
2. **Predictiemodellen:** Deze modellen hebben als doel de uitkomstvariabele zo goed mogelijk te voorspellen aan de hand van een set mogelijke determinanten [56](#page=56).
#### 7.3.2 Confounding
Confounding treedt op wanneer een variabele geassocieerd is met de centrale determinant én zelf een bepalende factor is voor de uitkomstvariabele. Om confounding te corrigeren, wordt de confounder meegenomen in het model. Een veelgebruikte vuistregel is om het model aan te passen en te kijken of de regressiecoëfficiënt van de centrale determinant met minstens 10% verandert [56](#page=56).
#### 7.3.3 Effectmodificatie (interactie)
Effectmodificatie, ook wel interactie genoemd, treedt op wanneer het effect van een determinant op de uitkomstvariabele verschilt voor verschillende waarden van een andere variabele (de effectmodificator). Dit wordt onderzocht door een interactieterm toe te voegen aan het model, wat het product is van de twee variabelen. Een significante p-waarde (vaak kleiner dan 0.10) voor de interactieterm duidt op effectmodificatie. Bij interactie worden de hoofdeffecten gestratificeerd, wat betekent dat subgroepen worden gecreëerd [56](#page=56) [57](#page=57).
#### 7.3.4 Opbouw van associatiemodellen
De opbouw van associatiemodellen in logistische regressie is vergelijkbaar met lineaire regressie. Dit omvat het corrigeren voor confounders en het nagaan van effectmodificatie. De keuze van mogelijke confounders en effectmodificatoren is afhankelijk van de onderzoeksvraag, theorie en de steekproefgrootte. Een vuistregel voor de steekproefgrootte is N(y=1) = 10*K, waarbij K het aantal predictoren is. Er moet ook gelet worden op multicollineariteit [57](#page=57).
* **Modelbouwstrategieën:**
* Beginnen met de ruwe relatie (unadjusted).
* Geleidelijk toevoegen van confounders.
* Stepwise procedures (forward of backward selectie) kunnen worden gebruikt [57](#page=57) [58](#page=58).
#### 7.3.5 Opbouw van predictiemodellen
Predictiemodellen zijn erop gericht om overtollige variabelen te verwijderen [57](#page=57).
* **Backward selectie:** Alle mogelijke predictoren worden in het model opgenomen en variabelen die geen voorspellende waarde hebben, worden systematisch verwijderd [58](#page=58).
* **Forward selectie:** Variabelen worden één voor één toegevoegd aan het model [58](#page=58).
Variabelen met een 'sig' waarde boven 0.10 worden doorgaans uit het predictiemodel verwijderd [58](#page=58).
### 7.4 Kwaliteitsindicatoren van het model
#### 7.4.1 Classificatietabel
Een classificatietabel (ook wel predictietabel genoemd) wordt gebruikt om de voorspellende kracht van het model te evalueren. Standaard in SPSS wordt een afkappunt van 50% voorspelde kans gebruikt. De tabel vergelijkt de voorspelde uitkomsten met de geobserveerde uitkomsten. Het percentage correct voorspelde gevallen moet zo hoog mogelijk zijn. De afkapwaarde kan aangepast worden op basis van het aantal personen dat daadwerkelijk de uitkomst heeft [58](#page=58).
#### 7.4.2 Hosmer-Lemeshow test
De Hosmer-Lemeshow test is een 'goodness of fit' test die de geschiktheid van het logistische regressiemodel evalueert. Deze test bekijkt of de geobserveerde en voorspelde gebeurtenissen in het model overeenkomen [58](#page=58).
#### 7.4.3 R-kwadraat
In tegenstelling tot lineaire regressie, waar de R-kwadraat de proportie verklaarde variantie aangeeft, wordt de R-kwadraat bij logistische regressie doorgaans niet geïnterpreteerd. Er zijn andere indicatoren die de kwaliteit van het model beoordelen [58](#page=58).
#### 7.4.4 Likelihood Ratio Test
De likelihood ratio test kan handmatig worden uitgevoerd om te bepalen of er een significant verschil is tussen twee modellen, bijvoorbeeld tussen een model met een predictor en een nulmodel zonder predictoren. Het verschil in de -2 log likelihood waarden, gedeeld door het verschil in het aantal parameters (vrijheidsgraden), geeft de significantie aan [58](#page=58).
---
# Correlatie en lineaire regressie
Dit onderwerp behandelt de statistische methoden om de samenhang tussen variabelen te kwantificeren en te modelleren.
### 8.1 Correlatie
Correlatie beschrijft de samenhang tussen twee continue variabelen, waarbij wordt gekeken of variatie in de ene variabele gepaard gaat met variatie in de andere variabele. Het doel is om de mate van lineaire associatie tussen twee numerieke variabelen in kaart te brengen [31](#page=31) [32](#page=32).
#### 8.1.1 Pearson correlatiecoëfficiënt (r)
De Pearson correlatiecoëfficiënt (r) is een puntschatting voor de populatieparameter, gebaseerd op een steekproef [32](#page=32).
* **Interpretatie van r:**
* **Teken:**
* Positief: Positieve lineaire relatie; stijging in X gaat samen met stijging in Y [32](#page=32).
* Negatief: Stijging in de ene variabele gaat samen met daling in de andere variabele [32](#page=32).
* Geeft de richting van het verband aan [32](#page=32).
* **Grootte:**
* Hoe dichter r bij +1 of -1 ligt, hoe sterker de lineaire correlatie [32](#page=32).
* 0.30 wordt beschouwd als een matige relatie [32](#page=32).
* 0.70 wordt beschouwd als een sterke lineaire relatie [32](#page=32).
* **Niet afhankelijk van de as-indeling:** De waarde van r blijft hetzelfde, ongeacht welke variabele op de x-as en welke op de y-as wordt geplaatst [32](#page=32).
* **Voorwaarden voor Pearson CC:**
* Twee continue variabelen die normaal verdeeld zijn [32](#page=32).
* Afwezigheid van outliers [32](#page=32).
* Geschikt voor het in kaart brengen van lineaire relaties [32](#page=32).
* Visuele inspectie via een histogram per variabele kan helpen [32](#page=32).
* **Gekwadrateerde correlatiecoëfficiënt (R²):**
* Geeft de proportie verklaarde variantie weer [32](#page=32).
* Dit is de hoeveelheid spreiding in de ene variabele die verklaard kan worden door de lineaire relatie met de andere variabele [32](#page=32).
#### 8.1.2 Spearman's rank correlatiecoëfficiënt
Dit is een non-parametrische test die wordt berekend op basis van rangnummers. Het is een alternatief wanneer de voorwaarden voor de Pearson CC niet voldaan zijn, zoals bij afwijkingen van normaliteit (vooral bij kleine steekproeven), ordinale variabelen, of wanneer een niet-lineaire relatie beschreven moet worden [33](#page=33).
### 8.2 Lineaire regressie
Lineaire regressie modelleert de relatie waarbij een continue uitkomstvariabele (Y) in verband wordt gebracht met één of meerdere determinanten (X) [33](#page=33).
#### 8.2.1 Enkelvoudige lineaire regressie
Hierbij wordt één uitkomstvariabele getest ten opzichte van één determinant [33](#page=33).
* **Proces:**
* Begint met een scatterplot [33](#page=33).
* X (determinant) en Y (uitkomstvariabele) zijn niet inwisselbaar [33](#page=33).
* Er wordt een best passende rechte getrokken, gebaseerd op de methode van de kleinste kwadraten, om de residuen (afstanden van punten tot de rechte) te minimaliseren [33](#page=33).
* **Lineaire regressievergelijking:**
$$ Y = a + bX $$
* $Y$: afhankelijke uitkomstvariabele [33](#page=33).
* $X$: onafhankelijke determinant of predictor [33](#page=33).
* $a$ (of $B_0$): intercept of constante; de verwachte waarde van Y als X gelijk is aan 0. Dit bepaalt het beginpunt van de rechte [33](#page=33).
* $b$ (of $b_1$): helling (slope) of regressiecoëfficiënt; het verwachte verschil in Y bij een eenheidsverschil in X. Het bepaalt de steilheid van de rechte [33](#page=33).
* **Nulhypothese:** Er is geen lineaire relatie, dus de helling is gelijk aan 0 [34](#page=34).
#### 8.2.2 Gestandaardiseerde regressiecoëfficiënt (Beta)
Wanneer variabelen worden uitgedrukt in standaarddeviatie-eenheden, wordt de gestandaardiseerde regressiecoëfficiënt (Beta) verkregen. Dit maakt interpretatie los van de oorspronkelijke meeteenheden en is vergelijkbaar met de Pearson correlatiecoëfficiënt [34](#page=34).
#### 8.2.3 Verklaarde variantie (R²)
$R^2$ geeft de proportie van de variantie in Y die verklaard wordt door X. Het zegt iets over de kwaliteit van het regressiemodel [34](#page=34).
* **Adjusted R²:** Een gecorrigeerde versie van $R^2$ die een overschatting van de kwaliteit voorkomt, met name bij meervoudige regressie [34](#page=34).
#### 8.2.4 Dichotome en categorische determinanten
* **Dichotome determinanten:** Een rechte kan door de best passende gemiddelden van de twee groepen getrokken worden [35](#page=35).
* **Categorische determinanten:** Deze moeten worden opgesplitst in dummyvariabelen (K-1 aantal dummyvariabelen, waarbij K het aantal categorieën is) en samen worden getest in een regressieanalyse. De dummyvariabelen beschrijven samen de categorische determinant [35](#page=35).
#### 8.2.5 Voorwaarden voor lineaire regressie
* **Onafhankelijke observaties:** Niet gepaard of geclusterd [36](#page=36).
* **Lineaire relatie:** De relatie tussen continue determinanten en de continue uitkomstvariabele moet lineair verlopen. Dit kan visueel worden nagegaan met een scatterplot of via formele tests. Als de regressiecoëfficiënt significant is, wordt aangenomen dat elke eenheidsstijging in de determinant leidt tot een specifieke verandering in de uitkomstvariabele [36](#page=36).
* **Normaliteit van residuen:** De residuen (de afstanden van de punten tot de regressierechte) moeten normaal verdeeld zijn. Dit kan worden gecontroleerd met een histogram van de residuen. Bij scheve verdeling kan een logtransformatie van de uitkomstvariabele nodig zijn [36](#page=36).
* **Homoscedasticiteit:** De variantie van de residuen moet constant zijn over de voorspelde waarden van Y. Een trechtervorm in een scatterplot van residuen versus voorspelde waarden duidt op heteroscedasticiteit (schending van homoscedasticiteit) [37](#page=37).
### 8.3 Meervoudige lineaire regressie
Dit model onderzoekt de relatie tussen meerdere determinanten en één continue uitkomstvariabele. Het maakt gebruik van partiële regressiecoëfficiënten, die worden geschat binnen een model met meerdere covariaten en de interpretatie ervan verschilt van enkelvoudige regressie. De voorwaarden voor meervoudige regressie zijn dezelfde als voor enkelvoudige regressie. Meervoudige regressie maakt het mogelijk om onafhankelijke effecten van determinanten te testen [37](#page=37).
#### 8.3.1 Associatiemodellen
Deze modellen zijn gericht op het zo zuiver mogelijk beschrijven van de relatie tussen een centrale determinant en de uitkomstvariabele, rekening houdend met andere factoren [37](#page=37).
* **Confounding (verstorende variabele):** Een variabele die gerelateerd is aan zowel de onafhankelijke variabele (X) als de uitkomstvariabele (Y) [38](#page=38).
* **Testen van confounding:** Vergelijken van een enkelvoudige regressieanalyse met een meervoudige regressieanalyse waarin de potentiële confounder is opgenomen. Als de regressiecoëfficiënt van X met minstens 10% verandert bij toevoeging van de confounder, is er sprake van confounding [38](#page=38).
* **Effectmodificatie (interactie):** De relatie tussen X en Y verschilt afhankelijk van de waarden van een andere variabele (C). Er is interactie tussen X en C ten opzichte van Y [38](#page=38).
* **Testen van effectmodificatie:** Een interactieterm wordt gecreëerd door de centrale determinant (X) te vermenigvuldigen met de potentiële effectmodificator (C). Deze interactieterm wordt samen met de hoofdeffecten van X en C in een meervoudige regressieanalyse opgenomen. Een significante p-waarde voor de interactieterm (vaak kleiner dan 0.10) duidt op interactie [39](#page=39).
* **Stratificatie:** Indien interactie wordt vastgesteld, kan de analyse worden uitgevoerd in verschillende strata (subgroepen) van de effectmodificator om de relatie van X tot Y binnen die groepen te onderzoeken [39](#page=39).
#### 8.3.2 Predictiemodellen
Deze modellen stellen een uitkomstvariabele zo goed mogelijk voor te stellen aan de hand van een reeks determinanten [39](#page=39).
* **Opbouw van predictiemodellen:**
* **Backward selectieprocedure:** Beginnen met een uitgebreid model en stapsgewijs variabelen verwijderen die het minste bijdragen (hoogste p-waarde) [42](#page=42).
* **Forward selectieprocedure:** Beginnen met een leeg model en stapsgewijs de beste voorspeller toevoegen die voldoet aan een bepaalde significantiedrempel (bv. p-waarde < 0.10) [42](#page=42).
* **Kwaliteit van predictiemodellen:**
* Wordt beoordeeld aan de hand van de verklaarde variantie (R²) of Adjusted R². Een Adjusted R² van 0.474 betekent bijvoorbeeld dat 47% van de variatie in de uitkomstvariabele verklaard kan worden door de lineaire relatie met de determinanten [42](#page=42).
#### 8.3.3 Model opbouw en vuistregels
* **Aantal predictoren:** Een veelgebruikte vuistregel is dat het aantal predictoren in een model niet meer dan 10% van de steekproefgrootte (N) mag bedragen [40](#page=40).
* **Multicollineariteit:** Wees alert op hoge correlaties tussen onafhankelijke variabelen [40](#page=40).
* **Crude model:** Het ruwe model (unadjusted) dient als vertrekpunt voor vergelijkingen [40](#page=40).
* **Confounders opnemen:** Vaak worden potentiële confounders sowieso opgenomen in het regressiemodel om het onafhankelijke effect van de centrale determinant aan te tonen [41](#page=41).
* **Order van testen:** Bij het onderzoeken van zowel confounding als effectmodificatie, wordt vaak eerst confounding nagetrokken en vervolgens effectmodificatie [42](#page=42).
> **Tip:** Bij het interpreteren van resultaten uit regressiemodellen is het cruciaal om te weten of het gaat om een crude model of een model met gecorrigeerde variabelen. De conclusies kunnen significant verschillen [42](#page=42).
---
# het nagaan van de normaliteit van continue variabelen
Het nagaan van de normaliteit van continue variabelen is een cruciale stap in de statistische analyse, aangezien het bepaalt welke beschrijvende en verklarende statistische technieken het meest geschikt zijn voor de data. Dit proces helpt bij het begrijpen van de distributie van de gegevens en het maken van betrouwbare inferenties over de populatie [10](#page=10).
### 9.1 Theoretische achtergrond en belang van normaliteit
De normale verdeling, ook wel bekend als de Gauss-curve of klokvormige curve, is een fundamenteel concept in de statistiek. De kenmerken ervan zijn een symmetrische verdeling, waarbij het rekenkundig gemiddelde en de mediaan dicht bij elkaar liggen. De ideale normale verdeling is noch te hoog en spits, noch te plat. Een veelgebruikte vuistregel is dat ongeveer 68% van de waarnemingen binnen één standaarddeviatie van het gemiddelde valt, en ongeveer 95% binnen twee standaarddeviaties [7](#page=7).
> **Tip:** Veel statistische toetsen, met name parametrische toetsen, gaan ervan uit dat de data normaal verdeeld zijn. Wanneer deze aanname geschonden wordt, kunnen de resultaten van deze toetsen onbetrouwbaar zijn [10](#page=10).
### 9.2 Identificeren van niet-normale verdelingen
Niet-normale verdelingen kunnen op verschillende manieren afwijken van de ideale normale curve:
* **Rechtse scheve verdeling (positieve scheefheid):** Hierbij ligt het rekenkundig gemiddelde boven de mediaan. De 'staart' van de distributie strekt zich uit naar de rechterkant [7](#page=7).
* **Linkse scheve verdeling (negatieve scheefheid):** In dit geval ligt het rekenkundig gemiddelde lager dan de mediaan. De 'staart' van de distributie wijst naar de linkerkant [7](#page=7).
> **Tip:** Variabelen die inherent aan hun aard beperkingen hebben, zoals de meeste tellingsvariabelen of variabelen met een natuurlijk nulpunt (bv. reactietijd), vertonen vaak geen normale verdeling [4](#page=4).
### 9.3 Methodes om normaliteit na te gaan
Er zijn verschillende methoden om de normaliteit van continue variabelen te beoordelen:
#### 9.3.1 Grafische methoden
Grafische methoden bieden een visuele eerste indruk van de distributie van de data [10](#page=10).
* **Histogram:** Dit toont de frequentieverdeling van de data, waarbij de breedte van de staven de klasse-intervallen vertegenwoordigt en de hoogte de frequentie. Een histogram dat lijkt op een klokvorm suggereert normaliteit [10](#page=10) [5](#page=5).
* **Tak en blad diagram (Stem and Leaf Plot):** Hoewel minder gebruikt bij grote datasets, kan dit diagram een overzicht geven van de verdeling [5](#page=5).
* **Boxplot (Box and Whisker Plot):** Deze plot visualiseert de spreiding van de data, inclusief de mediaan, kwartielen en mogelijke uitschieters. De 'snorharen' vertegenwoordigen de range, de box het interkwartielbereik (Q1 tot Q3), de zwarte streep de mediaan (P50), en de onder- en bovenzijde van de box respectievelijk het 25e (Q1) en 75e percentiel (Q3). Een symmetrische boxplot met de mediaan centraal in de box kan wijzen op normaliteit [10](#page=10) [9](#page=9).
> **Tip:** Grafische methoden zijn subjectief. Ze geven een indicatie, maar geen definitief bewijs van normaliteit.
#### 9.3.2 Vergelijkende methoden (numeriek)
Numerieke vergelijkingen bieden meer objectieve indicaties:
* **Vergelijking van gemiddelde en mediaan:** Als het rekenkundig gemiddelde en de mediaan dicht bij elkaar liggen, is dit een indicatie van symmetrie, wat kenmerkend is voor een normale verdeling. Een significant verschil tussen beide kan wijzen op scheefheid [10](#page=10) [7](#page=7).
* **Vergelijking van gemiddelde en standaarddeviatie:** Bij een normale verdeling bevindt een aanzienlijk deel van de data zich binnen twee standaarddeviaties van het gemiddelde. De vuistregel wordt hierbij toegepast [10](#page=10) [7](#page=7).
#### 9.3.3 Formele statistische toetsen (niet behandeld in dit specifieke gedeelte, maar relevant voor bredere context)
Hoewel niet expliciet uitgewerkt in de gepresenteerde pagina's over het nagaan van normaliteit, zijn er formele statistische toetsen zoals de Shapiro-Wilk test en de Kolmogorov-Smirnov test die de normaliteit van data kunnen evalueren. Deze toetsen bieden een p-waarde die aangeeft hoe waarschijnlijk de geobserveerde data zijn onder de aanname van normaliteit.
### 9.4 Transformaties voor niet-normale variabelen
Wanneer continue variabelen significant afwijken van de normale verdeling, kunnen transformaties worden toegepast om de data meer normaal te verdelen, wat de analyse met parametrische toetsen mogelijk maakt [8](#page=8).
* **Natuurlijk logaritme transformatie:** Deze transformatie wordt vaak gebruikt voor rechtse scheve variabelen. Door de natuurlijke logaritme van elke waarde te nemen, kan de distributie worden gecentreerd en symmetrischer worden gemaakt. Na de analyse moet het resultaat echter vaak weer worden teruggetransformeerd naar de oorspronkelijke schaal met behulp van de inverse functie (bv. de exponentiële functie $e^x$) [8](#page=8).
* **Andere transformaties:** Naast de logaritmetransformatie zijn er andere methoden, zoals worteltransformaties of reciproque transformaties, afhankelijk van de aard van de scheefheid [8](#page=8).
> **Tip:** Een succesvolle transformatie moet leiden tot een distributie die de aannames van de beoogde statistische toets beter voldoet. Het is essentieel om na transformatie de distributie opnieuw te beoordelen [8](#page=8).
### 9.5 Alternatieve centrum- en spreidingsmaten
Bij scheef verdeelde data of data met uitschieters, zijn het rekenkundig gemiddelde en de standaarddeviatie mogelijk geen geschikte samenvattingen [7](#page=7) [8](#page=8) [9](#page=9).
* **Centrummaten:** De mediaan is een robuustere centrummaat bij scheve verdelingen, aangezien deze niet wordt beïnvloed door uitschieters. Het geometrisch gemiddelde kan ook een alternatief zijn voor rechtse scheve data, vooral na een logtransformatie [8](#page=8).
* **Spreidingsmaten:** De range (minimum-maximum) geeft een beeld van de spreiding maar bevat weinig informatie over de distributie binnen dat interval en is gevoelig voor uitschieters. De interkwartielrange (Q1 tot Q3) is een robuustere maat voor spreiding, vooral bij scheve data [9](#page=9).
> **Voorbeeld:** Bij een dataset met leeftijden die zeer scheef naar rechts is verdeeld (veel jonge personen en enkele zeer oude personen), zal het rekenkundig gemiddelde aanzienlijk hoger zijn dan de mediaan. In dit geval is de mediaan een betere weergave van de 'typische' leeftijd in de steekproef dan het gemiddelde.
De keuze van de juiste centrum- en spreidingsmaten hangt direct af van de distributie van de continue variabele, en het nagaan van normaliteit is hierbij cruciaal [6](#page=6) [9](#page=9).
---
Dit onderdeel van de studiehandleiding behandelt de methoden en technieken om de normaliteit van continue variabelen te beoordelen, wat essentieel is voor het kiezen van de juiste statistische toetsen [22](#page=22) [24](#page=24).
### 9.1 Parametrische versus non-parametrische testen
Parametrische testen zijn vergelijkende onderzoeksvragen die gebruikmaken van gemiddelden van continue uitkomstvariabelen. Ze vereisen echter dat aan bepaalde voorwaarden wordt voldaan. Wanneer deze voorwaarden niet vervuld zijn, worden non-parametrische testen toegepast, die werken met rangnummers in plaats van gemiddelden. Parametrische testen worden als krachtiger en informatiever beschouwd dan non-parametrische testen [23](#page=23).
#### 9.1.1 Gepaarde t-toets
De gepaarde t-toets is een analysetechniek die wordt gebruikt binnen één groep om gemiddelden van twee metingen bij dezelfde personen te vergelijken. Dit is relevant wanneer er gepaarde observaties zijn, wat betekent dat dezelfde personen tweemaal worden gemeten op dezelfde continue variabele. De focus ligt op het verschil tussen deze herhaalde metingen [23](#page=23).
De nulhypothese ($H_0$) voor de gepaarde t-toets stelt dat het gemiddelde verschil in de continue variabelen tussen de eerste en tweede meting in de doelpopulatie gelijk is aan nul ($\Delta = 0$). De toets berekent een t-statistiek die aangeeft hoe de steekproefresultaten zich verhouden tot de nulhypothese, rekening houdend met de standaardfout van het gemiddelde. Deze statistiek wordt vervolgens vergeleken met een t-distributie om een p-waarde te bepalen. Het betrouwbaarheidsinterval (BI) van 95% schat de grootte van het verschil en kan helpen bepalen of het resultaat klinisch relevant is. Als de nulwaarde buiten het BI valt, wordt de nulhypothese verworpen [23](#page=23) [24](#page=24).
> **Tip:** De p-waarde in SPSS wordt vaak gerapporteerd als "Sig. (2-tailed)". Een waarde kleiner dan 0,05 duidt doorgaans op significantie [25](#page=25).
#### 9.1.2 One sample t-toets
De one sample t-toets wordt gebruikt om het gemiddelde van een continue variabele in een steekproef te vergelijken met een bekende of gestandaardiseerde waarde. De voorwaarde is dat de gemeten variabele of het verschil tussen de variabele en de standaardwaarde min of meer normaal verdeeld is. De toets berekent een t-waarde en een bijbehorende p-waarde. Het betrouwbaarheidsinterval rond het gemiddelde verschil helpt bij het inschatten van de grootte van het effect [25](#page=25) [26](#page=26).
#### 9.1.3 Independent samples t-toets
De independent samples t-toets vergelijkt de gemiddelden van een continue variabele tussen twee onafhankelijke groepen. De nulhypothese stelt dat er geen verschil is tussen de gemiddelden van de twee populaties ($\mu_1 = \mu_2$) [26](#page=26).
Voorwaarden voor deze toets zijn:
* **Normaliteit:** De uitkomstvariabele moet in beide groepen normaal verdeeld zijn [26](#page=26).
* **Homoscedasticiteit:** De varianties van de uitkomstvariabele moeten gelijk zijn in beide groepen. Levene's test wordt gebruikt om homoscedasticiteit te toetsen; als de p-waarde van Levene's test groter is dan 0,05, wordt de nulhypothese van gelijke varianties niet verworpen [26](#page=26) [27](#page=27).
Als aan de voorwaarde van gelijke varianties (homoscedasticiteit) is voldaan, wordt de reguliere t-test berekend. Als deze voorwaarde geschonden is, wordt een aangepaste versie van de t-test gebruikt [27](#page=27).
#### 9.1.4 ANOVA (Variantieanalyse)
ANOVA wordt gebruikt om de gemiddelden van een continue variabele te vergelijken tussen **meer dan twee** onafhankelijke groepen. Hoewel het nog steeds met gemiddelden werkt, wordt de t-distributie niet langer gebruikt; in plaats daarvan wordt de F-distributie toegepast [27](#page=27).
De nulhypothese stelt dat alle groepsgemiddelden aan elkaar gelijk zijn ($\mu_1 = \mu_2 = \mu_3$) [28](#page=28).
Voorwaarden voor ANOVA zijn:
* **Normaliteit:** De uitkomstvariabele moet in alle groepen gelijk verdeeld zijn [28](#page=28).
* **Homoscedasticiteit:** De varianties moeten gelijk zijn in alle groepen [28](#page=28).
ANOVA splitst de totale variantie in de steekproef op in:
* **Tussengroepsvariantie (between-groups variance):** Meet het verschil tussen de groepsgemiddelden [28](#page=28).
* **Binnengroepsvariantie (within-groups variance):** Meet de spreiding van waarden binnen elke groep [28](#page=28).
De F-toetsingsgrootheid verhoudt de tussengroepsvariantie tot de binnengroepsvariantie; een hogere verhouding suggereert meer evidentie tegen de nulhypothese [28](#page=28).
ANOVA geeft enkel aan of er *een* algemeen verschil is tussen de groepen. Om te weten welke specifieke groepen van elkaar verschillen, zijn **post-hoc testen** nodig. Deze testen voeren paarsgewijze vergelijkingen uit (vergelijkbaar met t-testen), maar vereisen correctie voor het **multiple-testing problem** om de kans op een Type I fout te beperken [28](#page=28).
> **Tip:** Bij kleine steekproeven kan de normaliteitsvoorwaarde van parametrische testen problematisch zijn. Hoewel de Central Limit Theorem (CLT) aangeeft dat de verdeling van steekproefgemiddelden naar een normale verdeling neigt bij grotere steekproeven, kan de interpretatie van het gemiddelde problematisch blijven bij scheve verdelingen [29](#page=29).
### 9.2 Vergelijken van scheef verdeelde continue variabelen
Wanneer een continue variabele sterk afwijkt van normaliteit, zijn er twee hoofdbenaderingen: transformatie of het gebruik van non-parametrische testen [29](#page=29).
#### 9.2.1 Transformeren van variabelen
Een veelgebruikte transformatietechniek is de natuurlijke logaritme ($\ln$). Hierbij wordt een nieuwe variabele aangemaakt door de natuurlijke logaritme van elke oorspronkelijke waarde te nemen. Als de getransformeerde variabele een normale verdeling vertoont, kunnen parametrische testen worden toegepast. Het gemiddelde van de getransformeerde variabele wordt berekend, de test wordt uitgevoerd, en het resultaat wordt teruggetransformeerd met de inverse functie (exponentiële functie, $e^x$) om het in de oorspronkelijke meeteenheid te interpreteren. Bij het gebruik van het gemiddelde na transformatie, kan het geometrische gemiddelde relevanter zijn in de oorspronkelijke schaal [29](#page=29).
> **Tip:** Een histogram is een nuttig visueel hulpmiddel om de verdeling van een continue variabele te beoordelen. De beslissing om te transformeren of over te stappen op non-parametrische testen hangt vaak af van de steekproefgrootte en de mate van scheefheid [29](#page=29).
#### 9.2.2 Non-parametrische testen
Non-parametrische testen zijn gebaseerd op rangnummers in plaats van de werkelijke waarden. Ze zijn over het algemeen minder krachtig dan parametrische testen en bieden doorgaans geen effectschattingen, maar enkel een p-waarde voor significantie [29](#page=29).
##### 9.2.2.1 Mann-Whitney U test
Dit is de non-parametrische tegenhanger van de independent samples t-toets. De Mann-Whitney U test vergelijkt twee onafhankelijke groepen op een numerieke variabele die niet normaal verdeeld is. De nulhypothese stelt dat de distributie van de variabele in beide groepen gelijk is. De test rangschikt alle waarden binnen de groepen en vergelijkt de som van de rangnummers (rangsommen) tussen de groepen [30](#page=30).
##### 9.2.2.2 Wilcoxon signed rank test
Dit is de non-parametrische tegenhanger van de gepaarde t-toets voor gepaarde observaties (twee metingen binnen één groep). De nulhypothese stelt dat de mediaan van het verschil nul is, of dat de som van de positieve rangnummers gelijk is aan de som van de negatieve rangnummers. Elke observatie krijgt een rangnummer op basis van het verschil tussen de twee metingen, waarna de rangnummers met positieve en negatieve tekens worden gesommeerd [30](#page=30).
##### 9.2.2.3 Sign test (tekentoets)
De sign test is een non-parametrische test die gebruikt kan worden om één groep te vergelijken met een standaardwaarde. De nulhypothese stelt dat de mediaan van de variabele gelijk is aan de standaardwaarde, wat impliceert dat er ongeveer evenveel observaties boven als onder de mediaan liggen [30](#page=30) [31](#page=31).
##### 9.2.2.4 Kruskal-Wallis test
Dit is de non-parametrische tegenhanger van de ANOVA. De Kruskal-Wallis test vergelijkt de distributie van een variabele tussen **minstens drie** onafhankelijke groepen. De nulhypothese stelt dat de distributie van de variabele in alle groepen gelijk is [31](#page=31).
### 9.3 Correlatie
Correlatieanalyse onderzoekt de samenhang tussen twee continue variabelen. Het doel is om te zien of variatie in de ene variabele gepaard gaat met variatie in de andere variabele [31](#page=31).
#### 9.3.1 Pearson correlatiecoëfficiënt (r)
De Pearson correlatiecoëfficiënt ($r$) is een puntschatting van de mate van lineaire associatie tussen twee numerieke variabelen. De waarde ligt tussen -1 en +1 [31](#page=31) [32](#page=32).
* **Teken:** Een positief teken ($+$) duidt op een positieve lineaire relatie (stijging in X gaat samen met stijging in Y), terwijl een negatief teken ($-$) een negatieve lineaire relatie aangeeft (stijging in X gaat samen met daling in Y) [32](#page=32).
* **Grootte:** Hoe dichter de waarde bij +1 of -1 ligt, hoe sterker de lineaire correlatie is [32](#page=32).
De Pearson correlatiecoëfficiënt meet enkel de **lineaire** samenhang. Wanneer $r$ wordt gekwadrateerd, verkrijgen we $R^2$, de verklaarde variantie. $R^2$ geeft de proportie van de variantie in de ene variabele weer die verklaard kan worden door de lineaire relatie met de andere variabele [32](#page=32).
Voorwaarden voor de Pearson correlatie zijn:
* Twee continue variabelen [32](#page=32).
* Beide variabelen moeten normaal verdeeld zijn [32](#page=32).
* Geen uitschieters (outliers) [32](#page=32).
#### 9.3.2 Spearman's rank correlatiecoëfficiënt
Spearman's rho ($\rho$) is een non-parametrische correlatiecoëfficiënt die wordt berekend op basis van de rangnummers van de data. Deze wordt gebruikt wanneer de voorwaarden voor Pearson's $r$ niet voldaan zijn, met name bij afwijkingen van normaliteit, ordinale variabelen, of wanneer een niet-lineaire relatie wordt beschreven [33](#page=33).
### 9.4 Lineaire regressie
Lineaire regressie modelleert de relatie tussen een continue uitkomstvariabele (Y) en een of meerdere determinanten (X) [33](#page=33).
#### 9.4.1 Enkelvoudige lineaire regressie
Bij enkelvoudige lineaire regressie wordt de relatie tussen één continue uitkomstvariabele (Y) en één determinant (X) onderzocht. Het model zoekt de best passende rechte lijn door de datapunten in een scatterplot [33](#page=33).
De lineaire regressievergelijking is: $Y = A + BX$ [33](#page=33).
* $A$ (of $B_0$) is het intercept of de constante: de verwachte waarde van Y als X nul is [33](#page=33).
* $B$ (of $B_1$) is de helling (slope) of regressiecoëfficiënt: het verwachte verschil in Y bij een eenheidsverschil in X [33](#page=33).
De nulhypothese in een lineaire relatie stelt dat er geen lineaire relatie is, wat overeenkomt met een horizontale rechte lijn en een helling gelijk aan nul [33](#page=33).
**Gestandaardiseerde regressiecoëfficiënt (Beta):** In tegenstelling tot de niet-gestandaardiseerde regressiecoëfficiënt ($B$), worden bij de gestandaardiseerde coëfficiënt ($ \beta $) X en Y uitgedrukt in standaarddeviatie-eenheden. Dit maakt het mogelijk om de effecten van variabelen met verschillende meeteenheden directer te vergelijken. De interpretatie van $ \beta $ is vergelijkbaar met die van Pearson's $r$ [34](#page=34).
**Verklaarde variantie ($R^2$):** Dit is de proportie van de variantie in Y die verklaard wordt door X [34](#page=34).
* **Adjusted $R^2$:** Een correctie op $R^2$ die een realistischere schatting geeft van de verklaarde variantie, vooral bij modellen met veel predictoren [34](#page=34).
**Dichotome en categorische determinanten:** Lineaire regressie kan ook worden gebruikt met dichotome (variabelen met twee categorieën) of categorische determinanten door deze om te zetten in dummyvariabelen [34](#page=34).
#### 9.4.2 Voorwaarden voor lineaire regressie
* **Onafhankelijke observaties:** De observaties mogen niet gepaard of geclusterd zijn [36](#page=36).
* **Lineaire relatie:** De relatie tussen continue determinanten en de uitkomstvariabele moet lineair zijn. Dit kan visueel worden gecontroleerd met een scatterplot [36](#page=36).
* **Normaliteit van residuen:** De residuen (de verschillen tussen de geobserveerde en voorspelde Y-waarden) moeten normaal verdeeld zijn. Een histogram van de residuen kan dit nagaan. Indien niet voldaan, kan transformatie van de uitkomstvariabele nodig zijn [36](#page=36).
* **Homoscedasticiteit:** De variantie van de residuen moet constant zijn over alle voorspelde waarden van Y. Een trechtervorm in een plot van residuen tegen voorspelde waarden duidt op heteroscedasticiteit [37](#page=37).
#### 9.4.3 Meervoudige lineaire regressie
Meervoudige lineaire regressie onderzoekt de relatie tussen een continue uitkomstvariabele (Y) en **meerdere** determinanten (X'en). Dit model maakt het mogelijk om de onafhankelijke effecten van elke determinant te schatten, rekening houdend met de andere determinanten in het model [37](#page=37).
* **Partiële regressiecoëfficiënt:** De effecten van determinanten worden geschat in een meervoudig model, waarbij rekening wordt gehouden met andere onafhankelijke variabelen. Dit staat in contrast met de regressiecoëfficiënt uit een enkelvoudige analyse [37](#page=37).
**Typen modellen in meervoudige regressie:**
1. **Associatiemodellen:** Gericht op het zuiver beschrijven van de relatie tussen een centrale determinant en de uitkomstvariabele, rekening houdend met mogelijke **confounding** (verstorende variabelen) en **effectmodificatie** (interactie) [37](#page=37).
* **Confounding:** Een variabele C verstoort de relatie tussen X en Y als C zowel gerelateerd is aan X als aan Y. Confounding wordt getest door C toe te voegen aan het regressiemodel en te kijken of de regressiecoëfficiënt van X significant verandert (bijvoorbeeld meer dan 10%) [38](#page=38) [41](#page=41).
* **Effectmodificatie (Interactie):** Het verband tussen X en Y verschilt afhankelijk van de waarde van een andere variabele C. Dit wordt getest door een interactieterm ($X \times C$) aan het model toe te voegen. Een significante interactieterm (vaak met een significantieniveau van 0,10) duidt op effectmodificatie. Het effect van X moet dan per niveau van C worden bekeken (stratificatie) [38](#page=38) [39](#page=39).
2. **Predictiemodellen:** Gericht op het zo goed mogelijk voorspellen van de uitkomstvariabele aan de hand van een reeks determinanten [39](#page=39).
**Opbouw van modellen:**
* Het is belangrijk om de steekproefgrootte (N) in acht te nemen bij het aantal predictoren in een model (vuistregel: N = 10 * aantal predictoren) [40](#page=40).
* **Multicollineariteit:** Hoge correlatie tussen predictoren kan problemen veroorzaken [40](#page=40).
* **Ruwe (crude) model:** Een model zonder correctie voor andere factoren, gebruikt als referentie [40](#page=40).
Meervoudige regressie is essentieel om het **onafhankelijke effect** van een determinant te schatten, door de invloed van andere variabelen constant te houden [41](#page=41).
---
Dit document beschrijft methoden en testen om de normaliteit van continue variabelen na te gaan, wat een cruciale voorwaarde is voor veel statistische analyses. Er wordt ingegaan op verschillende toetsen en hun toepassingen, en hoe deze te interpreteren.
Het nagaan van de normaliteit van continue variabelen is een fundamentele stap in de statistische analyse, aangezien veel parametrische tests ervan uitgaan dat de data normaal verdeeld zijn. Schending van deze aanname kan leiden tot onjuiste conclusies. Hoewel de focus op deze pagina's ligt op tests die normaliteit *veronderstellen* (zoals de t-test en ANOVA), wordt de essentie van wat normaliteit betekent en waarom het belangrijk is, benadrukt [43](#page=43).
### 9.1 Vereisten van statistische testen
Verschillende statistische testen hebben specifieke vereisten met betrekking tot de verdeling van continue variabelen:
* **Gepaarde t-test**: Geschikt wanneer de verschillen tussen gepaarde observaties normaal verdeeld zijn. Dit is een parametrische test die wordt toegepast wanneer dezelfde variabele tweemaal wordt gemeten bij dezelfde personen [42](#page=42).
* **ANOVA (Analysis of Variance)**: Veronderstelt dat de uitkomstvariabele normaal verdeeld is in elk van de te vergelijken groepen. Naast normaliteit, is de voorwaarde van gelijke varianties (homogeniteit van varianties) ook belangrijk voor ANOVA. ANOVA vergelijkt gemiddelden tussen groepen [43](#page=43).
* **Independent-sample of two-sample t-test**: Veronderstelt dat de waarden in elke van de twee te vergelijken groepen onafhankelijk zijn. Deze test wordt gebruikt om één variabele te vergelijken tussen twee onafhankelijke groepen [43](#page=43).
* **Mann-Whitney U-test**: Dit is een non-parametrische test die niet veronderstelt dat de waarden normaal verdeeld zijn. De test is gebaseerd op de rangorde van observaties binnen elke groep en is daardoor minder krachtig dan parametrische testen [43](#page=43).
* **Kruskal-Wallis test**: Dit is eveneens een non-parametrische test en een uitbreiding van de Mann-Whitney U-test. Het doel is na te gaan of de uitkomstvariabele in de doelpopulatie gelijk is voor alle groepen [43](#page=43).
### 9.2 Concepten rondom schatten en toetsen
Toetsen en schatten worden gezien als complementaire methoden in de statistiek [44](#page=44).
* **Toetsen**: Richt zich op het bepalen of de nulhypothese kan worden verworpen en of een resultaat significant is. Dit gebeurt door het berekenen van een statistische grootheid (zoals een t-waarde) en het bepalen van de bijbehorende p-waarde. Het verzamelt bewijs tegen de nulhypothese [44](#page=44).
* **Schatten**: Focust op de betrouwbaarheid en de effectgrootte van een resultaat. Dit omvat het berekenen van een betrouwbaarheidsinterval rond een puntschatting [44](#page=44).
### 9.3 Dichotome uitkomstvariabelen en normaliteit
Bij dichotome uitkomstvariabelen (een kenmerk treedt wel of niet op, dus 1/0) wordt er gekeken naar proporties. Het onderscheid tussen parametrische en non-parametrische testen is hier minder prominent dan bij continue variabelen [45](#page=45).
* **McNemar-toets**: Gebruikt om verschillen tussen proporties in dezelfde groep te toetsen, met name bij gepaarde observaties. De nulhypothese stelt dat er geen verandering is opgetreden tussen de metingen [45](#page=45).
* **Z-toets voor proportie**: Wordt gebruikt om een proportie binnen een groep te vergelijken met een theoretische standaardwaarde. De nulhypothese stelt dat de proportie in de doelpopulatie gelijk is aan de standaardproportie. Voor deze toets is een minimale voorwaarde dat er in beide groepen meer dan 5 mensen zijn, wat een arbitraire vuistregel is [45](#page=45) [46](#page=46).
* **Toetsen**: Hierbij wordt een statistische grootheid (Z-waarde) berekend die aangeeft hoeveel bewijs er is tegen de nulhypothese, gebaseerd op de standaardfout van de proportie onder de nulhypothese ($se_{\text{H}_0}$). De formule hiervoor is [46](#page=46):
$$ Z = \frac{\hat{p} - p_0}{se_{\text{H}_0}} $$
waarbij $\hat{p}$ de geschatte proportie in de steekproef is en $p_0$ de proportie onder de nulhypothese [46](#page=46).
* **Schatten**: Hierbij wordt een betrouwbaarheidsinterval rond de steekproefproportie ($\hat{p}$) berekend. De formule voor de standaardfout van de proportie ($\text{se}$) is:
$$ \text{se} = \sqrt{\frac{\hat{p}(1-\hat{p})}{n}} $$
Het betrouwbaarheidsinterval wordt berekend als:
$$ \hat{p} \pm Z_{kritiek} \times \text{se} $$
Hierbij is $Z_{kritiek}$ typisch 1,96 voor een 95% betrouwbaarheidsinterval [46](#page=46).
### 9.4 Associatie tussen categorische variabelen
Wanneer we de associatie tussen twee dichotome variabelen onderzoeken, is de **chikwadraattoets** een veelgebruikte methode. Deze toets kan ook worden uitgebreid voor het analyseren van de samenhang tussen meerdere categorische variabelen [47](#page=47).
* **Chikwadraattoets**: Test de associatie tussen twee dichotome variabelen door te berekenen hoeveel evidentie er is tegen de nulhypothese van geen associatie. Dit gebeurt door in elke cel van een kruistabel het geobserveerde aantal (O) te vergelijken met het verwachte aantal (E) onder de nulhypothese. De testingsgrootheid $\chi^2$ volgt een chikwadraatverdeling, waarvan de vorm afhankelijk is van het aantal vrijheidsgraden (bij dichotome variabelen is dit 1) [48](#page=48).
> **Tip:** De chikwadraattoets is een benadering; de Fisher's exact toets of continuïteitscorrectie kan worden gebruikt voor een meer accurate schatting van de p-waarde, met name bij kleine aantallen [48](#page=48).
* **Voorwaarden voor de chikwadraattoets**: De verwachte aantallen (expected counts) in de meeste cellen (80%) moeten minstens 5 zijn, en in elke cel moet het aantal groter zijn dan 1 [48](#page=48).
Bij dichotome variabelen met meer dan twee groepen (bijvoorbeeld 3 of meer onafhankelijke groepen), wordt eveneens de chikwadraattoets gebruikt voor de r x c kruistabel. Het aantal vrijheidsgraden is hier minstens 2. Indien de voorwaarden voor de chikwadraattoets niet voldaan zijn, is er geen direct alternatief zoals Fisher's exact toets of continuïteitscorrectie [50](#page=50).
* **Trendtoets**: Indien de variabele van de groepen ordinaal is, kan de trendtoets (ook wel 'lineair by lineair association' genoemd) interessant zijn om te interpreteren. Deze toets geeft aan of er een lineaire trend is in de uitkomstvariabele over de ordinale groepen [50](#page=50).
### 9.5 Logistische regressie
Logistische regressie is een regressietechniek die gebruikt wordt voor dichotome uitkomstvariabelen. Het modelleert het natuurlijke logaritme van de odds, wat een transformatie is om een normaal verdeelde uitkomstvariabele te verkrijgen [51](#page=51) [52](#page=52).
* **Odds Ratio (OR)**: Dit is de effectmaat die als output wordt verkregen bij logistische regressie. Het is de verhouding van de odds, en wordt vaak gebruikt als schatting van het relatieve risico, met name in case-control studies. Een OR van 1 betekent geen verband; een OR groter dan 1 duidt op een verhoogd risico, en een OR kleiner dan 1 op een verlaagd risico [51](#page=51) [52](#page=52).
> **Tip:** Een Odds Ratio van 4 bij rokers ten opzichte van niet-rokers betekent dat rokers vier keer zoveel kans hebben op een bepaalde ziekte [53](#page=53).
* **Betrouwbaarheidsinterval voor de Odds Ratio**: Als de waarde 1 buiten het 95% betrouwbaarheidsinterval van de OR ligt, is het verband statistisch significant [53](#page=53).
* **Maximum Likelihood**: De schattingsmethode die gebruikt wordt in logistische regressie is 'maximum likelihood'. Hierbij worden de regressiecoëfficiënten zo geschat dat de aannemelijkheid van het model (de likelihood) gemaximaliseerd wordt [53](#page=53).
* **Meervoudige logistische regressie**: Hierbij worden de relaties tussen meerdere determinanten en een dichotome uitkomstvariabele onderzocht, rekening houdend met confounding en effectmodificatie [56](#page=56).
### 9.6 Kwaliteit van predictiemodellen
De kwaliteit van een predictiemodel wordt beoordeeld aan de hand van verschillende indicatoren [58](#page=58).
* **Classificatietabel**: Een tabel die gebaseerd is op een afkappunt (standaard 50% voorspelde kans) om te beoordelen hoe goed het model de werkelijke uitkomsten voorspelt. Het percentage correct voorspelde gevallen is hier een belangrijke indicator [58](#page=58).
* **Hosmer-Lemeshow toets**: Een 'goodness-of-fit' test die aangeeft of het predictiemodel een goede fit heeft met de data. Een niet-significante p-waarde (hoger dan 0.05) is wenselijk, omdat de nulhypothese stelt dat het predictiemodel 'past' [58](#page=58).
Deze secties (pagina's 42-61) bieden een uitgebreid overzicht van hoe om te gaan met continue en dichotome variabelen in statistische analyses, met een sterke focus op de voorwaarden voor de gebruikte testen en de interpretatie van de resultaten. Hoewel 'het nagaan van normaliteit' als thema centraal staat, wordt dit kader breed toegepast op diverse toetsen en modellen die normaliteit als voorwaarde hebben of juist omzeilen door non-parametrische methoden of transformaties te gebruiken.
---
Dit onderdeel van de studiehandleiding behandelt verschillende methoden om de normaliteit van continue variabelen te beoordelen, variërend van visuele inspectie tot formele statistische toetsen en grafische weergaven [65](#page=65).
### 9.1 Visuele inspectie van normaliteit
Voor een snelle en intuïtieve beoordeling van de normaliteit van continue variabelen kunnen de volgende visuele methoden worden gebruikt:
* **Histogram observeren:** Een histogram biedt een grafische weergave van de frequentieverdeling van de data. Een normale verdeling kenmerkt zich door een symmetrische, klokvormige curve [65](#page=65).
* **Box-plot:** Een box-plot kan eveneens visueel worden geanalyseerd om de symmetrie en mogelijke uitschieters te beoordelen, wat indirect informatie geeft over de normaliteit [65](#page=65).
* **Vergelijking van gemiddelde en mediaan:** Bij een symmetrische distributie liggen het gemiddelde en de mediaan waarden dicht bij elkaar. Een groter verschil kan wijzen op scheefheid van de verdeling [65](#page=65).
* **Vergelijking van gemiddelde en standaarddeviatie (sd):** Een normale verdeling wordt gekenmerkt door een klokvormige curve. De verhouding tussen het gemiddelde en de standaarddeviatie kan hierbij een indicatie geven [65](#page=65).
> **Tip:** Hoewel visuele methoden snel inzicht bieden, zijn ze subjectief. Voor een meer objectieve beoordeling zijn formele statistische indicatoren en toetsen essentieel.
### 9.2 Formele indicatoren van normaliteit
Naast visuele inspectie zijn er meer formele statistische maten en toetsen om de normaliteit van continue variabelen te evalueren.
#### 9.2.1 Skewness en Kurtosis
Skewness en kurtosis zijn twee statistische kenmerken die de mate van normaliteit van een distributie kwantificeren [65](#page=65):
* **Skewness (scheefheid):** Dit meet de mate van symmetrie of afwijking van een distributie.
* Een waarde van 0 voor skewness indiceert perfecte symmetrie en geen scheefheid [65](#page=65).
* Waarden tussen -1 en +1 worden doorgaans beschouwd als een voldoende normale verdeling [66](#page=66).
* Een waarde onder -1 duidt op een scheve linker distributie en een te platte verdeling [66](#page=66).
* Een waarde boven +1 duidt op een scheve rechter distributie en een te hoge piek [66](#page=66).
* **Kurtosis (platheid):** Dit beschrijft de "platheid" of "puntigheid" van de piek van een distributie in vergelijking met een normale verdeling.
* Een kurtosis van 0 wordt geassocieerd met een perfecte klokvormige distributie [65](#page=65).
* Afwijkingen van 0, zowel positief (te hoge piek) als negatief (te platte verdeling), duiden op afwijkingen van de normaliteit [65](#page=65).
Voor een normale distributie worden beide waarden (skewness en kurtosis) idealiter rond de 0 verwacht [65](#page=65).
#### 9.2.2 Statistische toetsen voor normaliteit
Specifieke statistische toetsen zijn ontworpen om de normaliteit van een dataset te evalueren. De nulhypothese ($H_0$) voor deze toetsen is meestal dat er geen afwijking is van de normaliteit, dus dat de data normaal verdeeld zijn [66](#page=66).
* **Kolmogorov-Smirnov toets:** Deze toets vergelijkt de empirische cumulatieve distributiefunctie van de steekproef met de cumulatieve distributiefunctie van een theoretische normale verdeling [66](#page=66).
* **Shapiro-Wilks toets:** Deze toets is specifiek bedoeld voor het nagaan van normaliteit en wordt over het algemeen als krachtiger beschouwd dan de Kolmogorov-Smirnov toets, vooral bij kleinere steekproeven [66](#page=66).
Bij het interpreteren van de p-waarde van deze toetsen, is het belangrijk om te onthouden dat een **niet-significante p-waarde** (typisch $p > 0.05$) wenselijk is wanneer men normaliteit wil aantonen, omdat dit betekent dat de nulhypothese (geen afwijking van normaliteit) niet verworpen kan worden [66](#page=66).
> **Tip:** Zowel de Kolmogorov-Smirnov als de Shapiro-Wilks toets zijn sterk gevoelig voor de steekproefgrootte. Bij zeer grote steekproeven kan zelfs een kleine, klinisch irrelevante afwijking van normaliteit leiden tot een significant resultaat (verwerpen van $H_0$), terwijl bij zeer kleine steekproeven een substantiële afwijking mogelijk niet significant wordt bevonden [66](#page=66).
#### 9.2.3 QQ-plot (Quantile-Quantile plot)
Een QQ-plot is een grafische methode die de gekwantificeerde waarden van de data plot tegen de theoretische kwantielen van een normale verdeling [66](#page=66).
* **Interpretatie:** Indien de datapunten nauwkeurig langs de diagonale lijn liggen, suggereert dit dat de data normaal verdeeld zijn. Hoe dichter de punten bij de diagonaal liggen, hoe beter de normaliteit. Afwijkingen van de diagonaal wijzen op afwijkingen van de normaliteit [66](#page=66).
> **Voorbeeld:** Een S-vormige afwijking van de diagonaal in een QQ-plot kan duiden op een te hoge piek (kurtosis) of te dunne staarten van de distributie.
### 9.3 Valkuilen bij het nagaan van normaliteit
Bij het toepassen van statistische analyses, met name regressiemodellen, zijn er valkuilen met betrekking tot normaliteit en samenhang tussen variabelen.
#### 9.3.1 Multicollineariteit
Multicollineariteit treedt op wanneer twee of meer onafhankelijke variabelen in een regressiemodel sterk met elkaar samenhangen. Dit probleem doet zich voornamelijk voor bij meervoudige regressieanalyses (lineair, logistisch, Cox-regressie) [66](#page=66).
* **Impact:** Hoge multicollineariteit maakt het moeilijk om de onafhankelijke impact van elke predictor op de uitkomstvariabele te bepalen [66](#page=66).
* **Detectie:**
* **Continue variabelen:** De onderlinge samenhang kan worden beoordeeld met behulp van Pearson correlatiecoëfficiënten. Een cut-off waarde van 0.60 wordt vaak gebruikt om een te sterke samenhang aan te duiden [66](#page=66).
* **Categorische variabelen:** De samenhang kan worden geanalyseerd met behulp van kruistabellen en chi-kwadraattoetsen. Er is hier geen vaste cut-off waarde [67](#page=67).
* **Oplossing:** Indien multicollineariteit wordt vastgesteld, wordt doorgaans één van de sterk gecorreleerde variabelen uit het model verwijderd. Bij voorkeur wordt die variabele behouden die de sterkste relatie heeft met de uitkomstvariabele [67](#page=67).
#### 9.3.2 Overige redenen voor "ontplofte modellen"
Naast multicollineariteit kunnen andere factoren leiden tot problemen in regressiemodellen, vaak aangeduid als "ontplofte modellen":
* **Te veel variabelen in het model:** Een te complex model met te veel predictoren kan leiden tot instabiliteit van de schattingen [67](#page=67).
* **Onvoldoende vergelijking tussen predictor en uitkomst (bij logistische regressie):** Dit kan optreden wanneer er onvoldoende gebeurtenissen (bv. geen herstelgevallen) zijn in een subgroep van de populatie, waardoor geen betrouwbare schattingen kunnen worden verkregen [67](#page=67).
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Effectmodificatie | Het onderzoeken of de relatie tussen een determinant (X) en een uitkomstvariabele (Y) anders verloopt door de aanwezigheid van een specifieke variabele, de effectmodificator. |
| Confounding | Een fenomeen waarbij de waargenomen relatie tussen een determinant en een uitkomstvariabele wordt verstoord door een derde variabele (confounder) die zowel gerelateerd is aan de determinant als aan de uitkomstvariabele. |
| Regressiecoëfficiënt | Een waarde die de sterkte en richting van de relatie tussen een onafhankelijke variabele en een afhankelijke variabele in een regressiemodel aangeeft. |
| Meervoudige regressie | Een statistische techniek die wordt gebruikt om de relatie tussen een afhankelijke variabele en twee of meer onafhankelijke variabelen te analyseren, waarbij de effecten van de onafhankelijke variabelen op elkaar worden gecontroleerd. |
| Predictiemodel | Een statistisch model dat wordt opgebouwd om een continue uitkomstvariabele zo goed mogelijk te voorspellen op basis van een reeks verklarende variabelen. |
| Backward selectieprocedure | Een methode voor het opbouwen van een predictiemodel waarbij gestart wordt met een uitgebreid model en vervolgens stapsgewijs variabelen worden verwijderd die het minst bijdragen aan de voorspellende kracht van het model. |
| Forward selectieprocedure | Een methode voor het opbouwen van een predictiemodel waarbij gestart wordt met een leeg model en vervolgens stapsgewijs de best presterende variabelen worden toegevoegd die de voorspellende kracht van het model verbeteren. |
| Verklarende variantie (R-kwadraat) | Een maatstaf die aangeeft welk percentage van de totale variatie in de afhankelijke variabele kan worden verklaard door de onafhankelijke variabelen in het model. |
| Gecorrigeerde R-kwadraat (Adjusted R-squared) | Een aangepaste versie van de R-kwadraat die rekening houdt met het aantal voorspellers in het model, waardoor een realistischere schatting wordt gegeven van de verklaarde variantie, vooral bij modellen met veel variabelen. |
| Gepareerde t-test | Een statistische test die wordt gebruikt om het verschil tussen twee gerelateerde metingen van dezelfde variabele te vergelijken, bijvoorbeeld metingen voor en na een interventie bij dezelfde personen. |
| Nulhypothese | Een hypothese die stelt dat er geen effect of geen verschil is tussen de populatieparameters die worden onderzocht, en die wordt getoetst met statistische methoden. |
| ANOVA (Variantieanalyse) | Een statistische test die wordt gebruikt om de gemiddelden van drie of meer groepen te vergelijken en te bepalen of er significante verschillen tussen deze groepen bestaan. |
| Term | Definitie |
| Survival analyse | Een statistische methode die de tijd analyseert totdat een specifieke uitkomst optreedt, oorspronkelijk ontwikkeld voor sterfteonderzoek, maar ook toepasbaar op morbiditeit en herstel. |
| Cox regressieanalyse | Een regressiemethode die lijkt op logistische regressie, maar specifiek is ontworpen voor overlevingsdata, waarbij de tijd tot een uitkomst centraal staat in plaats van enkel de dichotomie van de uitkomst. |
| Censoring | Het fenomeen waarbij gegevens in een statistische analyse worden "afgekapt", wat betekent dat sommige deelnemers het einde van de studie niet bereiken, geen uitkomst ervaren aan het einde, of de studie vroegtijdig verlaten. |
| Kaplan-Meier-overlevingscurve | Een grafische weergave van overlevingsdata die de cumulatieve kans op overleving over de tijd weergeeft, waarbij de follow-up tijd in segmenten wordt opgedeeld en de overlevingskans per segment wordt berekend. |
| Log-rank toets | Een statistische toets die wordt gebruikt om twee of meer overlevingscurves te vergelijken en te bepalen of er een significant verschil is in de overleving tussen de groepen, gebaseerd op de nulhypothese dat de curves samenvallen. |
| Hazard ratio (HR) | Een effectmaat die wordt gebruikt in de Cox-regressieanalyse om het verband tussen een determinant en de uitkomstvariabele uit te drukken; een HR van 1 betekent geen effect, een HR boven 1 duidt op een verhoogde kans op de uitkomst, en een HR onder 1 op een verlaagde kans. |
| Likelihood ratiotoets | Een statistische toets die wordt gebruikt om het verschil tussen twee Cox-regressiemodellen te evalueren, waarbij het verschil in de waarden van -2 log likelihood wordt vergeleken met een chi-kwadraatverdeling. |
| Dummycodering | Een methode die wordt gebruikt om categorische determinanten met meerdere categorieën te representeren in een regressieanalyse, waarbij dummyvariabelen worden gecreëerd om elke categorie te vergelijken met een referentiegroep. |
| Nulhypothese (H0) | Een stelling die stelt dat er geen effect is in de volledige onderzoekspopulatie, wat de basis vormt voor statistische toetsen. |
| Alternatieve hypothese | De hypothese die wordt geformuleerd vanuit de onderzoeksvraag en die het tegenovergestelde van de nulhypothese stelt. |
| Teststatistiek | Een berekende waarde op basis van steekproefgegevens die een indicatie geeft van hoeveel bewijs er wordt verzameld tegen de nulhypothese. |
| Theoretische kansverdeling | Een wiskundig model dat wordt gebruikt om de waarschijnlijkheid van verschillende uitkomsten te beschrijven, gebaseerd op het principe van oneindige herhaling van steekproeftrekkingen. |
| P-waarde | De kans om het waargenomen onderzoeksresultaat te verkrijgen, of een extremer resultaat, gegeven dat de nulhypothese waar is. Een lage p-waarde suggereert bewijs tegen de nulhypothese. |
| Z-verdeling (Standaardnormale kansverdeling) | Een theoretische kansverdeling die wordt gebruikt voor het schatten van gemiddelden bij continue uitkomstvariabelen, gekenmerkt door een gemiddelde van 0 en een standaarddeviatie van 1. |
| Standaardiseren | Het proces waarbij een variabele wordt uitgedrukt in termen van het aantal standaarddeviaties dat een waarde afwijkt van het gemiddelde, waardoor variabelen met verschillende eenheden vergelijkbaar worden. |
| Kansdichtheid | De waarde op de y-as van een kansverdeling, die geen exacte kans weergeeft, maar een indicatie geeft van de waarschijnlijkheid van een bepaald bereik van uitkomsten. |
| Steekproefgrootte | Het aantal waarnemingen of individuen dat is opgenomen in een steekproef, aangeduid met '$n$'. |
| Variantie | Een maat voor de spreiding van gegevens rond het gemiddelde, berekend door de gekwadrateerde afstanden van elke waarde tot het gemiddelde op te tellen en te delen door N-1. |
| Standaarddeviatie | De vierkantswortel van de variantie, die de gemiddelde afstand van de waarnemingen tot het gemiddelde weergeeft in de oorspronkelijke meeteenheid. |
| Interkwartiel-range (IQR) | Het verschil tussen het 75e percentiel (Q3) en het 25e percentiel (Q1), wat de spreiding van de middelste 50% van de gegevens weergeeft. |
| Parametrische testen | Statistische toetsen die worden gebruikt om vergelijkende onderzoeksvragen te beantwoorden wanneer men werkt met gemiddelde waarden van continue uitkomstvariabelen. Deze testen hebben specifieke voorwaarden waaraan voldaan moet worden. |
| Non-parametrische testen | Statistische toetsen die worden gebruikt wanneer de voorwaarden voor parametrische testen niet voldaan zijn. In plaats van gemiddelden, werken deze testen met rangnummers van de data. |
| Gepaarde t-toets | Een analysetechniek binnen één groep om gemiddelden van twee metingen bij dezelfde personen te vergelijken. Deze toets is nuttig bij gepaarde observaties, zoals meerdere metingen op een continue variabele bij dezelfde individuen. |
| T-distributie | Een kansverdeling die wordt gebruikt bij t-testen. De t-distributie helpt bij het bepalen van de waarschijnlijkheid van het observeren van een bepaald testresultaat, gegeven de nulhypothese. |
| Vrijheidsgraden | Een parameter die de mate van onafhankelijkheid van de waarnemingen in een steekproef aangeeft en die wordt gebruikt bij het interpreteren van statistische toetsen, zoals de t-toets. Voor een t-toets is dit vaak de steekproefgrootte min één. |
| Betrouwbaarheidsinterval (BI) | Een reeks waarden die waarschijnlijk de werkelijke populatieparameter bevat. Bij het schatten van het verschil tussen gemiddelden geeft een 95% BI aan dat we er 95% zeker van zijn dat het werkelijke verschil binnen die grenzen valt. |
| One sample t-toets | Een statistische toets die wordt gebruikt om het gemiddelde van een steekproef te vergelijken met een bekende of gestandaardiseerde waarde. De continue uitkomstvariabele moet hierbij min of meer normaal verdeeld zijn. |
| Independent samples t-toets | Een statistische toets die wordt gebruikt om de gemiddelden van een continue variabele tussen twee onafhankelijke groepen te vergelijken. De voorwaarden zijn onder andere normale verdeling in beide groepen en homoscedasticiteit. |
| Homoscedasticiteit | De aanname dat de varianties van de uitkomstvariabele in de te vergelijken groepen gelijk zijn. Dit is een belangrijke voorwaarde voor de independent samples t-toets. |
| Levene's test | Een statistische toets die wordt gebruikt om de homoscedasticiteit te controleren, oftewel de gelijkheid van varianties tussen twee of meer groepen. |
| ANOVA (Variantieanalyse) toets | Een statistische toets die wordt gebruikt om de gemiddelden van drie of meer onafhankelijke groepen te vergelijken. Deze toets maakt gebruik van de F-distributie en splitst de totale variantie op in tussengroepsvariantie en binnengroepsvariantie. |
| Meervoudige lineaire regressie | Een statistisch model dat de lineaire relatie onderzoekt tussen één continue uitkomstvariabele en meerdere onafhankelijke variabelen (covariaten). Het model kijkt naar hoe deze variabelen in combinatie met elkaar de uitkomstvariabele beïnvloeden. |
| Partiële regressiecoëfficiënt | Een regressiecoëfficiënt die wordt geschat binnen een meervoudig regressiemodel, rekening houdend met de invloed van andere onafhankelijke variabelen. De interpretatie ervan verschilt van die in een enkelvoudige regressieanalyse. |
| Associatiemodellen | Een type regressiemodel dat gericht is op het zuiver beschrijven van het verband tussen een centrale determinant en de uitkomstvariabele, door rekening te houden met mogelijke confounders en effectmodificatoren. |
| Confounding (verstorende variabele) | Een variabele die zowel gerelateerd is aan de onafhankelijke variabele als aan de uitkomstvariabele, waardoor het ware verband tussen de onafhankelijke variabele en de uitkomstvariabele vertekend kan worden. Het testen hiervan gebeurt door de regressiecoëfficiënt te vergelijken met en zonder de mogelijke confounder. |
| Effectmodificatie (interactie) | Situatie waarbij de sterkte of richting van het verband tussen een onafhankelijke variabele en de uitkomstvariabele verschilt afhankelijk van de waarde van een andere variabele (de effectmodificator). Dit wordt onderzocht door een interactieterm toe te voegen aan het model. |
| Interactieterm | Een nieuwe variabele die wordt gecreëerd door het product te nemen van twee hoofdeffecten (bijvoorbeeld de centrale determinant en een mogelijke effectmodificator). De significantie van deze term in een regressiemodel duidt op interactie. |
| Predictiemodellen | Een type regressiemodel dat wordt opgesteld met als doel de uitkomstvariabele zo nauwkeurig mogelijk te voorspellen aan de hand van een reeks mogelijke determinanten. |
| Ruw model (crude model / unadjusted model) | Een regressiemodel dat nog geen rekening houdt met andere factoren of covariaten. Dit dient als uitgangspunt om de invloed van toegevoegde variabelen te beoordelen. |
| Dichotome uitkomstvariabele | Een variabele die slechts twee mogelijke uitkomsten kent, zoals de aanwezigheid of afwezigheid van een bepaald kenmerk, vaak gecodeerd als 1 of 0. |
| McNemar-toets | Een statistische toets die wordt gebruikt om het verschil tussen proporties te toetsen bij gepaarde observaties binnen dezelfde groep, bijvoorbeeld bij het vergelijken van twee metingen bij dezelfde personen. |
| Nulhypothese (bij McNemar-toets) | De aanname dat er geen verandering is opgetreden in de dichotome variabele tussen de eerste en tweede meting, wat impliceert dat de proportie van de uitkomst gelijk blijft. |
| Z-toets voor proportie | Een statistische toets die wordt gebruikt om het verschil tussen een geobserveerde proportie in een groep en een theoretisch betekenisvolle standaardwaarde te toetsen. |
| Standaardfout van de proportie (sep) | Een maat voor de variabiliteit van de steekproefproportie, die wordt gebruikt bij het berekenen van toetsingsgrootheden en betrouwbaarheidsintervallen. De formule is `$\sqrt{p(1-p)/n}$` onder de nulhypothese. |
| Betrouwbaarheidsinterval | Een reeks waarden die waarschijnlijk de ware populatieparameter bevat, berekend rond een steekproefresultaat (puntschatting) met een bepaalde mate van betrouwbaarheid. |
| Kruistabel | Een tabel die wordt gebruikt om de associatie tussen twee categorische variabelen weer te geven, waarbij de data worden georganiseerd in rijen en kolommen die de categorieën van de variabelen vertegenwoordigen. |
| Chikwadraattoets ($\chi^2$-toets) | Een veelgebruikte statistische toets om de associatie tussen twee categorische variabelen te toetsen, gebaseerd op het vergelijken van geobserveerde aantallen met verwachte aantallen onder de nulhypothese. |
| Geobserveerd aantal (O) | Het daadwerkelijke aantal observaties in een cel van een kruistabel, zoals verkregen uit de steekproefdata. |
| Verwacht aantal (E) | Het aantal observaties dat men zou verwachten in een cel van een kruistabel onder de aanname dat de nulhypothese waar is, berekend op basis van marginale totalen. De formule is `$(rijtotaal \times kolomtotaal) / totaal$`. |
| Vrijheidsgraden (bij $\chi^2$-toets) | Het aantal onafhankelijke waarden dat vrij kan variëren in een statistische verdeling, wat de vorm van de chikwadraatverdeling beïnvloedt. Voor een $r \times k$ kruistabel is dit `$(r-1)(k-1)$`. |
| Fisher's exact toets | Een exacte statistische toets die wordt gebruikt om de associatie tussen twee categorische variabelen te toetsen, vooral nuttig bij kleine steekproefgroottes waar de aannames van de chikwadraattoets mogelijk niet voldaan zijn. |
| Chikwadraattoets | Een statistische toets die een p-waarde oplevert om de algemene associatie tussen variabelen te toetsen. Bij een 2x2 kruistabel kan de grootte van het verband worden gekwantificeerd met een effectmaat, zoals het verschil tussen twee proporties, het risico in prospectieve cohortstudies of de odds ratio in geval-controle studies. |
| Dummy variabele | Een variabele die wordt gecreëerd om categorische variabelen met meer dan twee categorieën te representeren in een regressieanalyse. Elke categorie (behalve een referentiecategorie) krijgt een eigen dummy variabele. |
| Effectmaat | Een kwantitatieve maat die de grootte van een verband of effect weergeeft, onafhankelijk van het studiedesign. Voorbeelden zijn het verschil tussen twee proporties, het relatieve risico en de odds ratio. |
| Enkelvoudige logistische regressie | Een regressietechniek waarbij een dichotome uitkomstvariabele wordt gerelateerd aan slechts één determinant (onafhankelijke variabele). |
| Exponentiële functie van het regressiecoëfficiënt | De exponentiële functie van de regressiecoëfficiënt in een logistische regressieanalyse, die gelijk is aan de Odds Ratio. Dit geeft de verhouding van de odds van de uitkomst aan voor een eenheidstoename in de determinant. |
| Logistische regressie | Een regressietechniek die specifiek wordt gebruikt voor het modelleren van dichotome uitkomstvariabelen. Het modelleert de natuurlijke logaritme van de odds van de uitkomst als een lineaire functie van de determinanten. |
| Maximum likelihood schatting | Een schattingsmethode die wordt gebruikt in logistische regressie om de modelparameters te bepalen. Het doel is om de parameters zo te schatten dat de waarschijnlijkheid (likelihood) van het observeren van de data zo groot mogelijk is. |
| Meervoudige logistische regressie | Een regressietechniek waarbij een dichotome uitkomstvariabele wordt gerelateerd aan meerdere determinanten (onafhankelijke variabelen) tegelijkertijd. Dit maakt het mogelijk om de onafhankelijke effecten van elke determinant te onderzoeken, rekening houdend met andere variabelen. |
| Correlatie | Een maat voor de samenhang tussen twee continue variabelen, die aangeeft of variatie in de ene variabele samengaat met variatie in de andere variabele. |
| Pearson correlatiecoëfficiënt ($r$) | Een puntschatting die de mate van lineaire associatie tussen twee numerieke variabelen in kaart brengt, met waarden tussen -1 en +1. Een positief teken duidt op een positieve lineaire relatie, een negatief teken op een negatieve lineaire relatie, en de grootte van de coëfficiënt geeft de sterkte van de lineaire correlatie aan. |
| $R^2$ (gekwadrateerde Pearson correlatiecoëfficiënt) | Geeft de proportie van de variantie in de ene variabele die verklaard wordt door de lineaire relatie met de andere variabele. Het geeft aan hoeveel van de spreiding in de ene variabele verklaard kan worden door de lineaire relatie met de andere. |
| Spearman's rank correlatiecoëfficiënt | Een non-parametrische correlatiecoëfficiënt die wordt berekend op basis van de rangnummers van de observaties. Deze test is geschikt wanneer er afwijkingen zijn van normaliteit, bij ordinale variabelen, of wanneer een niet-lineaire relatie beschreven moet worden. |
| Lineaire regressie | Een statistisch model dat wordt gebruikt om de relatie tussen een continue uitkomstvariabele (Y) en één of meerdere determinanten (X) te testen. Het doel is om een best passende rechte te trekken door de puntenwolk van de data. |
| Enkelvoudige lineaire regressie | Een regressiemodel waarbij één uitkomstvariabele (Y) wordt getest ten opzichte van één determinant (X). |
| Intercept ($B_0$ of A) | De verwachte waarde van de uitkomstvariabele (Y) wanneer de determinant (X) gelijk is aan nul. Dit vertegenwoordigt het beginpunt van de regressierechte. |
| Helling (Slope, $B_1$ of B) | De regressiecoëfficiënt die aangeeft wat het verwachte verschil in de uitkomstvariabele (Y) is bij een verschil van één eenheid in de determinant (X). Dit bepaalt de steilheid van de regressierechte. |
| Gestandaardiseerde regressiecoëfficiënt (Beta) | Een regressiecoëfficiënt waarbij zowel de determinant (X) als de uitkomstvariabele (Y) zijn uitgedrukt in standaarddeviatie-eenheden. Dit maakt interpretatie mogelijk, los van de oorspronkelijke meeteenheden. |
| Verklaarde variantie ($R^2$) | De proportie van de variantie in de uitkomstvariabele (Y) die verklaard wordt door het regressiemodel met de predictoren. |
| Adjusted $R^2$ | Een gecorrigeerde versie van $R^2$ die een potentieel overschatten van de modelkwaliteit voorkomt, vooral bij meervoudige regressie. |
| Continue variabele | Een variabele die oneindig veel mogelijke waarden kan aannemen binnen een bepaald bereik, zoals gewicht of lengte. |
| Normale verdeling | Een symmetrische, klokvormige kansverdeling waarbij de meeste waarnemingen zich rond het gemiddelde bevinden en er geen uitschieters zijn. Het gemiddelde en de mediaan liggen dicht bij elkaar. |
| Histogram | Een grafische weergave die de frequentieverdeling van continue variabelen toont, waarbij de x-as de mogelijke waarden van de variabele weergeeft en de y-as de frequentie of aantallen. |
| Gemiddelde | De som van alle waarden in een dataset gedeeld door het aantal waarden. Het is een centrummaat die een indicatie geeft van de meest typische waarde, vooral wanneer de variabele normaal verdeeld is. |
| Mediaan | De middelste waarde in een geordende dataset. Het is een centrummaat die minder gevoelig is voor uitschieters dan het gemiddelde en nuttig is bij scheef verdeelde data. |
| Scheefheid (Skewness) | Een maat voor de asymmetrie van een kansverdeling. Een rechtsscheve verdeling heeft een lange staart naar rechts en het gemiddelde ligt boven de mediaan, terwijl een linksscheve verdeling een lange staart naar links heeft en het gemiddelde lager ligt dan de mediaan. |
| Transformatie | Een wiskundige bewerking die wordt toegepast op de waarden van een variabele om de verdeling ervan te veranderen, bijvoorbeeld om een scheef verdeelde variabele meer normaal te maken. Een veelgebruikte transformatie is de natuurlijke logaritme. |
| Natuurlijke logaritme | Een wiskundige functie (ln) die de inverse is van de exponentiële functie met grondtal e. Het wordt vaak gebruikt als transformatie om scheef verdeelde data te normaliseren. |
| Boxplot (Box and whisker plot) | Een grafische weergave die de distributie van een continue variabele toont, inclusief de mediaan, kwartielen en mogelijke uitschieters. Het geeft een idee van de spreiding en symmetrie van de data. |