Cover
立即免费开始 Samenvatting%20statistiek.docx
Summary
# Beschrijvende statistiek
Beschrijvende statistiek richt zich op het samenvatten en grafisch weergeven van data om inzicht te krijgen in de belangrijkste kenmerken ervan.
### 1.1 Doel van beschrijvende statistiek
Het hoofddoel is het overzichtelijk samenvatten van verzamelde data, zonder direct verbanden of relaties te onderzoeken. Dit omvat het presenteren van centrale tendensen en de spreiding van de data.
### 1.2 Typen data en hun weergave
Data kunnen worden onderverdeeld in categorische (nominaal, ordinaal, dichotoom) en numerieke (discreet, continu) variabelen. De keuze van weergave hangt af van het type variabele.
#### 1.2.1 Weergave van categorische variabelen
* **Frequentietabellen:** Tonen het aantal waarnemingen (frequentie), percentages, valide percentages (exclusief missende waarden) en cumulatieve percentages voor elke categorie.
* **Grafische weergave:**
* **Staafdiagram:** Geschikt voor dichotome en categorische variabelen. Bij twee variabelen kan een geclusterd staafdiagram worden gebruikt.
* **Taartdiagram:** Geeft de proporties van de verschillende categorieën weer.
#### 1.2.2 Weergave van numerieke variabelen
* **Numerieke samenvatting:**
* **Centrummaten:** Beschrijven het typische of centrale punt van de data.
* **Modus:** De meest voorkomende waarde. Nuttig voor categorische en continue data, maar negeert veel informatie.
* **Rekenkundig gemiddelde:** Gebruikt alle data, maar is gevoelig voor uitschieters en scheve verdelingen. Wordt idealiter gebruikt bij normaal verdeelde data.
* **Mediaan:** De middelste waarde na het ordenen van de data. Niet gevoelig voor uitschieters en scheve verdelingen.
* **Geometrisch gemiddelde:** Gebruikt na transformatie (natuurlijk logaritme) van scheef verdeelde data, om vervolgens terug te transformeren.
* **Spreidingsmaten:** Beschrijven de variabiliteit of verspreiding van de data rond het centrum.
* **Variantie:** De gemiddelde gekwadrateerde afwijking van het gemiddelde. Gevoelig voor uitschieters.
* **Standaarddeviatie ($SD$):** De vierkantswortel van de variantie. Geeft de gemiddelde afstand van observaties tot het gemiddelde weer en heeft dezelfde eenheid als de variabele. Gevoelig voor uitschieters.
* **Range:** Het verschil tussen de maximum- en minimumwaarde. Sterk beïnvloed door uitschieters.
* **Interkwartielafstand (IQR):** Het verschil tussen het 75e percentiel (P75) en het 25e percentiel (P25). Beschrijft de spreiding van de middelste 50% van de data en is robuust tegen uitschieters.
* **Grafische weergave:**
* **Histogram:** Toont de frequentieverdeling van continue variabelen.
* **Box-and-whisker plot (box-plot):** Geeft de mediaan, kwartielen, en potentiële uitschieters weer. Snorharen geven de spreiding aan, en hun lengte kan indicatie geven van symmetrie.
* **Puntenwolk (scatterplot):** Wordt gebruikt om de relatie tussen twee continue variabelen te visualiseren.
### 1.3 Kenmerken van verdelingen
#### 1.3.1 Normale verdeling
* **Kenmerken:** Symmetrisch, klokvormig.
* **Eigenschappen:** Het gemiddelde is gelijk aan de mediaan. Ongeveer 95% van de waarnemingen ligt binnen twee standaarddeviaties ($SD$) van het gemiddelde ($ \\mu \\pm 2SD $).
#### 1.3.2 Niet-normale verdelingen
* **Kenmerken:** Asymmetrisch. Het gemiddelde is niet gelijk aan de mediaan.
* **Scheefheid:**
* **Rechtsscheve verdeling (positieve scheefheid):** Het gemiddelde is groter dan de mediaan. De 'staart' van de verdeling wijst naar rechts, wat duidt op uitschieters aan de hoge kant.
* **Linksscheve verdeling (negatieve scheefheid):** Het gemiddelde is kleiner dan de mediaan. De 'staart' van de verdeling wijst naar links, wat duidt op uitschieters aan de lage kant.
### 1.4 Normaliteit nagaan
Het beoordelen van de normaliteit van continue variabelen is cruciaal voor de keuze van statistische toetsen.
* **Visuele inspectie:**
* **Histogram:** Beoordeel de vorm van de verdeling.
* **Box-plot:** Beoordeel de symmetrie van de snorharen en de positie van de mediaan in de box.
* **Vergelijking van maten:**
* Vergelijk het gemiddelde en de mediaan: een groot verschil kan duiden op scheefheid.
* Vergelijk het gemiddelde met de standaarddeviatie: bij een normale verdeling ligt ongeveer 95% van de data binnen $ \\mu \\pm 2SD $. Dit is echter minder betrouwbaar bij sterk afwijkende verdelingen.
* **Statistische toetsen (niet-grafisch):**
* **Kolmogorov-Smirnov test:** Toetst of de verdeling van de data significant afwijkt van een normale verdeling.
* **Shapiro-Wilk test:** Een krachtigere toets voor normaliteit, vooral bij kleinere steekproeven.
* **QQ-plot (Quantile-Quantile plot):** Vergelijkt de kwantielen van de geobserveerde data met de kwantielen van een theoretische normale verdeling. Punten die dicht bij de diagonale lijn liggen, duiden op normaliteit.
> **Tip:** Bij grote steekproeven ($N$) kunnen statistische normaliteitstoetsen snel significant worden, zelfs bij lichte afwijkingen. Visuele inspectie blijft essentieel.
### 1.5 Variabelen definiëren
* **Doelpopulatie:** De grotere populatie waarover we uitspraken willen doen.
* **Steekproef (onderzoekspopulatie):** Een subset van de doelpopulatie die daadwerkelijk wordt onderzocht.
* **Populatieparameters:** Kenmerken van de doelpopulatie (vaak Griekse letters, bv. $ \\mu $ voor gemiddelde, $ \\sigma $ voor standaarddeviatie).
* **Steekproefstatistieken:** Kenmerken berekend uit de steekproef (vaak Romeinse letters, bv. $ \\bar{x} $ voor gemiddelde, $ s $ voor standaarddeviatie).
* **Afhankelijke variabele (uitkomstvariabele):** De variabele die we willen verklaren of voorspellen.
* **Onafhankelijke variabele (determinant, predictor):** Variabelen die invloed kunnen hebben op de uitkomstvariabele.
* **Categorische/kwalitatieve variabelen:**
* **Nominaal:** Categorieën zonder natuurlijke ordening.
* **Ordinaal:** Categorieën met een natuurlijke ordening.
* **Dichotoom:** Variabelen met precies twee categorieën, vaak gecodeerd als 0 en 1 (dummy codering).
* **Numerieke/kwantitatieve variabelen:**
* **Discreet:** Waarden zijn gehele getallen of telbare aantallen.
* **Continu:** Kan elke waarde binnen een bepaald bereik aannemen (interval- of ratioschaal).
### 1.6 Centrale limietstelling
De centrale limietstelling stelt dat het steekproefgemiddelde van een voldoende grote steekproef normaal verdeeld is, ongeacht de oorspronkelijke verdeling van de variabele in de populatie. Dit maakt het mogelijk om toetsen gebaseerd op de normale verdeling toe te passen, zelfs bij niet-normaal verdeelde populaties, mits de steekproef groot genoeg is.
### 1.7 Interpreteren van statistische output
* **Statistieken vs. Parameters:** Parameters beschrijven de populatie, terwijl statistieken uit de steekproef worden berekend om deze parameters te schatten.
* **Betrouwbaarheidsinterval (BI):** Geeft een bereik van waarden waarbinnen de werkelijke populatieparameter naar verwachting ligt met een bepaalde mate van zekerheid (bv. 95%).
* **P-waarde (overschrijdingskans):** De kans om het geobserveerde onderzoeksresultaat (of een extremer resultaat) te verkrijgen, aangenomen dat de nulhypothese ($H\_0$) waar is. Een lage p-waarde ($p < \\alpha$) leidt tot het verwerpen van $H\_0$.
> **Tip:** Een statistisch significant resultaat ($p < \\alpha$) betekent niet noodzakelijk dat het effect klinisch relevant is. Bekijk altijd de grootte van het effect (bv. via de effectmaat en het betrouwbaarheidsinterval).
> **Tip:** Bij de interpretatie van data is het belangrijk om onderscheid te maken tussen de gemeten waarden (statistieken) en de populatiekenmerken (parameters).
> **Voorbeeld:** Als een onderzoek een gemiddeld salaris van 30.000 euro vindt in een steekproef ($ \\bar{x} = 30.000 $), dan is dit een steekproefstatistiek. Het gemiddelde salaris in de gehele populatie van werknemers in die sector is de populatieparameter ($ \\mu $), die we schatten met het steekproefgemiddelde. Een 95% betrouwbaarheidsinterval rond $ \\bar{x} $ geeft dan een schatting van het bereik van $ \\mu $.
* * *
# Verklarende statistiek en hypothesetoetsing
Oké, hier is een gedetailleerde studiehandleiding voor "Verklarende statistiek en hypothesetoetsing", gebaseerd op de verstrekte documentatie, met strikte naleving van alle opmaak- en inhoudsvereisten.
## 2\. Verklarende statistiek en hypothesetoetsing
Verklarende statistiek maakt het mogelijk om conclusies te trekken over een gehele populatie op basis van gegevens verkregen uit een steekproef, waarbij de onzekerheid wordt gekwantificeerd door middel van hypothesetoetsing en kansrekening.
### 2.1 Inleiding tot verklarende statistiek
Verklarende statistiek, ook wel inferentiële statistiek genoemd, overstijgt de beschrijvende samenvatting van data. Het doel is om schattingen te maken van effecten en relaties in de **doelpopulatie** op basis van gegevens uit een **steekproef**. Dit omvat het bepalen van de betrouwbaarheid van onderzoeksresultaten en het toetsen van hypothesen.
#### 2.1.1 Populatie en steekproef
* **Doelpopulatie:** De bredere groep waarover we uitspraken willen doen. Populatieparameters (zoals het ware gemiddelde) zijn hier onbekend en worden niet direct berekend.
* **Onderzoekspopulatie (steekproef):** Een subset van de doelpopulatie waaruit data wordt verzameld. Steekproefresultaten, ook wel **puntschattingen** genoemd, worden gebruikt om populatieparameters af te leiden.
#### 2.1.2 Generalisatie en onzekerheid
De kernuitdaging is het generaliseren van steekproefresultaten naar de doelpopulatie. Hierbij is er altijd sprake van een zekere **foutmarge** of **sampling error**, omdat de gehele populatie zelden volledig betrokken wordt bij het onderzoek. De mate van onzekerheid wordt gekwantificeerd door middel van toetsen en schattingen.
De mate van onzekerheid hangt af van twee belangrijke factoren:
1. **Grootte van de steekproef ($N$)**: Hoe groter de steekproef, hoe groter de zekerheid.
2. **Spreiding/heterogeniteit van de observaties**: Hoe groter de spreiding (grotere standaarddeviatie, $SD$), hoe groter de onzekerheid.
De **standard error of the mean** (standaardfout van het gemiddelde) is een maat voor de betrouwbaarheid of precisie van het steekproefgemiddelde als schatting van het populatiegemiddelde. De formule hiervoor is:
$$ SE = \\frac{\\sigma}{\\sqrt{N}} $$
waarbij $\\sigma$ de populatiestandaardafwijking is, en $N$ de steekproefgrootte. In de praktijk wordt $\\sigma$ vaak geschat met de steekproefstandaarddeviatie ($s$).
### 2.2 Kansen en kansverdelingen
Kansen en kansverdelingen vormen de theoretische basis voor verklarende statistiek.
#### 2.2.1 Theoretische kansverdelingen
Een **theoretische kansverdeling** (ook wel probabiliteitsdistributie) beschrijft de theoretische kans op verschillende uitkomsten in een gegeven situatie.
* **Binomiale kansverdeling:** Van toepassing op situaties met twee mogelijke uitkomsten (dichotome variabelen), zoals succes/falen of ja/nee.
* De verwachtingswaarde (gemiddelde) is gelijk aan $N \\times p$, waarbij $N$ het aantal experimenten is en $p$ de kans op succes.
* **Normale kansverdeling:** Een symmetrische, klokvormige verdeling die vaak wordt gebruikt voor continue variabelen. Ongeveer 95% van de waarnemingen valt binnen het interval gemiddelde $\\pm$ 2 \* $SD$.
* Voor continue variabelen is de kans op een \_exacte waarde nul. In plaats daarvan spreekt men van **kansdichtheid**, wat de kans aangeeft dat een variabele groter of kleiner is dan een bepaalde waarde.
#### 2.2.2 Teststatistiek en de p-waarde
Een **teststatistiek** is een statistische grootheid die wordt berekend uit de steekproefgegevens. Het kwantificeert de mate van evidentie tegen de nulhypothese ($H\_0$). De teststatistiek volgt een theoretische kansverdeling rond de nulhypothese.
De **p-waarde** is de kans om een onderzoeksresultaat te vinden dat minstens zo extreem is als het geobserveerde resultaat, ervan uitgaande dat de nulhypothese ($H\_0$) waar is.
* **Interpretatie:** Een lage p-waarde (< significantieniveau $\\alpha$) suggereert dat het geobserveerde resultaat onwaarschijnlijk is onder $H\_0$, wat leidt tot het verwerpen van $H\_0$.
### 2.3 Hypothesetoetsing: de 5 stappen
Hypothesetoetsing is een systematisch proces om te bepalen of er voldoende bewijs is om een claim over een populatie te ondersteunen.
1. **Formuleren van hypothesen:**
* **Nulhypothese ($H\_0$)**: Veronderstelt geen effect, verband of correlatie in de doelpopulatie.
* **Alternatieve hypothese ($H\_a$)**: Geldt als de $H\_0$ onwaar is.
2. **Dataverzameling:** Gegevens worden verzameld uit een steekproef.
3. **Berekenen van de teststatistiek:** Op basis van de steekproefgegevens wordt de relevante teststatistiek berekend. Deze statistiek volgt een specifieke kansverdeling.
4. **Bepalen van de p-waarde:** De kans op het observeren van de teststatistiek, of een extremere waarde, wordt berekend onder aanname van $H\_0$.
5. **Beslissing:**
* Als de p-waarde kleiner is dan het vooraf bepaalde **significantieniveau ($\\alpha$)** (typisch 0.05), wordt $H\_0$ verworpen ten gunste van $H\_a$. Het resultaat wordt als **statistisch significant** beschouwd.
* Als de p-waarde groter is dan $\\alpha$, wordt $H\_0$ niet verworpen. Dit betekent echter niet dat $H\_0$ waar is, alleen dat er onvoldoende bewijs is om deze te verwerpen.
#### 2.3.1 Fouten bij hypothesetoetsing
Er zijn twee soorten fouten mogelijk bij hypothesetoetsing:
* **Type I fout ( $\\alpha$ ):** Het verwerpen van $H\_0$ terwijl deze in werkelijkheid juist is. Dit is de kans op een vals-positief resultaat. Bij $\\alpha = 0.05$ is de kans hierop 5%.
* **Type II fout ( $\\beta$ ):** Het niet verwerpen van $H\_0$ terwijl deze in werkelijkheid onjuist is. Dit is de kans op een vals-negatief resultaat.
* **Power van een test ( $1 - \\beta$ ):** De kans om $H\_0$ correct te verwerpen wanneer deze onjuist is. Een hogere power is wenselijk.
#### 2.3.2 Eenzijdig en tweezijdig toetsen
* **Eenzijdig toetsen:** Hypothesen worden in één specifieke richting geformuleerd.
* **Tweezijdig toetsen:** Hypothesen worden niet in één specifieke richting geformuleerd. De p-waarde is tweemaal zo groot als bij eenzijdige toetsing, wat betekent dat $H\_0$ minder snel wordt verworpen. Dit wordt beschouwd als een conservatievere benadering.
### 2.4 Schattingsmethoden: Betrouwbaarheidsintervallen
Naast het toetsen van hypothesen, is het kwantificeren van de onzekerheid door middel van schattingen cruciaal. Een **betrouwbaarheidsinterval (BI)** biedt een reeks waarden waarbinnen de werkelijke populatieparameter waarschijnlijk ligt.
* Een **95% betrouwbaarheidsinterval** impliceert dat, indien het onderzoek vele malen herhaald zou worden, 95% van de berekende intervallen de ware populatiewaarde zou bevatten.
* De waarde 1.96 is de z-waarde die overeenkomt met een significantieniveau van 5% voor een tweezijdig interval en wordt veelvuldig gebruikt in de berekening van 95% BI's.
* Als de nulhypothesewaarde (bv. 0 voor een verschil of 1 voor een odds ratio) buiten het 95% BI valt, is het resultaat statistisch significant bij $\\alpha = 0.05$.
### 2.5 De Centrale Limietstelling
De **centrale limietstelling** (Central Limit Theorem, CLT) stelt dat, bij voldoende grote steekproeven ($N$), het steekproefgemiddelde een normale verdeling volgt, ongeacht de oorspronkelijke verdeling van de variabele in de populatie. Dit is een fundamentele reden waarom veel statistische toetsen (die normaliteit veronderstellen) toch robuust zijn, zelfs bij niet-normaal verdeelde data, mits de steekproefgrootte toereikend is.
#### 2.5.1 z-verdeling versus t-verdeling
* **z-verdeling (standaardnormale verdeling):** Wordt gebruikt wanneer de populatiestandaardafwijking ($\\sigma$) bekend is, of bij zeer grote steekproeven ($N > 100$). Het gemiddelde is 0 en de standaarddeviatie is 1.
* **t-verdeling:** Wordt gebruikt wanneer de populatiestandaardafwijking onbekend is en wordt geschat met de steekproefstandaarddeviatie ($s$). De t-verdeling is breder dan de z-verdeling, vooral bij kleine steekproeven, en benadert de z-verdeling naarmate de steekproefgrootte ($N$) toeneemt. De vorm van de t-verdeling wordt bepaald door het aantal **vrijheidsgraden (df)**, dat doorgaans gerelateerd is aan de steekproefgrootte (bv. $df = N-1$ voor de one sample t-test).
### 2.6 Analyse van continue uitkomstvariabelen
Verschillende statistische technieken kunnen worden gebruikt om continue variabelen te analyseren, afhankelijk van het aantal groepen en de afhankelijkheid van de metingen.
#### 2.6.1 Vergelijken van gemiddelden
* **Gepaarde t-toets:** Vergelijkt de gemiddelde verschillen tussen twee gerelateerde metingen in één groep (bv. voor- en nameting bij dezelfde persoon).
* $H\_0$: Het gemiddelde verschil in de doelpopulatie is 0 ($\\mu\_{verschil} = 0$).
* Voorwaarde: De verschillen moeten normaal verdeeld zijn.
* **One Sample t-toets:** Toetst of het gemiddelde van één groep significant verschilt van een bekende standaardwaarde of theoretisch gemiddelde.
* $H\_0$: Het populatiegemiddelde is gelijk aan een bepaalde waarde ($\\mu = \\mu\_0$), of het populatiegemiddelde verschil is 0 ($\\mu\_{verschil} = 0$).
* Voorwaarde: De variabele moet normaal verdeeld zijn.
* **Independent Samples t-toets:** Vergelijkt de gemiddelden van twee onafhankelijke groepen.
* $H\_0$: De populatiegemiddelden van beide groepen zijn gelijk ($\\mu\_1 = \\mu\_2$).
* Voorwaarden: Normale verdeling van de uitkomstvariabele in beide groepen en **homoscedasticiteit** (gelijke varianties in beide groepen). Een F-toets (bv. Levene's test) wordt gebruikt om homoscedasticiteit te toetsen.
* **ANOVA (Variantieanalyse):** Vergelijkt de gemiddelden van drie of meer onafhankelijke groepen.
* $H\_0$: Alle groepsgemiddelden zijn gelijk ($\\mu\_1 = \\mu\_2 = \\mu\_3 = \\dots$).
* Voorwaarden: Normaliteit in alle groepen en homoscedasticiteit.
* Als $H\_0$ wordt verworpen, worden **post-hoc testen** uitgevoerd voor paarsgewijze vergelijkingen, waarbij correcties voor multiple toetsing noodzakelijk zijn.
#### 2.6.2 Vergelijken van scheef verdeelde variabelen
Wanneer continue variabelen scheef verdeeld zijn, vooral bij kleine steekproeven, worden non-parametrische testen gebruikt:
* **Transformeren:** Variabelen kunnen getransformeerd worden (bv. met de natuurlijke logaritme) om normaliteit te benaderen, waarna parametrische testen kunnen worden toegepast. Het resultaat moet vervolgens worden teruggetransformeerd.
* **Non-parametrische testen (gebaseerd op rangnummers):**
* **Mann-Whitney U test:** Vergelijkt twee onafhankelijke groepen.
* $H\_0$: De distributies van de groepen zijn gelijk.
* **Wilcoxon Signed Rank test:** Vergelijkt gepaarde waarnemingen binnen één groep.
* $H\_0$: De mediaan van het verschil is 0.
* **Kruskal-Wallis test:** Vergelijkt drie of meer onafhankelijke groepen.
* $H\_0$: De distributies van de groepen zijn gelijk.
* Deze testen zijn doorgaans minder krachtig dan parametrische testen en bieden geen effectgrootte-schattingen.
#### 2.6.3 Analyseren van relaties
* **Pearson correlatiecoëfficiënt ($r$):** Meet de sterkte en richting van de lineaire associatie tussen twee continue variabelen (schatting van populatiecorrelatie $\\rho$). De waarde varieert van -1 tot +1. $r^2$ vertegenwoordigt de proportie verklaarde variantie.
* Voorwaarden: Continue variabelen, normaliteit, geen uitbijters, en een lineaire relatie.
* **Spearman's rank correlatiecoëfficiënt:** Meet de associatie tussen de rangnummers van twee variabelen. Geschikt voor ordinale variabelen, afwijkingen van normaliteit, en het beschrijven van non-lineaire relaties.
* **Lineaire regressie:** Modellen de relatie tussen een continue uitkomstvariabele ($Y$) en één of meerdere onafhankelijke variabelen (determinanten, $X$).
* **Enkelvoudige lineaire regressie:** $Y = b\_0 + b\_1X$. $b\_0$ is de intercept en $b\_1$ is de regressiecoëfficiënt (helling), die het verwachte verschil in $Y$ aangeeft per eenheid verschil in $X$.
* **Meervoudige lineaire regressie:** $Y = b\_0 + b\_1X\_1 + b\_2X\_2 + \\dots + b\_kX\_k$. Modellen de relatie met meerdere determinanten, waarbij de **partiële regressiecoëfficiënten** de relatie tussen één determinant en de uitkomstvariabele weergeven, terwijl de andere determinanten constant worden gehouden.
* Voorwaarden: Onafhankelijke observaties, lineariteit, normaliteit van residuen, en homoscedasticiteit.
* **Dummy variabelen:** Categorische determinanten worden omgezet naar dummy variabelen (0 of 1) om ze in regressiemodellen op te nemen.
* **Confounding en effectmodificatie:** Meervoudige regressie kan worden gebruikt om confounding (verstorende effecten) te corrigeren en effectmodificatie (interactie) te onderzoeken.
### 2.7 Analyse van dichotome uitkomstvariabelen
Voor dichotome uitkomstvariabelen worden andere statistische technieken gebruikt.
#### 2.7.1 Vergelijken van proporties
* **McNemar-toets:** Vergelijkt proporties binnen dezelfde groep bij herhaalde metingen (bv. cross-over studies). Toetst het verschil tussen twee proporties.
* **z-toets voor proportie:** Vergelijkt de proportie in één groep met een standaardwaarde.
* $H\_0$: De populatieproportie is gelijk aan een standaardwaarde ($\\pi = \\pi\_0$).
* Voorwaarde: $np \\ge 5$ en $n(1-p) \\ge 5$ (waarbij $p$ de geschatte proportie is).
* **Chikwadraattoets ($\\chi^2$):** Toetst de associatie tussen twee categorische variabelen, vaak weergegeven in een kruistabel.
* $H\_0$: Er is geen associatie tussen de variabelen.
* Geschikt voor het vergelijken van proporties tussen twee of meer groepen.
* **Fisher's exact toets:** Een alternatief voor de $\\chi^2$\-toets bij kleine aantallen verwachtingen in de cellen.
* **Logistische regressie:** Modellen de relatie tussen een dichotome uitkomstvariabele en één of meerdere determinanten (continu of categorisch). De uitkomst wordt hierbij getransformeerd via de natuurlijke logaritme van de **odds** (log-odds).
* De **Odds Ratio (OR)** is de effectmaat, die de verhouding van de odds van de uitkomst tussen twee groepen weergeeft.
* $H\_0$: De Odds Ratio is 1 ($EXP(b\_1) = 1$).
* Schatting van regressiecoëfficiënten gebeurt via de **maximum likelihood methode**. Modellen worden vergeleken met de **Likelihood Ratio Test**.
### 2.8 Analyse van overlevingsdata
Overlevingsdata omvatten de tijd tot een specifieke uitkomst optreedt, naast het al dan niet optreden van de uitkomst zelf. Dit wordt voornamelijk gebruikt in prospectief cohortonderzoek.
* **Censoring:** Data waarbij de uitkomst niet is opgetreden tegen het einde van de follow-up, of wanneer een participant vroegtijdig uit het onderzoek verdwijnt.
* **Kaplan-Meier-overlevingscurve:** Grafische weergave van de overlevingskans over tijd.
* **Log-ranktoets:** Vergelijkt overlevingscurves tussen twee of meer groepen.
* $H\_0$: De overlevingscurves van de groepen overlappen.
* **Cox-regressieanalyse:** Modellen de relatie tussen overlevingsdata en determinanten. De effectmaat is de **Hazard Ratio (HR)**, die het relatieve risico op de uitkomst op elk tijdstip weergeeft.
* $H\_0$: De Hazard Ratio is 1 ($EXP(b\_1) = 1$).
* Voorwaarde: **Proportional hazards** (de HR is constant over tijd). Dit moet expliciet worden getoetst.
### 2.9 Betrouwbaarheid van meetinstrumenten
De kwaliteit van een meetinstrument wordt beoordeeld aan de hand van validiteit en betrouwbaarheid.
#### 2.9.1 Betrouwbaarheid van categorische variabelen
* **Kappa-statistiek:** Meet de mate van overeenkomst tussen twee beoordelaars of methoden voor categorische variabelen, gecorrigeerd voor toevalsovereenkomst.
* Interpretatie: Een Kappa-waarde > 0.70 duidt op een goede overeenkomst.
* Toepassingen: Test-hertest betrouwbaarheid, inter- en intrabeoordelaarsbetrouwbaarheid.
#### 2.9.2 Betrouwbaarheid van continue variabelen
* **Pearson correlatiecoëfficiënt:** Kan gebruikt worden, maar is gevoelig voor systematische afwijkingen.
* **Intra-class correlatiecoëfficiënt (ICC):** Een betere maat voor test-hertest en inter-/intrabeoordelaarsbetrouwbaarheid voor continue variabelen. Een ICC > 0.70 wordt als goed beschouwd.
* **Bland-Altman plot:** Een grafische methode om de overeenkomst tussen twee meetmethoden te beoordelen, door de verschillen tegen de gemiddelden uit te zetten.
### 2.10 Steekproefgrootteberekeningen
Steekproefgrootteberekeningen (a priori) worden uitgevoerd in de ontwerpfase van een onderzoek om te bepalen hoeveel proefpersonen nodig zijn om een verwacht effect met voldoende **power** aan te tonen. Belangrijke inputparameters zijn:
1. **Significantieniveau ($\\alpha$):** Kans op Type I fout (vaak 0.05).
2. **Power ($1-\\beta$):** Kans op het correct verwerpen van $H\_0$ (minimaal 0.80).
3. **Grootte van het verwachte effect en de spreiding daarrond:** Een groter verwachte effect vereist een kleinere steekproef, terwijl grotere spreiding een grotere steekproef vereist.
### 2.11 Valkuilen in statistische analyses
#### 2.11.1 Multicollineariteit
Probleem dat optreedt wanneer twee of meer onafhankelijke variabelen in een regressiemodel sterk met elkaar correleren, wat de interpretatie van hun onafhankelijke effecten bemoeilijkt. Als de Pearson correlatie tussen twee continue variabelen groter is dan 0.60, kan dit wijzen op multicollineariteit. Een van de variabelen moet dan uit het model worden verwijderd.
#### 2.11.2 Ontplofte modellen
Modellen die onrealistische of oninterpreteerbare resultaten produceren (bv. extreme betrouwbaarheidsintervallen, onmogelijke regressiecoëfficiënten). Oorzaken kunnen zijn: multicollineariteit, te veel variabelen in een model, of ongeschikte variabelen in het model (bv. een categorische variabele met een zeer kleine groep).
#### 2.11.3 Normaliteit en QQ-plots
* **Skewness en Kurtosis:** Statistieken die de scheefheid en platheid van een verdeling meten.
* **Kolmogorov-Smirnov en Shapiro-Wilks toetsen:** Statistische testen voor normaliteit. Een significante p-waarde (< 0.05) indiceert dat de data niet normaal verdeeld is. Deze toetsen zijn echter gevoelig voor de steekproefgrootte.
* **QQ-plot:** Een grafische methode om de normaliteit te beoordelen. Punten die dicht bij de diagonale lijn liggen, duiden op een normale verdeling.
#### 2.11.4 Meer geavanceerde analyses
* **Two-way ANOVA:** Vergelijkt een continue uitkomstvariabele op basis van twee categorische determinanten, inclusief interactietermen.
* **Repeated measures analyse:** Voor herhaalde metingen van een continue variabele op meer dan twee tijdstippen.
* **Multilevel analyse:** Voor geclusterde data (bv. leerlingen binnen klassen, patiënten binnen ziekenhuizen).
* * *
**Tabellen uit het document (geherstructureerd voor duidelijkheid):**
**Tabel: Definities**
ConceptBeschrijvingData / ObservatiesWaarnemingen of metingen op variabelen.VariabelenKenmerken die worden gemeten of geobserveerd.SteekproefDe onderzoekspopulatie, die hopelijk representatief is voor de doelpopulatie.DoelpopulatieDe ruimere populatie waarover uitspraken gedaan worden.Afhankelijke (uitkomst)variabeleDe variabele die men wil voorspellen of verklaren.Onafhankelijke variabeleDeterminanten, verklarende variabelen, voorspellers, predictoren.
**Tabel: Soorten variabelen en hun typische weergave**
Soort VariabeleBeschrijvende Statistiek (Numeriek)Beschrijvende Statistiek (Grafisch)Categorisch/DichotoomFrequentietabel (frequentie, percentage, cumulatief percentage)Staafdiagram, TaartdiagramContinu/NumeriekGemiddelde, Standaarddeviatie (SD), Mediaan, P25 & P75, Range (Min, Max)Histogram, Box-and-whisker plot, Stem-and-leaf plotTwee Categorische-Geclusterd staafdiagram, KruistabelTwee Continue-Puntenwolk (scatterplot)
**Tabel: Centrummaten**
CentrummaatBeschrijvingVoordelenNadelenModusMeest voorkomende waarde.Makkelijk bepaald voor alle variabele types.Negeert meeste data, niet wiskundig berekend.Rekenkundig gemiddeldeSom van waarden gedeeld door het aantal waarden.Gebruikt alle data, wiskundig berekend.Gevoelig voor uitschieters en scheve verdelingen, alleen bij normale var.MediaanMiddelste waarde na sorteren (50e percentiel).Niet beïnvloed door uitschieters en scheve verdelingen.Negeert meeste data, niet wiskundig berekend.Geometrisch gemiddeldeGemiddelde van de log-getransformeerde waarden, terug-getransformeerd.Geschikt voor rechts-scheve, positief gewaardeerde data na transformatie.Vereist dat log-transformatie normaliteit teweegbrengt.
**Tabel: Spreidingsmaten**
SpreidingsmaatBeschrijvingVoordelenNadelenVariantieGemiddelde van de gekwadrateerde afwijkingen van het gemiddelde.Gebruikt alle observaties, wiskundig.Eenheid is gekwadrateerd, gevoelig voor uitschieters.Standaarddeviatie (SD)Wortel uit de variantie; gemiddelde afstand van observaties tot het gemiddelde.Zelfde eenheid als variabele, makkelijk geïnterpreteerd.Gevoelig voor uitschieters, niet optimaal voor scheve data.RangeVerschil tussen maximum en minimum waarde.Makkelijk te bepalen.Bekijkt slechts twee waarden, gevoelig voor uitschieters.Interkwartielafstand (IQR)Verschil tussen het 75e en 25e percentiel (middelste 50% van de data).Niet beïnvloed door uitschieters, onafhankelijk van $N$.Moeilijk te berekenen, niet wiskundig berekend.
**Tabel: Parameter versus statistiek**
KenmerkPopulatieparameter (Griekse letters)Steekproefstatistiek (Romeinse letters)Te berekenen?NeeJaRandom?NeeJa
**Tabel: Toetsen versus schatten**
KenmerkToetsen (Hypothesetoetsing)Schatten (Betrouwbaarheidsinterval)DoelKwalitatieve beslissing (H0 verwerpen/niet verwerpen)Kwantitatieve schatting van populatieparameterOutputp-waardeBetrouwbaarheidsintervalInterpretatieZegt iets over de waarschijnlijkheid onder H0.Geeft een reeks plausibele waarden voor de populatieparameter.Relatie met foutenKans op Type I ($\\alpha$) en Type II ($\\beta$) fouten.Gerelateerd aan het betrouwbaarheidsniveau (bv. 95% BI voor $\\alpha=0.05$).InformatieVooral "ja/nee" beslissing, minder informatie over effectgrootte.Geeft informatie over de grootte en precisie van het effect.Gevolg bij significantieH0 verwerpen.Populatieparameter wordt geschat binnen een interval, en bevat de H0-waarde niet.
**Tabel: Fouten bij Hypothesetoetsing**
WerkelijkheidH0 VerwerpenH0 Niet Verwerpen$H\_0$ is JuistType I Fout ($\\alpha$)Geen Fout ($1-\\alpha$)$H\_0$ is OnjuistGeen Fout ($1-\\beta$, Power)Type II Fout ($\\beta$)
**Tabel: Overzicht van statistische technieken (parametrisch vs. non-parametrisch)**
SituatieParametrisch (gemiddelden)Non-parametrisch (rangnummers)Vergelijken 1 groepGepaarde t-test, One sample t-testWilcoxon Signed Rank test, Sign testVergelijken 2 groepenIndependent Samples t-testMann-Whitney U testVergelijken >2 groepenANOVA (Variantieanalyse)Kruskal-Wallis testRelatie met 1 continue varPearson correlatieSpearman correlatieRelatie met determinantenLineaire regressie-
**Tabel: Specifieke toetsen voor gemiddelden**
HypotheseToetsenSchatten (95% BI)$H\_0: \\mu = \\mu\_0$One Sample t-test (met $\\mu\_0$ als standaardwaarde)95% BI rond het steekproefgemiddelde ($\\bar{x}$).$H\_0: \\mu\_{verschil} = 0$Gepaarde t-test (met gemiddelde verschil)95% BI rond het gemiddelde verschil.$H\_0: \\mu\_1 = \\mu\_2$Independent Samples t-test (met verschil tussen gemiddelden $\\bar{x}\_1 - \\bar{x}\_2$)95% BI rond het verschil tussen de steekproefgemiddelden ($\\bar{x}\_1 - \\bar{x}\_2$).
**Tabel: Analyse van dichotome uitkomstvariabelen**
OnderzoekssituatieToetsenSchatten (95% BI)Vergelijken binnen één groepMcNemar-toets, z-toets voor proportie95% BI rond proportie(s).Vergelijken van 2 groepenChikwadraattoets ($\\chi^2$), Fisher's exact test95% BI rond het verschil in proporties of Odds Ratio (OR).Vergelijken >2 groepen$\\chi^2$\-toets voor $R \\times K$ kruistabelGeen standaard BI voor algemene associatie; opsplitsen in 2x2 tabellen met BI's kan, maar vereist correctie.Relatie met andere varLogistische regressieanalyse95% BI rond Odds Ratio (OR).
**Tabel: Analyse van overlevingsdata**
OnderzoekssituatieToetsenEffectmaat (Schatten)Vergelijken 2 groepenLog-ranktoetsGeenVergelijken >2 groepenLog-ranktoets (overall)GeenRelatie met andere varCox-regressieanalyseHazard Ratio (HR)
**Tabel: Normaliteit van continue variabelen**
MethodeBeschrijvingInterpretatie (bij H0: verdeling is normaal)Visueel (Histogram, Box-plot)Visuele inspectie van de vorm van de verdeling.Symmetrisch, klokvormig patroon.Skewness & KurtosisKwantitatieve maten voor scheefheid en 'puntigheid' van de verdeling.Waarden dichtbij 0 duiden op normaliteit.Kolmogorov-Smirnov / Shapiro-Wilks toetsStatistische toetsen voor normaliteit.**Niet-significante p-waarde (< 0.05)** wijst op afwijking van normaliteit; **significante p-waarde (> 0.05)** is gewenst.QQ-plotGrafische weergave van geobserveerde waarden tegen de verwachte waarden van een normale verdeling.Punten die dicht bij de diagonale lijn liggen, suggereren normaliteit.
* * *
# Analyse van continue uitkomstvariabelen
Deze sectie behandelt statistische toetsen en methoden voor het analyseren van continue uitkomstvariabelen, met een focus op het vergelijken van groepen, het testen van correlaties en lineaire regressie. Zowel parametrische als non-parametrische benaderingen worden besproken, evenals de vereisten en interpretatie van de resultaten.
### 3.1 Parametrische toetsen voor vergelijking van groepen
Parametrische toetsen zijn geschikt wanneer de continue uitkomstvariabele (bij benadering) normaal verdeeld is binnen de bestudeerde groepen. Deze toetsen maken gebruik van gemiddelden en standaardafwijkingen.
#### 3.1.1 Vergelijking binnen één groep
##### Gepaarde t-toets
* **Doel:** Toetst het gemiddelde verschil tussen twee metingen bij dezelfde proefpersoon of bij gekoppelde observaties binnen één groep (bv. voor- en nameting).
* **Nulhypothese (H₀):** Het gemiddelde verschil tussen de twee metingen in de doelpopulatie is gelijk aan nul ($\\mu = 0$).
* **Voorwaarde:** De verschillen tussen de metingen moeten normaal verdeeld zijn.
* **Interpretatie:** Een significant resultaat (typisch $p < 0.05$) suggereert dat er een statistisch significant verschil is tussen de twee metingen.
##### One Sample t-toets
* **Doel:** Toetst of het gemiddelde van een continue variabele in een steekproef significant verschilt van een bekende standaardwaarde of een theoretisch gemiddelde.
* **Nulhypothese (H₀):** Het gemiddelde in de doelpopulatie is gelijk aan een specifieke waarde ($\\mu = \\mu\_0$). Vaak wordt getoetst of het gemiddelde verschil met een standaardwaarde nul is ($\\mu = 0$).
* **Voorwaarde:** De uitkomstvariabele moet normaal verdeeld zijn.
#### 3.1.2 Vergelijking van twee onafhankelijke groepen
##### Independent Samples t-toets
* **Doel:** Toetst het verschil tussen de gemiddelden van een continue uitkomstvariabele in twee onafhankelijke groepen.
* **Nulhypothese (H₀):** Er is geen verschil tussen de gemiddelden van de twee groepen in de doelpopulatie ($\\mu\_1 = \\mu\_2$). Dit kan ook geschreven worden als $\\mu\_1 - \\mu\_2 = 0$.
* **Voorwaarden:**
* De uitkomstvariabele moet normaal verdeeld zijn in beide groepen.
* De varianties van de uitkomstvariabele in beide groepen moeten gelijk zijn (homoscedasticiteit). Dit wordt vaak getoetst met de Levene's test.
* **Teststatistiek:** De $t$\-waarde, die afhangt van de steekproefgroottes en de spreiding binnen de groepen.
* **Vrijheidsgraden (df):** Typisch $(n\_1 + n\_2) - 2$.
#### 3.1.3 Vergelijking van meer dan twee onafhankelijke groepen
##### ANOVA (Variantieanalyse)
* **Doel:** Toetst of er significante verschillen zijn tussen de gemiddelden van drie of meer onafhankelijke groepen.
* **Nulhypothese (H₀):** Alle groepsgemiddelden zijn aan elkaar gelijk ($\\mu\_1 = \\mu\_2 = \\mu\_3 = \\dots$).
* **Teststatistiek:** De $F$\-waarde, die de ratio is van de variantie \_tussen de groepen ten opzichte van de variantie \_binnen de groepen. Een hogere $F$\-waarde indiceert grotere verschillen tussen de groepsgemiddelden.
* **Voorwaarden:**
* Normaliteit van de uitkomstvariabele in alle groepen.
* Homoscedasticiteit (gelijke varianties) in alle groepen (getoetst met Levene's test).
* **Interpretatie:** Als de globale ANOVA significant is ($p < 0.05$), betekent dit dat er ten minste één groepsgemiddelde significant verschilt van de andere. De ANOVA vertelt echter niet \_welke specifieke groepen van elkaar verschillen.
* **Post-hoc testen:** Indien de ANOVA significant is, worden post-hoc testen (zoals de Tukey's HSD, Bonferroni) gebruikt om paarsgewijze vergelijkingen tussen groepen uit te voeren. Deze testen passen vaak een correctie toe voor het multipel toetsingsprobleem.
### 3.2 Non-parametrische toetsen voor vergelijking van groepen
Non-parametrische toetsen worden gebruikt wanneer de aannames van parametrische toetsen (met name normaliteit) geschonden zijn, vooral bij kleinere steekproeven. Ze werken op basis van rangnummers in plaats van de werkelijke waarden.
#### 3.2.1 Vergelijking van twee onafhankelijke groepen
##### Mann-Whitney U test (ook wel Wilcoxon Rank-Sum test)
* **Doel:** Toetst het verschil tussen de verdelingen van twee onafhankelijke groepen (alternatief voor de Independent Samples t-toets).
* **Nulhypothese (H₀):** De verdelingen van de uitkomstvariabele in beide groepen zijn gelijk. Dit impliceert dat de rangsommen van beide groepen gelijk zouden moeten zijn.
* **Principe:** Alle observaties worden gecombineerd en gerangschikt van laag naar hoog. Vervolgens worden de rangnummers van de twee groepen afzonderlijk berekend.
* **Interpretatie:** Een significante $p$\-waarde suggereert dat de verdelingen van de twee groepen verschillen.
#### 3.2.2 Vergelijking van gepaarde waarnemingen binnen één groep
##### Wilcoxon Signed Rank test
* **Doel:** Toetst het verschil tussen twee gepaarde metingen binnen één groep (alternatief voor de Gepaarde t-toets).
* **Nulhypothese (H₀):** De mediaan van het verschil tussen de gepaarde metingen is nul, ofwel de som van de positieve rangnummers is gelijk aan de som van de negatieve rangnummers.
* **Principe:** De verschillen tussen de gepaarde observaties worden berekend, de absolute waarden van deze verschillen worden gerangschikt, en de tekens van de oorspronkelijke verschillen worden aan de rangnummers toegekend.
##### Sign test (Tekentoets)
* **Doel:** Toetst of de mediaan van een continue variabele significant verschilt van een standaardwaarde. Dit is een eenvoudigere non-parametrische toets voor één steekproef.
* **Nulhypothese (H₀):** De mediaan van de populatie is gelijk aan een specifieke waarde ($\\mu\_0$).
#### 3.2.3 Vergelijking van meer dan twee onafhankelijke groepen
##### Kruskal-Wallis test
* **Doel:** Toetst of er significante verschillen zijn tussen de verdelingen van drie of meer onafhankelijke groepen (alternatief voor ANOVA).
* **Nulhypothese (H₀):** De verdelingen van de uitkomstvariabele in alle groepen zijn gelijk.
* **Principe:** Vergelijkbaar met de Mann-Whitney U test, maar dan uitgebreid naar meerdere groepen. Alle observaties worden gecombineerd en gerangschikt, en de rangsommen van elke groep worden vergeleken.
* **Nadeel:** De Kruskal-Wallis test biedt geen directe methoden voor paarsgewijze vergelijkingen (post-hoc testen) zoals ANOVA dat wel heeft, en heeft een lagere statistische power dan ANOVA wanneer de aannames van ANOVA wel voldaan zijn.
### 3.3 Testen van correlatie
Correlatie meet de sterkte en richting van de lineaire samenhang tussen twee continue variabelen. Het indiceert geen causaal verband.
#### 3.3.1 Pearson correlatiecoëfficiënt ($r$)
* **Doel:** Meet de sterkte en richting van een \_lineaire relatie tussen twee continue variabelen.
* **Bereik:** Ligt tussen -1 en +1.
* $r = +1$: Perfecte positieve lineaire relatie.
* $r = -1$: Perfecte negatieve lineaire relatie.
* $r = 0$: Geen lineaire relatie.
* Waarden dichter bij +1 of -1 duiden op een sterkere lineaire relatie.
* **Voorwaarden:**
* Beide variabelen moeten continu zijn.
* De relatie tussen de variabelen moet (bij benadering) lineair zijn.
* De data mag geen extreme uitbijters bevatten die de correlatie sterk beïnvloeden.
* Idealiter zijn beide variabelen normaal verdeeld.
* **Interpretatie:** De absolute waarde van $r$ geeft de sterkte aan, het teken geeft de richting aan (positief of negatief). Een waarde rond 0.70 wordt vaak beschouwd als een indicatie van een sterke correlatie.
* **$r^2$ (Determinatiecoëfficiënt):** Vertegenwoordigt het proportie verklaarde variantie; het percentage van de variantie in de ene variabele dat verklaard kan worden door de lineaire relatie met de andere variabele.
#### 3.3.2 Spearman's rank correlatiecoëfficiënt ($\\rho$ of $r\_s$)
* **Doel:** Meet de sterkte en richting van de monotone relatie (niet noodzakelijk lineair) tussen twee variabelen, gebaseerd op hun rangnummers.
* **Geschikt voor:**
* Ordinale variabelen.
* Continue variabelen wanneer de normaliteitsassumptie geschonden is of er veel uitbijters zijn.
* Beschrijven van niet-lineaire, monotone relaties.
* **Principe:** De Pearson correlatie wordt berekend op de rangnummers van de data in plaats van op de ruwe data.
### 3.4 Lineaire regressie
Lineaire regressie analyseert de relatie tussen een continue afhankelijke variabele (uitkomstvariabele) en één of meerdere onafhankelijke variabelen (determinanten).
#### 3.4.1 Enkelvoudige lineaire regressie
* **Doel:** Modelleren van de lineaire relatie tussen één continue onafhankelijke variabele ($X$) en één continue afhankelijke variabele ($Y$).
* **Model:** $Y = b\_0 + b\_1X + \\epsilon$
* $b\_0$ (intercept/constante): De verwachte waarde van $Y$ wanneer $X = 0$.
* $b\_1$ (helling/slope/regressiecoëfficiënt): Het verwachte verschil in $Y$ voor elke eenheidstoename in $X$. Dit geeft de richting en sterkte van de lineaire relatie aan.
* $\\epsilon$: Het residu, het deel van $Y$ dat niet door $X$ verklaard wordt.
* **Methode:** De 'methode van de kleinste kwadraten' (least squares method) wordt gebruikt om de waarden van $b\_0$ en $b\_1$ te schatten, zodanig dat de som van de gekwadrateerde residuen wordt geminimaliseerd.
* **Nulhypothese (H₀):** Er is geen lineaire relatie tussen $X$ en $Y$ in de doelpopulatie ($\\beta\_1 = 0$). Significante toetsing gebeurt voornamelijk op $b\_1$.
#### 3.4.2 Meervoudige lineaire regressie
* **Doel:** Modelleren van de relatie tussen een continue afhankelijke variabele ($Y$) en twee of meer onafhankelijke variabelen ($X\_1, X\_2, \\dots, X\_k$).
* **Model:** $Y = b\_0 + b\_1X\_1 + b\_2X\_2 + \\dots + b\_kX\_k + \\epsilon$
* **Interpretatie van regressiecoëfficiënten:** Een regressiecoëfficiënt ($b\_i$) vertegenwoordigt het verwachte verschil in $Y$ bij een eenheidstoename in $X\_i$, \_terwijl alle andere onafhankelijke variabelen in het model constant worden gehouden. Dit maakt het mogelijk om de onafhankelijke effecten van elke determinant te evalueren.
* **Voorwaarden:**
* Onafhankelijke observaties.
* Lineaire relatie tussen de continue determinanten en de uitkomstvariabele.
* Normaliteit van de residuen.
* Homoscedasticiteit (constante variantie van de residuen over de voorspelde waarden).
* Geen of minimale multi-collineariteit (sterke onderlinge correlatie tussen onafhankelijke variabelen).
#### 3.4.3 Categorische determinanten in lineaire regressie
* **Dummy variabelen:** Categorische variabelen worden omgezet in dummy variabelen (meestal gecodeerd als 0 of 1).
* Voor een dichotomische determinant worden één dummy variabele aangemaakt. De regressiecoëfficiënt vertegenwoordigt het verschil in gemiddelde $Y$ tussen de categorie die door '1' wordt gerepresenteerd en de referentiecategorie (vaak '0').
* Voor een categorische determinant met $k$ categorieën worden $k-1$ dummy variabelen aangemaakt, met één referentiecategorie.
#### 3.4.4 Verklaarde variantie ($R^2$) en adjusted $R^2$
* **$R^2$:** Geeft de proportie van de totale variantie in de uitkomstvariabele $Y$ aan die verklaard wordt door de onafhankelijke variabelen in het model.
* **Adjusted $R^2$:** Een aangepaste versie van $R^2$ die rekening houdt met het aantal predictoren in het model en de steekproefgrootte. Deze is doorgaans lager dan $R^2$ en is een betere indicator voor de kwaliteit van het model, vooral bij meervoudige regressie.
### 3.5 Transcriptie van Scheef Verdeelde Continue Variabelen
Wanneer een continue variabele scheef verdeeld is, kunnen gemiddelden misleidend zijn. Twee methoden zijn gangbaar:
* **Transformatie:**
* **Natuurlijk logaritme:** Vaak wordt de natuurlijke logaritme van de variabele genomen ($\\ln(X)$). De analyse wordt vervolgens uitgevoerd op de getransformeerde data. Het resultaat kan worden teruggetransformeerd om de interpretatie in de oorspronkelijke eenheden te behouden (geometrisch gemiddelde).
* **Non-parametrische testen:** Deze methoden zijn minder gevoelig voor de verdeling van de data.
### 3.6 Betrouwbaarheidsintervallen (BI)
Betrouwbaarheidsintervallen kwantificeren de onzekerheid rondom een puntschatting (zoals een gemiddelde, verschil in gemiddelden of regressiecoëfficiënt).
* Een 95% betrouwbaarheidsinterval geeft een bereik van waarden waarbinnen de werkelijke populatiewaarde met 95% waarschijnlijkheid ligt.
* Als een 95% BI rond een verschil in gemiddelden (bv. van een $t$\-toets) de nul niet bevat, wordt het resultaat als statistisch significant beschouwd ($p < 0.05$).
* Voor regressiecoëfficiënten indiceert een 95% BI dat als de nul niet binnen het interval valt, de determinant een statistisch significant effect heeft.
### 3.7 Centrale Limietstelling
De Centrale Limietstelling stelt dat het steekproefgemiddelde van een willekeurige populatie (mits de steekproefgrootte voldoende groot is, vaak $N > 30$) een normale verdeling zal volgen, ongeacht de oorspronkelijke verdeling van de variabele in de populatie. Dit ondersteunt het gebruik van $t$\-toetsen en normale verdelingsaannames bij grotere steekproeven, zelfs als de data zelf niet perfect normaal verdeeld is.
### 3.8 T-verdeling versus Z-verdeling
* **Z-verdeling (standaardnormale verdeling):** Wordt gebruikt wanneer de populatiestandaardafwijking ($\\sigma$) bekend is, of bij zeer grote steekproeven waarbij de steekproefstandaardafwijking ($s$) een zeer nauwkeurige schatting is van $\\sigma$. De kritische waarde voor een 95% BI is 1.96.
* **T-verdeling:** Wordt gebruikt wanneer de populatiestandaardafwijking onbekend is en geschat wordt met de steekproefstandaardafwijking. De vorm van de $t$\-verdeling is breder dan de Z-verdeling en hangt af van de vrijheidsgraden ($df$, gerelateerd aan de steekproefgrootte, typisch $N-1$ of $N-2$). Naarmate $df$ toeneemt, benadert de $t$\-verdeling de Z-verdeling. Voor kleine steekproeven zijn de kritische $t$\-waarden groter dan 1.96.
### 3.9 Testen van correlatie (vervolg)
#### Correlatie met continue determinanten en een continue uitkomstvariabele
* **Pearson's $r$:** Zoals eerder beschreven, is dit de standaardmethode voor lineaire correlatie tussen twee continue variabelen.
* **Significatie toetsing:** De nulhypothese is dat de populatiecorrelatiecoëfficiënt ($\\rho$) nul is. Dit wordt getoetst met een $t$\-toets.
### 3.10 Lineaire regressie (vervolg)
#### Gestandaardiseerde regressiecoëfficiënt ($\\beta$)
* **Doel:** Een gestandaardiseerde regressiecoëfficiënt ($\\beta$, ook wel beta-coëfficiënt genoemd) drukt de relatie uit in termen van standaarddeviaties. Het vertegenwoordigt het verwachte verschil in het aantal standaarddeviaties van $Y$ voor elke eenheidstoename in het aantal standaarddeviaties van $X$, terwijl andere variabelen constant worden gehouden.
* **Bereik:** Ligt tussen -1 en +1.
* **Interpretatie:** Geeft de relatieve sterkte van de invloed van een onafhankelijke variabele op de uitkomstvariabele aan, onafhankelijk van de oorspronkelijke eenheden van de variabelen. Het is gelijk aan de Pearson correlatiecoëfficiënt wanneer er slechts één predictor is.
### 3.11 Confounding en Effectmodificatie in Regressiemodellen
Bij het analyseren van relaties tussen variabelen is het cruciaal om rekening te houden met confounding en effectmodificatie.
* **Confounding:** Een verstorende variabele is geassocieerd met zowel de determinant als de uitkomstvariabele, en kan een verband tussen beide suggereren dat er niet werkelijk is (of het bestaande verband overschatten of onderschatten).
* **Detectie:** Vergelijken van de regressiecoëfficiënt voor de centrale determinant in een model zonder en met de potentiële confounder. Een verandering van bijvoorbeeld 10% of meer in de coëfficiënt na het toevoegen van de confounder suggereert confounding.
* **Aanpak:** Opnemen van de confounder in het regressiemodel om de relatie tussen de centrale determinant en de uitkomstvariabele 'uit te zuiveren'.
* **Effectmodificatie (Interactie):** Een effectmodificator beïnvloedt de sterkte of richting van de relatie tussen een determinant en de uitkomstvariabele. Het effect van de determinant is dus \_verschillend voor verschillende waarden van de effectmodificator.
* **Detectie:** Toevoegen van een interactieterm (bv. $X\_1 \* X\_2$) aan het regressiemodel. Een significante $p$\-waarde voor de interactieterm suggereert effectmodificatie.
* **Aanpak:** Indien interactie significant is, analyseer de relatie apart voor de verschillende categorieën van de effectmodificator (stratificatie). Dit kan worden gedaan door het model te splitsen of door aparte analyses uit te voeren binnen subgroepen.
#### Model Opbouw Strategieën
1. **Ruwe Relatie (Crude Model):** Analyseer de relatie tussen de centrale determinant en de uitkomstvariabele zonder rekening te houden met andere variabelen.
2. **Confounder Control:** Voeg potentiële confounders toe aan het model en beoordeel de verandering in de effectmaat van de centrale determinant.
3. **Effectmodificatie Nagaan:** Test interactietermen tussen de centrale determinant en potentiële effectmodificatoren.
4. **Uiteindelijk Model:** Combineer de centrale determinant, significante confounders en eventuele significante interactietermen in een meervoudig regressiemodel.
#### **Tip:** Multi-collineariteit
Sterke onderlinge correlatie tussen onafhankelijke variabelen (multi-collineariteit) kan de schatting van individuele regressiecoëfficiënten onbetrouwbaar maken. Controleer correlaties tussen continue predictoren (Pearson $r > 0.60$ is vaak een indicatie) of via VIF-waarden. Kies bij sterke multi-collineariteit één van de sterk gecorreleerde variabelen om op te nemen in het model.
#### **Tip:** Steekproefgrootte in Regressie
Een algemene vuistregel is dat de steekproefgrootte ($N$) ongeveer 10 keer het aantal predictoren ($k$) moet zijn ($N \\approx 10k$).
### 3.9 Testen van Correlaties en Lineaire Regressie
#### Correlatiecoëfficiënt en Testen
* **Pearson's $r$:** Beschrijft de lineaire relatie tussen twee continue variabelen.
* **Spearman's $\\rho$:** Beschrijft de monotone relatie tussen twee variabelen (continu of ordinaal) op basis van rangnummers.
* **Significatie Toetsing:** Beide correlatiecoëfficiënten kunnen getoetst worden om te bepalen of de waargenomen correlatie significant verschilt van nul in de populatie.
#### Lineaire Regressie (vervolg)
* **Dummy Variabelen:** Worden gebruikt om categorische onafhankelijke variabelen in een lineair regressiemodel op te nemen. De regressiecoëfficiënt van een dummy variabele vertegenwoordigt het verschil in gemiddelde uitkomstvariabele tussen die categorie en de referentiecategorie.
* **Voorwaarden voor Lineaire Regressie:**
* Onafhankelijke observaties.
* Lineaire relatie tussen predictoren en de uitkomstvariabele.
* Normaliteit van de residuen.
* Homoscedasticiteit (gelijke variantie van residuen).
* Geen significante multi-collineariteit.
#### **Tip:** Normaliteit van Residuen
De normaliteit van de residuen kan visueel worden nagegaan met een histogram van de residuen of een QQ-plot. Meer formele toetsen zoals de Kolmogorov-Smirnov test of Shapiro-Wilk test kunnen ook worden gebruikt, maar hun interpretatie is sterk afhankelijk van de steekproefgrootte ($N$). Bij grote $N$ kunnen zelfs kleine afwijkingen van normaliteit significant worden, terwijl bij kleine $N$ afwijkingen gemaskeerd kunnen worden.
### 3.10 Analyse van Scheef Verdeelde Continue Variabelen
Wanneer continue variabelen significant scheef verdeeld zijn, kunnen gemiddelden misleidend zijn.
* **Transformatie:** Het toepassen van een logaritmische transformatie (natuurlijke logaritme) kan de data normaliseren. De analyse wordt dan uitgevoerd op de getransformeerde data.
* **Non-parametrische Testen:** Worden gebruikt als alternatief wanneer transformatie niet succesvol is of wanneer de data van nature niet-parametrisch is.
### 3.11 Betrouwbaarheidsintervallen (BI)
* **Doel:** Kwantificeren van de onzekerheid rond een puntschatting (bv. gemiddelde, regressiecoëfficiënt). Een 95% BI geeft het bereik aan waarbinnen de populatiewaarde met 95% waarschijnlijkheid ligt.
* **Interpretatie in toetsing:** Als een 95% BI een verschil (bv. in gemiddelden) de nul niet omvat, is het resultaat statistisch significant ($p < 0.05$). Voor regressiecoëfficiënten geldt dat als het 95% BI de nul niet omvat, de predictor een significant effect heeft.
### 3.12 Samenvatting van Statistische Toetsen voor Continue Variabelen
SituatieParametrische ToetsNon-parametrische ToetsVergelijking 1 groep (gem.)One Sample t-toetsWilcoxon Signed Rank test / Sign testVergelijking 2 gepaarde groepenGepaarde samples t-testWilcoxon Signed Rank testVergelijking 2 onafhankelijke groepenIndependent Samples t-toetsMann-Whitney U testVergelijking >2 onafhankelijke groepenANOVA (Variantieanalyse)Kruskal-Wallis testRelatie 2 continue var.Pearson correlatie ($r$)Spearman correlatie ($\\rho$)Relatie met determinantenEnkelvoudige/Meervoudige Lineaire Regressie(Niet direct, kan via rangorde maar minder gebruikelijk)
### 3.13 Belangrijke overwegingen
* **Overschrijdingskans (p-waarde):** De kans om een onderzoeksresultaat te verkrijgen (of een extremer resultaat) als de nulhypothese waar zou zijn. Een lage $p$\-waarde ($p < \\alpha$, typisch 0.05) leidt tot verwerping van H₀.
* **Type I en Type II fouten:** Type I fout is het onterecht verwerpen van H₀ (vals positief); Type II fout is het onterecht niet verwerpen van H₀ (vals negatief).
* **Power van een test ($1 - \\beta$):** De kans om H₀ terecht te verwerpen wanneer deze onjuist is. Een hogere power vereist een grotere steekproefgrootte.
* * *
# Analyse van dichotome en overlevingsdata
Deze sectie behandelt statistische methoden voor het analyseren van dichotome uitkomstvariabelen, inclusief chi-kwadraattoetsen en logistische regressie, en de analyse van overlevingsdata met Kaplan-Meier curves en Cox-regressie.
### 4.1 Analyse van dichotome uitkomstvariabelen
Dichotome variabelen hebben twee mogelijke uitkomsten, zoals 'wel' of 'niet', 'ja' of 'nee'. De analyse hiervan richt zich op het vergelijken van proporties of het schatten van associaties.
#### 4.1.1 Vergelijken van proporties
**Vergelijken van proporties binnen één groep:**
* **McNemar-toets:** Wordt gebruikt om het verschil tussen proporties in gepaarde observaties binnen dezelfde groep te toetsen, typisch in cross-over trials. De nulhypothese stelt dat er geen verschil is tussen de twee proporties in de doelpopulatie. Deze toets geeft enkel een p-waarde en geen inzicht in de grootte van het effect.
* **z-toets voor proportie:** Toetst het verschil tussen de proportie in een groep en een standaardwaarde. De nulhypothese is dat de proportie in de doelpopulatie gelijk is aan de standaardwaarde ($H\_0: \\pi = \\pi\_0$) of dat het verschil gelijk is aan nul ($H\_0: \\pi - \\pi\_0 = 0$). De z-verdeling wordt gebruikt voor de toetsingsgrootheid en het betrouwbaarheidsinterval. Een voorwaarde voor het gebruik van de z-verdeling is dat $np \\ge 5$ en $n(1-p) \\ge 5$.
**Vergelijken van proporties tussen twee onafhankelijke groepen:**
* **Chi-kwadraattoets:** Toetst de associatie tussen twee dichotome variabelen, wat neerkomt op het vergelijken van proporties tussen twee groepen. De data wordt voorgesteld in een $2 \\times 2$ kruistabel. De nulhypothese is dat er geen associatie is tussen de variabelen in de doelpopulatie ($H\_0: \\pi\_1 = \\pi\_2$). De chi-kwadraattoets gebruikt de chi-kwadraatverdeling. De vrijheidsgraden bedragen $(aantal\_rijen - 1) \\times (aantal\_kolommen - 1)$.
* **Voorwaarden voor de chi-kwadraattoets:** De verwachte aantallen in minstens 80% van de cellen moeten $\\ge 5$ zijn, en in alle cellen $>1$.
* **Fisher's exact toets:** Een alternatief voor de chi-kwadraattoets dat een exacte p-waarde berekent, vooral nuttig bij kleine aantallen.
* **Continuïteitscorrectie:** Een aanpassing van de chi-kwadraattoets voor $2 \\times 2$ tabellen.
* **Verschil tussen twee proporties:** Schat de grootte van het verband met een 95% betrouwbaarheidsinterval. De standaardfout van het verschil in proporties is $\\text{se}(\\hat{p}\_1 - \\hat{p}\_2)$. De voorwaarde voor het gebruik van de z-verdeling is $np \\ge 5$ en $n(1-p) \\ge 5$ in beide groepen.
**Vergelijken van proporties tussen meer dan twee onafhankelijke groepen:**
* **Chi-kwadraattoets voor $r \\times k$\-kruistabellen:** Gebruikt om de associatie tussen twee categorische variabelen (waarbij één of beide meer dan twee categorieën hebben) te toetsen. De nulhypothese is dat er geen associatie is in de doelpopulatie. De voorwaarden voor de chi-kwadraattoets gelden ook hier.
* **Trendtoets:** Een specifieke toets voor ordinale variabelen die een graduele associatie kan aantonen.
* **Post-hoc analyse:** Er is geen standaard post-hoc procedure. Men kan de $r \\times k$\-tabel opsplitsen in $2 \\times 2$ tabellen en meerdere toetsen uitvoeren, rekening houdend met het multiple-testing probleem (correctie van het significantieniveau).
#### 4.1.2 Logistische regressie
Logistische regressie wordt gebruikt om de relatie tussen een dichotome uitkomstvariabele en één of meerdere determinanten (onafhankelijke variabelen) te modelleren.
* **Odds Ratio (OR):** De belangrijkste effectmaat in logistische regressie, vooral gebruikt bij case-control studies. De OR is de verhouding van de odds van de uitkomst in de blootgestelde groep tot de odds van de uitkomst in de niet-blootgestelde groep. Een OR van 1 betekent geen associatie, een OR > 1 betekent een verhoogde kans op de uitkomst, en een OR < 1 betekent een verlaagde kans op de uitkomst.
* **Odds:** Gedefinieerd als de kans op een gebeurtenis gedeeld door de kans op het niet optreden van die gebeurtenis: $\\text{Odds} = \\frac{P(Y=1)}{P(Y=0)}$.
* **Regressievergelijking:** De log-odds van de uitkomst wordt gemodelleerd als een lineaire functie van de determinanten. $$ \\ln\\left(\\frac{P(Y=1)}{P(Y=0)}\\right) = b\_0 + b\_1X\_1 + b\_2X\_2 + \\dots + b\_kX\_k $$ Hierbij is $\\ln\\left(\\frac{P(Y=1)}{P(Y=0)}\\right)$ de log-odds, $b\_0$ de intercept, en $b\_i$ de regressiecoëfficiënten.
* **Interpretatie van regressiecoëfficiënten:** De exponentiële functie van een regressiecoëfficiënt ($e^{b\_i}$ of $\\text{EXP}(b\_i)$) is de odds ratio voor de determinant $X\_i$. $$ \\text{OR} = \\text{EXP}(b\_i) $$ Dit betekent dat voor een toename van één eenheid in de determinant $X\_i$, de odds van de uitkomst $Y=1$ met een factor $\\text{EXP}(b\_i)$ veranderen, terwijl andere determinanten constant worden gehouden. Als de determinant categorisch is (bijvoorbeeld een dummy variabele), vertegenwoordigt $\\text{EXP}(b\_i)$ de odds ratio van de uitkomst tussen de groep met de determinant (dummy=1) en de referentiegroep (dummy=0).
* **Maximum Likelihood Methode:** De regressiecoëfficiënten worden geschat met de maximum likelihood methode, die de waarschijnlijkheid van de geobserveerde data maximaliseert.
* **Modelvergelijking:** Modellen kunnen worden vergeleken met de likelihood ratiotoets, waarbij het verschil in $-2 \\ln(L)$ (waarbij $L$ de likelihood is) tussen twee modellen volgt een chi-kwadraatverdeling met vrijheidsgraden gelijk aan het verschil in aantal parameters.
* **Confounding en Effectmodificatie:** Net als bij lineaire regressie kunnen confounding en effectmodificatie worden onderzocht door extra variabelen aan het model toe te voegen.
* **Confounding:** Wordt onderzocht door de regressiecoëfficiënt van de centrale determinant te vergelijken voor en na het toevoegen van de potentiële confounder. Een verandering van $\\ge 10%$ in de coëfficiënt kan duiden op confounding.
* **Effectmodificatie (Interactie):** Wordt onderzocht door een interactieterm toe te voegen aan het model. Een significante interactieterm (vaak met een cut-off van $p < 0.10$) suggereert dat het verband tussen de determinant en de uitkomst verschilt voor verschillende waarden van de effectmodificator. Indien er interactie is, wordt de analyse vaak gestratificeerd naar de effectmodificator.
* **Predictiemodellen:** Logistische regressie wordt ook gebruikt voor predictie. De kwaliteit van een predictiemodel wordt beoordeeld met technieken zoals de classificatietabel (met een aangepast afkappunt) en de Hosmer-Lemeshow toets (een goodness-of-fit test waarbij een niet-significante p-waarde ($p > 0.05$) duidt op een goede fit).
* **Categorische determinanten met $\\ge 3$ groepen:** Deze worden geanalyseerd door dummy-variabelen aan te maken, waarbij één categorie als referentiegroep dient.
### 4.2 Analyse van overlevingsdata
Overlevingsdata betreft de tijd tot het optreden van een specifieke uitkomst, zoals sterfte, ziekte-incidentie, of herstel. Deze analyse is primair prospectief en essentieel om de tijdsevolutie van gebeurtenissen te begrijpen.
#### 4.2.1 Representatie van overlevingsdata
* **Censoring:** Personen die de uitkomst niet bereiken vóór het einde van de follow-up periode of die vroegtijdig uit het onderzoek verdwijnen, worden 'gecensureerd' (censored). Dit betekent dat hun definitieve uitkomst (nog) niet bekend is, maar wel dat ze tot een bepaald tijdstip in leven waren of de uitkomst nog niet hadden.
* **Kaplan-Meier-overlevingscurve:** Een grafische weergave van de cumulatieve overlevingskans over tijd. De curve toont de geschatte kans dat een persoon overleeft tot een bepaald tijdstip, gegeven dat hij of zij nog in leven was aan het begin van de follow-up periode. De y-as toont de cumulatieve overlevingskans en de x-as de tijd.
#### 4.2.2 Toetsen van overlevingscurves
* **Log-ranktoets:** Wordt gebruikt om te toetsen of er een significant verschil is tussen twee of meer overlevingscurves. De nulhypothese stelt dat de overlevingscurves van de groepen identiek zijn. De toets volgt een chi-kwadraatverdeling met $aantal\_groepen - 1$ vrijheidsgraden. Deze toets is enkel informatief voor een globale associatie en geeft geen effectmaat.
#### 4.2.3 Cox-regressieanalyse
Cox-regressieanalyse is een methode om de relatie tussen overlevingsdata en één of meerdere determinanten te modelleren, rekening houdend met de tijd.
* **Hazard Ratio (HR):** De belangrijkste effectmaat in Cox-regressie. De HR is de verhouding van de hazard (de onmiddellijke kans op de uitkomst op een bepaald tijdstip) in de ene groep ten opzichte van de andere, of voor een toename van één eenheid in een continue determinant. Een HR van 1 betekent geen verschil in hazard, een HR > 1 een verhoogde hazard, en een HR < 1 een verlaagde hazard. $$ \\text{HR} = \\text{EXP}(b\_i) $$ waarbij $b\_i$ de regressiecoëfficiënt is voor de determinant.
* **Hazard:** De instantane kans op het optreden van de uitkomst op een bepaald tijdstip, gegeven dat de persoon tot dat tijdstip heeft overleefd.
* **Proportional Hazards (PH) voorwaarde:** Een cruciale aanname van de Cox-regressie is dat de hazard ratio constant is over tijd. Dit moet expliciet worden nagetrokken, bijvoorbeeld door het vergelijken van de proportionele verschillen tussen de overlevingscurves of met behulp van log-minus-log-plots. Als de PH-voorwaarde geschonden is, kan de analyse worden aangepast (bv. door interactietermen toe te voegen of door de tijd te categoriseren).
* **Modellering:**
* **Dichotome determinanten:** De HR geeft het relatieve risico aan tussen de groepen.
* **Continue determinanten:** De HR geeft de verandering in hazard aan voor een toename van één eenheid in de determinant. Vaak wordt de HR omgezet naar een interpretabeler formaat (bv. per 10 eenheden BMI).
* **Categorische determinanten met $\\ge 3$ groepen:** Worden geanalyseerd met dummy-codering, waarbij één groep als referentie dient.
* **Modelvergelijking:** Modellen worden vergeleken met de likelihood ratiotoets, vergelijkbaar met logistische regressie.
* **Confounding en Effectmodificatie:** Kunnen worden onderzocht door confounders aan het model toe te voegen of door interactietermen te testen. Indien er interactie is, kan stratificatie naar de effectmodificator overwogen worden.
* **Predictiemodellen:** Cox-regressie kan ook gebruikt worden om overlevingskansen te voorspellen. De kwaliteit van het model wordt beoordeeld aan de hand van de '-2 log likelihood' waarde en de Hazard Ratio's.
**Tip:** Bij de interpretatie van overlevingsdata is het cruciaal om onderscheid te maken tussen de kans op overleving (Kaplan-Meier) en de hazard (Cox-regressie), die de onmiddellijke kans op het optreden van de uitkomst weergeeft.
**Voorbeeld:** Een studie onderzoekt het effect van een nieuwe medicatie op de overleving van patiënten met een bepaalde ziekte. Kaplan-Meier curves worden gebruikt om de overlevingskansen van de interventie- en controlegroep te visualiseren. Een log-ranktoets toetst of er een significant verschil is tussen de groepen. Vervolgens wordt een Cox-regressieanalyse uitgevoerd om de Hazard Ratio van de medicatie te schatten, terwijl gecorrigeerd wordt voor leeftijd en geslacht als mogelijke confounders. Een HR van 2.5 met een 95% betrouwbaarheidsinterval dat 1 niet bevat, suggereert dat patiënten in de interventiegroep 2.5 keer zoveel kans hebben om te overlijden op elk tijdstip dan patiënten in de controlegroep, onafhankelijk van leeftijd en geslacht.
* * *
# Steekproefgrootteberekeningen en analysekritiek
Dit hoofdstuk behandelt de berekening van steekproefgroottes, de evaluatie van normaliteit en de kritische analyse van statistische valkuilen zoals multicollineariteit en ontspoorde modellen.
## 5 Steekproefgrootteberekeningen en analysekritiek
### 5.1 Steekproefgrootteberekeningen (Sample-sizeberekeningen)
#### 5.1.1 Principe en doel
Steekproefgrootteberekeningen worden \_a priori uitgevoerd, dus in de ontwerpfase van een onderzoek, om in te schatten hoeveel proefpersonen nodig zijn om een verwacht effect aan te tonen. Dit is cruciaal voor interventieonderzoek om voldoende \_power te hebben om een effect bloot te leggen, zonder onnodig veel proefpersonen te belasten.
#### 5.1.2 Benodigde inputparameters
Voor steekproefgrootteberekeningen zijn de volgende parameters essentieel:
1. **Significanieniveau ($\\alpha$)**: De kans op een Type I fout (onterecht H0 verwerpen). Standaard is dit 5% (0.05). Een lager $\\alpha$ vereist een grotere steekproef.
2. **Statistische power ($1 - \\beta$)**: De kans om een werkelijk bestaand effect te detecteren (H0 terecht te verwerpen). Minimaal 80% is gebruikelijk. Een hogere power (bv. 90%) vereist een grotere steekproef.
3. **Grootte van het verwachte effect en de spreiding**:
* **Verwacht effect**: Hoe groter het te verwachten effect, hoe kleiner de benodigde steekproef. Een klein effect vereist een grotere steekproef om detecteerbaar te zijn.
* **Spreiding**: Hoe groter de verwachte spreiding (bv. standaarddeviatie) rond het effect, hoe groter de benodigde steekproef.
#### 5.1.3 Methoden en kritische overwegingen
De berekening kan gebeuren via formules, tabellen, grafieken of online tools. Bij de interpretatie van meta-analyses, die resultaten van meerdere studies combineren, is het belangrijk om kritisch te kijken naar de individuele steekproefberekeningen van die studies. Een studie met een kleine steekproef kan bijvoorbeeld een significant effect missen door te weinig power.
### 5.2 Analyse van continue variabelen
#### 5.2.1 Beoordelen van normaliteit
Het beoordelen van normaliteit is belangrijk voor de keuze van statistische toetsen.
**Methoden:**
* **Visuele inspectie**: Histogrammen en box-plots geven een eerste indruk van de verdeling.
* **Histogram**: Een symmetrische, klokvormige verdeling duidt op normaliteit. Rechtsscheef (gemiddelde > mediaan) of linksscheef (gemiddelde < mediaan) duidt op afwijking.
* **Box-plot**: Symmetrie wordt aangegeven door ongeveer even lange snorharen. Uitbijters kunnen de verdeling beïnvloeden.
* **Numerieke indicatoren**:
* **Vergelijken gemiddelde en mediaan**: Grote verschillen wijzen op scheefheid.
* **Vergelijken gemiddelde en standaarddeviatie (SD)**: Bij een normaalverdeling ligt ongeveer 95% van de data binnen $\\mu \\pm 2\\sigma$. Dit geldt echter alleen voor variabelen die enkel positieve waarden kunnen hebben als de SD niet significant groter is dan het gemiddelde.
* **Skewness en Kurtosis**: Deze waarden, opvraagbaar in statistische software zoals SPSS, kwantificeren scheefheid en platheid/piekigheid van de verdeling.
* Skewness: Waarden tussen -1 en +1 worden vaak als acceptabel beschouwd voor symmetrie.
* Kurtosis: Waarden tussen -1 en +1 worden vaak als acceptabel beschouwd voor de "klokvorm".
* **Statistische toetsen**:
* **Kolmogorov-Smirnov toets** en **Shapiro-Wilk toets**: Deze toetsen evalueren of de data significant afwijken van een normale verdeling. De nulhypothese (H0) is dat de verdeling normaal is. Een significante p-waarde ($p < 0.05$) indiceert dat de verdeling niet normaal is.
* **Caveat**: Deze toetsen zijn sterk afhankelijk van de steekproefgrootte (N). Bij grote N worden afwijkingen snel significant, zelfs als ze klinisch onbelangrijk zijn. Bij kleine N kan de toets onvoldoende power hebben om afwijkingen te detecteren.
* **QQ-plot (Quantile-Quantile plot)**: Een grafische weergave die de geobserveerde kwantielen vergelijkt met de theoretische kwantielen van een normale verdeling. Punten die dicht bij de diagonale lijn liggen, wijzen op normaliteit.
**Tip:** Combineer altijd visuele inspectie met numerieke indicatoren en statistische toetsen voor een robuuste beoordeling van normaliteit.
#### 5.2.2 Parametrische versus non-parametrische toetsen
Indien de normaliteitsvoorwaarde niet voldaan is, vooral bij kleine steekproeven, zijn non-parametrische toetsen een alternatief.
* **Parametrische toetsen**: Gebruiken de gemiddelde waarde en veronderstellen normaliteit (bv. t-toetsen, ANOVA, Pearson correlatie, lineaire regressie).
* **Non-parametrische toetsen**: Gebruiken rangnummers in plaats van de ruwe data, waardoor ze minder gevoelig zijn voor afwijkingen van normaliteit en uitbijters (bv. Mann-Whitney U, Wilcoxon Signed Rank, Kruskal-Wallis, Spearman correlatie). Ze hebben echter doorgaans minder statistische power.
#### 5.2.3 Toetsen van gemiddelden
* **Vergelijken binnen één groep**:
* **Gepaarde t-toets**: Vergelijkt gemiddelden van twee herhaalde metingen bij dezelfde personen. H0: $\\mu\_{verschil} = 0$. Vereist normaal verdeeld verschil.
* **One Sample t-toets**: Vergelijkt het gemiddelde van één groep met een bekende standaardwaarde ($\\mu\_0$). H0: $\\mu = \\mu\_0$ of $\\mu\_{verschil} = 0$. Vereist normaal verdeeld verschil.
* **Vergelijken van twee onafhankelijke groepen**:
* **Independent Samples t-toets**: Vergelijkt gemiddelden van twee onafhankelijke groepen. H0: $\\mu\_1 = \\mu\_2$. Vereist normaliteit van de uitkomstvariabele in beide groepen en homoscedasticiteit (gelijke varianties). Levene's test wordt gebruikt om homoscedasticiteit te toetsen.
* **Vergelijken van meer dan twee onafhankelijke groepen**:
* **ANOVA (variantieanalyse)**: Toetst of er een significant verschil is tussen de gemiddelden van drie of meer groepen. H0: $\\mu\_1 = \\mu\_2 = \\mu\_3 = \\dots$. Gebruikt de F-distributie. Vereist normaliteit en homoscedasticiteit in alle groepen.
* **Post-hoc testen**: Indien ANOVA significant is, worden post-hoc testen (bv. Tukey, Bonferroni) gebruikt voor paarsgewijze vergelijkingen tussen groepen, met correcties voor het multiple-toetsingsprobleem.
#### 5.2.4 Correlatie en regressie
* **Pearson correlatiecoëfficiënt ($r$)**: Meet de sterkte en richting van een \_lineaire samenhang tussen twee continue variabelen. Waarden variëren van -1 tot +1.
* Voorwaarden: continue variabelen, normaliteit, geen uitbijters, lineaire relatie.
* $r^2$ (coëfficiënt van determinatie) geeft de proportie verklaarde variantie aan.
* **Lineaire regressie**: Modellet voor het voorspellen van een continue uitkomstvariabele (Y) aan de hand van één (enkelvoudige) of meerdere (meervoudige) onafhankelijke variabelen (X).
* Model: $Y = \\beta\_0 + \\beta\_1X\_1 + \\dots + \\beta\_kX\_k + \\epsilon$. Hierbij is $\\beta\_0$ de intercept en $\\beta\_i$ de regressiecoëfficiënt die het verwachte verschil in Y aangeeft per eenheid verschil in $X\_i$, terwijl andere variabelen constant gehouden worden.
* **Gestandaardiseerde regressiecoëfficiënt (Beta)**: Equivalent aan de Pearson correlatiecoëfficiënt bij enkelvoudige regressie; geeft het verwachte verschil in Y in standaarddeviaties aan per eenheid verschil in X in standaarddeviaties.
* **Voorwaarden**: Onafhankelijke observaties, lineariteit, normaliteit van residuen, homoscedasticiteit.
* **Meervoudige lineaire regressie**: Gebruikt om de onafhankelijke effecten van meerdere predictoren te schatten en om confounding te controleren.
* **Predictiemodellen**: Procedures zoals backward en forward selectie kunnen worden gebruikt om de beste set predictoren te identificeren die de uitkomstvariabele voorspellen, rekening houdend met de steekproefgrootte (vuistregel: N $\\approx$ 10 \* aantal predictoren).
#### 5.2.5 Gevorderde analyses continue variabelen
* **Two-way ANOVA**: Vergelijkt een continue uitkomstvariabele op basis van twee categorische variabelen, inclusief hun interactieterm.
* **Repeated measures analyse**: Voor continue uitkomstvariabelen gemeten over meer dan twee tijdstippen.
* **Multilevel analyse**: Voor geclusterde data, waarbij observaties niet onafhankelijk zijn (bv. leerlingen binnen klassen, patiënten binnen ziekenhuizen).
### 5.3 Analyse van dichotome uitkomstvariabelen
#### 5.3.1 Vergelijken binnen één groep
* **McNemar-toets**: Vergelijkt proporties van twee gepaarde dichotome variabelen (bv. voor en na een interventie). H0: het verschil tussen de proporties is nul. Geeft enkel een p-waarde, geen effectmaat.
* **z-toets voor proportie**: Vergelijkt de proportie in één groep met een standaardwaarde. H0: $\\pi = \\pi\_0$. Vereist dat $np \\ge 5$ en $n(1-p) \\ge 5$.
#### 5.3.2 Vergelijken van twee groepen
* **Chikwadraattoets ($\\chi^2$)**: Toetst de associatie tussen twee dichotome variabelen (bv. in een 2x2 kruistabel). H0: er is geen associatie. Gebaseerd op de vergelijking van geobserveerde en verwachte aantallen.
* Voorwaarden: verwachte celgrootte $\\ge 5$ in 80% van de cellen en $\\ge 1$ in alle cellen.
* **Fisher's exact toets**: Een alternatief voor de $\\chi^2$\-toets bij kleine steekproeven.
* **Continuïteitscorrectie (bv. Yates' correctie)**: Een aanpassing aan de $\\chi^2$\-toets voor 2x2 tabellen.
* **Effectmaten**:
* **Verschil tussen twee proporties**: Een neutrale maat voor effectgrootte.
* **Odds Ratio (OR)**: De verhouding van de odds van de uitkomst in de ene groep ten opzichte van de andere. Vaak gebruikt in case-control studies en logistische regressie. H0: OR = 1.
#### 5.3.3 Vergelijken van meer dan twee groepen
* **Chikwadraattoets voor r x k kruistabellen**: Toetst de associatie tussen twee categorische variabelen met meer dan twee categorieën. H0: er is geen associatie.
* **Trendtoets (linear-by-linear association)**: Kan worden gebruikt voor ordinale variabelen om een graduele associatie te toetsen.
* **Post-hoc analyses**: Bij een significante $\\chi^2$\-toets kunnen paarsgewijze vergelijkingen worden uitgevoerd met correcties voor multiple toetsing.
#### 5.3.4 Logistische regressieanalyse
Gebruikt om een dichotome uitkomstvariabele te modelleren in relatie tot één of meerdere determinanten.
* **Model**: Transformatie van de odds van de uitkomst met behulp van de natuurlijke logaritme: $\\text{log}(\\text{odds}) = \\beta\_0 + \\beta\_1X\_1 + \\dots + \\beta\_kX\_k$.
* **Interpretatie**: De exponentiële functie van de regressiecoëfficiënten ($\\text{exp}(\\beta\_i)$) geeft de Odds Ratio aan. $\\text{exp}(\\beta\_i) = 1$ betekent geen associatie.
* **Maximum Likelihood Methode**: Gebruikt om de regressiecoëfficiënten te schatten.
* **Likelihood Ratio Toets**: Gebruikt om modellen met verschillende aantallen predictoren te vergelijken. Een significante p-waarde indiceert dat het complexere model significant beter past.
* **Confounding en effectmodificatie**: Worden op dezelfde manier onderzocht als bij lineaire regressie, door regressiecoëfficiënten te vergelijken of interactietermen toe te voegen.
* **Predictiemodellen**: Net als bij lineaire regressie kunnen procedures zoals backward en forward selectie worden toegepast.
* **Kwaliteit van het predictiemodel**: Beoordeeld met behulp van classificatietabellen en de Hosmer-Lemeshow toets (goodness-of-fit). Een niet-significante p-waarde van de Hosmer-Lemeshow toets duidt op een goede fit van het model.
### 5.4 Analyse van overlevingsdata
Overlevingsdata bevatten informatie over de tijd tot een bepaalde uitkomst optreedt (bv. sterfte, herstel).
#### 5.4.1 Representatie en bepaling van data
* **Censoring**: Observaties waarbij de uitkomst niet is opgetreden aan het einde van de follow-up periode, of waarbij de patiënt het onderzoek vroegtijdig verlaat.
* **Kaplan-Meier overlevingscurve**: Grafische weergave van de cumulatieve overlevingskans over tijd. Wordt gebruikt om overlevingspatronen te visualiseren en groepen te vergelijken.
#### 5.4.2 Toetsen en schatten
* **Log-ranktoets**: Toetst het verschil tussen twee of meer overlevingscurves. H0: de overlevingscurves zijn identiek. Volgt een $\\chi^2$\-verdeling.
* **Caveat**: Geeft enkel een p-waarde, geen effectmaat.
* **Cox-regressieanalyse**: Een regressiemodel voor overlevingsdata, waarbij de Hazard Ratio (HR) de effectmaat is.
* **Hazard Ratio (HR)**: De verhouding van de hazard (instantane kans op de uitkomst) op elk tijdstip tussen twee groepen. Een HR van 1 betekent geen verschil.
* **Proportional Hazards aanname**: De HR moet constant zijn over de tijd. Dit moet gecontroleerd worden (bv. via Kaplan-Meier curves of specifieke tests).
* **Interpretatie**: Een HR > 1 betekent een verhoogde kans op de uitkomst; een HR < 1 betekent een verlaagde kans.
* **Confounding en effectmodificatie**: Worden op dezelfde manier geanalyseerd als bij logistische regressie, door regressiecoëfficiënten te vergelijken en interactietermen toe te voegen.
### 5.5 Valkuilen in statistische analyses
#### 5.5.1 Multicollineariteit (Collineariteit)
* **Probleem**: Treedt op wanneer twee of meer onafhankelijke variabelen in een regressiemodel sterk met elkaar samenhangen. Dit maakt het moeilijk om hun onafhankelijke effecten op de uitkomstvariabele te bepalen.
* **Detectie**:
* Voor continue predictoren: Pearson correlaties tussen variabelen. Een correlatiecoëfficiënt $> 0.60$ kan wijzen op multicollineariteit.
* Voor categorische predictoren: $\\chi^2$\-toetsen.
* **Oplossing**: Kies één van de sterk gecorreleerde variabelen om op te nemen in het model, of combineer ze indien mogelijk.
#### 5.5.2 Ontspoorde modellen (Destabilized models)
* **Probleem**: Modellen die onverwachte of extreme resultaten opleveren, zoals zeer grote standaardfouten, onlogische betrouwbaarheidsintervallen, of extreem hoge/lage regressiecoëfficiënten.
* **Mogelijke oorzaken**:
* **Multicollineariteit**: Zoals hierboven beschreven.
* **Te veel variabelen ten opzichte van de steekproefgrootte (N)**: De vuistregel N $\\approx$ 10 \* k predictoren helpt dit te voorkomen.
* **Problemen met de data**: Bijvoorbeeld, een predictor kan niet worden vergeleken met de uitkomstvariabele, of er is een categorie met extreem weinig observaties.
* **Oplossing**: Identificeer de oorzaak en corrigeer de data, de modelopbouw, of de selectie van variabelen. Bijvoorbeeld, categorieën met weinig observaties kunnen worden samengevoegd.
### 5.6 Betrouwbaarheid van meetinstrumenten
De kwaliteit van meetinstrumenten wordt geëvalueerd op basis van validiteit en betrouwbaarheid.
#### 5.6.1 Betrouwbaarheid voor categorische variabelen
* **Kappa ($\\kappa$)**: Meet de mate van overeenkomst tussen twee categorische beoordelaars of meetmethoden, gecorrigeerd voor toevalsovereenkomst.
* **Interpretatie**: Waarden tussen 0.40-0.70 worden als acceptabel beschouwd; waarden > 0.70-0.75 als goed.
* **Toepassingen**: Test-hertest betrouwbaarheid, interbeoordelaarsbetrouwbaarheid, intrabeoordelaarsbetrouwbaarheid.
* **Belangrijk**: Enkel de Kappa-waarde wordt geïnterpreteerd; de bijbehorende p-waarde is niet relevant.
#### 5.6.2 Betrouwbaarheid voor continue variabelen
* **Pearson correlatiecoëfficiënt**: Kan gebruikt worden, maar houdt geen rekening met systematische afwijkingen tussen metingen.
* **Bland-Altman plot**: Een grafische methode om de overeenkomst tussen twee continue metingen te beoordelen. De x-as toont het gemiddelde van de twee metingen, de y-as het verschil. Punten rond nul duiden op goede overeenkomst.
* **Intraclass Correlatiecoëfficiënt (ICC)**: Een betere maat voor test-hertest en inter-/intrabeoordelaarsbetrouwbaarheid van continue variabelen dan Pearson's r.
* **Interpretatie**: $> 0.70 - 0.75$ wordt als goede overeenkomst beschouwd.
Glossary
| Term | Definition |
|------|------------|
| Toegepaste statistiek | Het analyseren van data om wetenschappelijke vragen te beantwoorden, door gebruik te maken van statistische methoden. |
| Observationeel onderzoek | Een onderzoeksopzet waarbij enkel observaties en metingen worden gedaan op proefpersonen zonder dat de onderzoeker een interventie onderneemt. |
| Experimenteel onderzoek | Een onderzoeksopzet waarbij de onderzoeker een interventie uitvoert om het effect ervan te evalueren, meestal met een interventie- en controlegroep. |
| Beschrijvende statistiek | Het op een overzichtelijke manier samenvatten van data, zonder te kijken naar mogelijke verbanden of relaties, met behulp van grafische en numerieke weergaven. |
| Verklarende statistiek (inferentiële statistiek) | Het schatten van effecten of relaties, en het evalueren van de betrouwbaarheid van onderzoeksresultaten, vaak door hypothesen te toetsen en p-waarden te berekenen. |
| Normale verdeling | Een symmetrische, klokvormige kansverdeling waarbij het gemiddelde, de mediaan en de modus samenvallen, en waarbij ongeveer 95% van de waarnemingen binnen twee standaarddeviaties van het gemiddelde ligt. |
| Scheefheid (skewness) | Een maat voor de asymmetrie van een kansverdeling; een positieve scheefheid betekent een scheefheid naar rechts (gemiddelde > mediaan) en een negatieve scheefheid een scheefheid naar links (gemiddelde < mediaan). |
| Spreidingsmaten | Maten die aangeven hoe ver de data verspreid zijn rond het centrum van een verdeling, zoals de variantie, standaarddeviatie en interkwartielafstand. |
| Standaarddeviatie (SD) | Een maat voor de gemiddelde afstand van elke observatie tot het gemiddelde van de dataset, wat aangeeft hoe de data verspreid zijn rond het gemiddelde. |
| Steekproef | Een deel van de doelpopulatie dat wordt onderzocht om uitspraken te kunnen doen over de gehele populatie. |
| Doelpopulatie | De bredere groep waarover we uitspraken willen doen op basis van onze steekproefresultaten. |
| Nulhypothese (H0) | Een statistische hypothese die veronderstelt dat er geen effect, verband of correlatie is in de doelpopulatie. |
| Alternatieve hypothese (Ha) | Een statistische hypothese die geldt als de nulhypothese onwaar is, en die stelt dat er wel een effect, verband of correlatie is. |
| P-waarde (overschrijdingskans) | De kans om een onderzoeksresultaat te vinden (of nog extremer) als de nulhypothese waar zou zijn. Een lage p-waarde (< 0.05) suggereert dat de nulhypothese verworpen kan worden. |
| Significatieniveau (α) | Een vooraf vastgesteld drempelwaarde (meestal 0.05) waartegen de p-waarde wordt vergeleken om te beslissen of een resultaat statistisch significant is. |
| Type I fout | Het onterecht verwerpen van de nulhypothese, terwijl deze in werkelijkheid juist is (gebeurt met een kans van α). |
| Type II fout | Het onterecht niet verwerpen van de nulhypothese, terwijl deze in werkelijkheid onjuist is (gebeurt met een kans van β). |
| Power van een test (1 - β) | De kans om de nulhypothese correct te verwerpen wanneer deze onjuist is; een hogere power betekent een grotere kans om een echt effect te detecteren. |
| Betrouwbaarheidsinterval (BI) | Een reeks waarden waarbinnen we met een bepaalde mate van zekerheid (meestal 95%) verwachten dat de werkelijke populatieparameter ligt. |
| Centrale Limietstelling | Stelt dat, in voldoende grote steekproeven, het steekproefgemiddelde een normale verdeling volgt, ongeacht de oorspronkelijke verdeling van de variabele. |
| Z-verdeling (standaardnormale verdeling) | Een normale verdeling met een gemiddelde van 0 en een standaarddeviatie van 1, gebruikt voor het toetsen van hypothesen over gemiddelden wanneer de populatiestandaarddeviatie bekend is of de steekproef groot is. |
| T-verdeling | Een kansverdeling die lijkt op de z-verdeling, maar breder is en afhankelijk van het aantal vrijheidsgraden (df); gebruikt voor het toetsen van gemiddelden wanneer de populatiestandaarddeviatie onbekend is en de steekproef klein is. |
| Vrijheidsgraden (df) | Een parameter die de vorm van de t-verdeling bepaalt, gerelateerd aan de steekproefgrootte (vaak N-1 voor een one-sample t-toets). |
| Parametrische testen | Statistische toetsen die aannames doen over de verdeling van de data, zoals normaliteit en gelijke varianties, en die vaak gebaseerd zijn op gemiddelden. |
| Non-parametrische testen | Statistische toetsen die geen strikte aannames doen over de dataverdeling en vaak gebaseerd zijn op rangnummers; ze zijn robuuster voor afwijkingen van normaliteit. |
| Pearson correlatiecoëfficiënt (r) | Een maat voor de sterkte en richting van de lineaire associatie tussen twee continue variabelen, variërend van -1 tot +1. |
| Spearman's rank correlatiecoëfficiënt | Een rangcorrelatiecoëfficiënt die de sterkte en richting van de monotone relatie tussen twee variabelen meet, geschikt voor ordinale data of wanneer aan de voorwaarden voor Pearson niet is voldaan. |
| Lineaire regressie | Een statistische methode om de relatie tussen een continue afhankelijke variabele en een of meer onafhankelijke variabelen te modelleren, waarbij een rechte lijn wordt gezocht die de data het beste past. |
| Regressiecoëfficiënt (helling/slope) | De coëfficiënt in een regressievergelijking die de verwachte verandering in de afhankelijke variabele weergeeft voor een eenheidstoename in de onafhankelijke variabele. |
| Verklaarde variantie (r²) | Het proportionele deel van de variantie in de afhankelijke variabele dat kan worden verklaard door het regressiemodel. |
| Confounding | Een vertekening van het verband tussen een determinant en een uitkomstvariabele doordat een derde variabele (confounder) zowel samenhangt met de determinant als met de uitkomstvariabele. |
| Effectmodificatie (interactie) | Situatie waarin de relatie tussen een determinant en een uitkomstvariabele verschilt afhankelijk van de waarde van een andere variabele (de effectmodificator). |
| Dichotome variabele | Een categorische variabele die slechts twee mogelijke uitkomsten heeft (bijv. ja/nee, man/vrouw). |
| Chikwadraattoets (χ²) | Een non-parametrische toets gebruikt om de associatie tussen categorische variabelen te onderzoeken, gebaseerd op de vergelijking van geobserveerde en verwachte frequenties. |
| Logistische regressie | Een statistische methode om de relatie tussen een of meer determinanten en een dichotome uitkomstvariabele te modelleren, waarbij de log-odds van de uitkomst wordt voorspeld. |
| Odds ratio (OR) | Een maat voor de associatie die het relatieve verschil in odds voor de uitkomst tussen twee groepen weergeeft, vaak gebruikt in logistische regressie en case-control studies. |
| Maximum Likelihood Methode | Een statistische methode om de parameters van een model te schatten door de waarschijnlijkheid van de geobserveerde data te maximaliseren. |
| Overlevingsdata | Data die de tijd tot het optreden van een specifieke gebeurtenis (bijv. sterfte, herstel) registreren, vaak gecombineerd met informatie over censurering. |
| Censurering | Het feit dat de uitkomstgebeurtenis voor een proefpersoon niet is waargenomen aan het einde van de follow-up periode of doordat de proefpersoon uit het onderzoek verdwijnt. |
| Kaplan-Meier-overlevingscurve | Een grafische weergave van de overlevingskans over tijd, gebruikt om de overleving van verschillende groepen te vergelijken. |
| Log-ranktoets | Een non-parametrische toets die wordt gebruikt om de overlevingscurves van twee of meer groepen te vergelijken. |
| Cox-regressieanalyse | Een regressiemodel dat wordt gebruikt om de relatie tussen determinanten en overlevingsdata te analyseren, waarbij de hazard ratio wordt geschat. |
| Hazard Ratio (HR) | Een maat voor de associatie die het relatieve gevaar (kans op een gebeurtenis) tussen twee groepen weergeeft op elk moment in de tijd. |
| Proportional Hazards Assumption | Een aanname bij Cox-regressie die stelt dat de hazard ratio constant is over de tijd. |
| Multicollineariteit | Een probleem dat optreedt in regressiemodellen wanneer onafhankelijke variabelen sterk met elkaar correleren, wat de interpretatie van individuele effecten bemoeilijkt. |
| Validiteit | De mate waarin een meetinstrument daadwerkelijk meet wat het beoogt te meten. |
| Betrouwbaarheid | De mate waarin een meetinstrument consistente resultaten oplevert bij herhaalde metingen. |
| Kappa | Een statistische maat die de overeenkomst tussen twee categorische beoordelaars of meetmethoden beoordeelt, gecorrigeerd voor toevalsovereenkomst. |
| Intra-class Correlatiecoëfficiënt (ICC) | Een maat die de overeenkomst tussen metingen of beoordelaars kwantificeert, vooral geschikt voor continue variabelen en voor het beoordelen van test-hertest of interbeoordelaarsbetrouwbaarheid. |