Cover
Comença ara de franc boostersessies.pdf
Summary
# Inleiding tot statistisch onderzoek en ontwerp
Dit hoofdstuk introduceert de fundamentele concepten van statistisch onderzoek, waarbij de focus ligt op het definiëren van populaties en steekproeven, het ontwerpen van experimenten en de rol van beschrijvende statistiek en inferentie, met nadruk op representativiteit en steekproefgrootte [1](#page=1) [3](#page=3).
### 1.1 Kernconcepten van statistisch onderzoek
Statistisch onderzoek begint met een onderzoeksvraag. Om deze vraag te beantwoorden, is het cruciaal om de **populatie** te definiëren, wat de groep is waar de interesse van de onderzoeksvraag naar uitgaat. Vervolgens wordt een **steekproef** getrokken uit deze populatie. Het ontwerp van het onderzoek, inclusief de manier waarop de steekproef wordt genomen en het experiment wordt opgezet, is essentieel voor het verkrijgen van betrouwbare antwoorden [1](#page=1).
### 1.2 Populatie en steekproef
* **Populatie**: De gehele groep waarover uitspraken gedaan worden in de onderzoeksvraag [1](#page=1).
* **Steekproef**: Een deelverzameling van de populatie die wordt gebruikt om informatie te verzamelen [1](#page=1).
#### 1.2.1 Representativiteit van de steekproef
Het is van het grootste belang dat de steekproef **representatief** is voor de populatie. Dit betekent dat de steekproef de kenmerken van de populatie zo goed mogelijk weerspiegelt [1](#page=1).
* **Random sampling**: Een methode om elementen willekeurig uit de populatie te selecteren, wat de kans vergroot dat elk element een gelijke kans heeft om in de steekproef te komen en de representativiteit bevordert [1](#page=1).
#### 1.2.2 De rol van steekproefgrootte
De **steekproefgrootte** heeft een significante impact op de betrouwbaarheid van de resultaten [3](#page=3).
* Een **te kleine steekproef** kan leiden tot te grote variabiliteit in de resultaten, waardoor conclusies minder betrouwbaar zijn [3](#page=3).
* Een **grotere steekproef** daarentegen levert meer informatie op, waardoor de variabiliteit kleiner is en de resultaten dichter bij de werkelijke waarden in de populatie liggen [3](#page=3).
### 1.3 Experimenteel ontwerp
Het **experimenteel ontwerp** bepaalt hoe de data wordt verzameld en hoe variabelen worden gemanipuleerd om antwoorden te vinden op de onderzoeksvraag. Dit omvat het vastleggen van de analyseplannen voordat de data wordt verzameld [1](#page=1).
#### 1.3.1 Randomisatie
Randomisatie is een sleutelprincipe in experimenteel ontwerp om groepen vergelijkbaar te maken [3](#page=3).
* **Simpele randomisatie**: Elk individu wordt willekeurig toegewezen aan een behandelingsgroep. Dit kan leiden tot ongebalanceerde steekproeven, wat de nauwkeurigheid van methoden kan verminderen [3](#page=3).
* **Gebalanceerde randomisatie**: Garandeert gelijke groepsgroottes, bijvoorbeeld door individuen in paren te behandelen [3](#page=3).
* **Gestratificeerde randomisatie**: Gebruikt om de representativiteit te waarborgen voor specifieke subgroepen (strata) binnen de populatie, waarna binnen elke stratum willekeurig wordt toegewezen aan behandelingen [3](#page=3).
#### 1.3.2 Belang van controle
Een **goede controle** in experimenten is essentieel om het effect van een behandeling nauwkeurig te kunnen schatten. Zonder adequate controle kan het effect van de behandeling niet goed worden onderscheiden van andere factoren [3](#page=3).
### 1.4 Beschrijvende statistiek en inferentie
* **Beschrijvende statistiek**: Hierbij wordt gekeken naar hoe data wordt geëxploreerd en beschreven, bijvoorbeeld door het berekenen van samenvattende maten en het maken van grafieken. Dit helpt om de informatie in de steekproef op een goede manier samen te vatten. Grafische methoden zoals histogrammen en boxplots worden gebruikt om de distributie en spreiding van data te visualiseren [1](#page=1) [3](#page=3).
* **Inferentie**: Het proces waarbij conclusies over de populatie worden getrokken op basis van de resultaten uit de steekproef. Het is belangrijk te beseffen dat er altijd **onzekerheid** is bij inferentie, en statistiek kan op basis van data nooit iets definitief bewijzen [1](#page=1).
#### 1.4.1 Statistieken
Statistieken zijn formules die worden gebruikt om kenmerken te berekenen op basis van steekproefdata. Een voorbeeld is het steekproefgemiddelde ($\bar{x}$), berekend als $\bar{x} = \frac{\sum x_i}{n}$. Statistieken zijn **toevallig veranderlijk**, wat betekent dat hun waarde kan variëren afhankelijk van de specifieke steekproef die wordt getrokken [3](#page=3).
### 1.5 Confounding
Confounding treedt op wanneer het effect van een variabele wordt verward met het effect van een andere variabele. Een voorbeeld hiervan is de Salk-vaccinstudie, waarbij groepen kinderen uit verschillende klassen (3e, 2e, 1e graad) niet vergelijkbaar waren, wat leidde tot confounding [1](#page=1).
> **Tip:** Het is cruciaal om tijdens het onderzoeksontwerp rekening te houden met potentiële confounders en strategieën te implementeren om hun invloed te minimaliseren, zoals randomisatie of stratificatie.
> **Tip:** Begrip van de impact van het nemen van een steekproef is belangrijk. Simulaties kunnen helpen om te visualiseren hoe verschillende steekproeven leiden tot variatie in resultaten en gemiddeldes [1](#page=1).
---
# Concepten van data en distributie
Dit deel van de studiehandleiding verkent de fundamentele concepten van data, waaronder typen variabelen, de relatie tussen populatie- en steekproefkarakteristieken, en methoden om dataverdelingen te beschrijven aan de hand van centrale tendens en spreiding, met specifieke aandacht voor de normale verdeling en standaardisatie.
### 2.1 Typen variabelen
Variabelen kunnen worden ingedeeld in kwantitatieve (numerieke) en kwalitatieve categorieën [2](#page=2).
#### 2.1.1 Kwantitatieve variabelen
Kwantitatieve variabelen bevatten numerieke waarden en worden verder onderverdeeld in:
* **Discrete variabelen**: Dit zijn variabelen die uit tellingen bestaan, zoals het aantal items (0, 1, 2, 3, 4) [2](#page=2).
* **Continue variabelen**: Dit zijn variabelen die elke waarde binnen een bepaald bereik kunnen aannemen, zoals bloeddruk of lengte [2](#page=2).
#### 2.1.2 Kwalitatieve variabelen
Kwalitatieve variabelen beschrijven categorieën en worden onderverdeeld in:
* **Nominale variabelen**: Dit zijn groepsvariabelen zonder een inherente ordening binnen de groeperingen, zoals geslacht (man of vrouw) [2](#page=2).
* **Ordinale variabelen**: Dit zijn groepsvariabelen waarbij wel een ordening aanwezig is, zoals BMI-klassen of rookgedrag [2](#page=2).
### 2.2 Populatie- en steekproefkarakteristieken
Het onderscheid tussen populatie- en steekproefkarakteristieken is cruciaal in statistisch onderzoek [2](#page=2).
#### 2.2.1 Populatiekarakteristieken
Een populatie omvat de gehele groep waarin men geïnteresseerd is. Karakteristieken van de populatie worden vaak aangeduid met hoofdletters. Populaties kunnen toevallig veranderlijke karakteristieken bevatten die variëren, zoals de lengte van individuen, waarbij elke steekproef andere waarden kan opleveren. Deze variabelen kunnen zowel continu als niet-continu zijn [2](#page=2).
#### 2.2.2 Steekproefkarakteristieken
Steekproefkarakteristieken zijn gebaseerd op een subset van de populatie en worden gebruikt om de populatie te schatten. Karakteristieken van een steekproef worden doorgaans aangeduid met kleine letters. Het is belangrijk om rekening te houden met de onzekerheid die inherent is aan het schatten van populatiekenmerken uit een steekproef, aangezien de populatiekenmerken vaak onbekend zijn [2](#page=2).
### 2.3 Beschrijving van dataverdelingen
Het beschrijven van dataverdelingen omvat het analyseren van zowel de locatie als de variabiliteit van de gegevens [2](#page=2).
#### 2.3.1 Locatie (centrale tendens)
De locatie van een verdeling geeft aan waar de meeste data geconcentreerd is. Verschillende maten kunnen hiervoor gebruikt worden [2](#page=2):
* **Gemiddelde**: Dit is een veelgebruikte maat voor de locatie, maar kan gevoelig zijn voor uitschieters (outliers) die de verdeling scheef kunnen trekken [4](#page=4).
* **Mediaan**: De mediaan is een robuustere maat voor de locatie, vooral wanneer er sprake is van veel uitschieters of een scheve verdeling [4](#page=4).
* **Geometrisch gemiddelde**: Dit kan een nauwkeurigere maat zijn dan de mediaan wanneer data, na een log-transformatie, ongeveer normaal verdeeld is, omdat het gebaseerd is op alle gegevens [4](#page=4).
#### 2.3.2 Variabiliteit (spreiding)
Variabiliteit, ook wel spreiding genoemd, meet hoe verspreid de data is rondom de locatie. Belangrijke maten zijn [2](#page=2):
* **Variantie**: Dit meet de gemiddelde gekwadrateerde afwijking van het gemiddelde. Voor discrete verdelingen kan dit de variabiliteit van dezelfde waarden of het gemiddelde zelf betreffen. Voor continue verdelingen wordt dit berekend met een integraal [2](#page=2).
* **Standaarddeviatie**: Dit is de wortel van de variantie en biedt een maat voor de spreiding in dezelfde eenheden als de originele data [2](#page=2).
* **Interkwartielafstand (IQR)**: Dit is het verschil tussen het derde en eerste kwartiel en wordt vaak weergegeven in boxplots [4](#page=4).
### 2.4 De normale verdeling
De normale verdeling, ook wel de Gauss-verdeling genoemd, is een fundamentele theoretische verdeling in de statistiek [2](#page=2).
#### 2.4.1 Kenmerken van de normale verdeling
Een normale verdeling wordt volledig bepaald door twee modelparameters: het gemiddelde ($\mu$) en de variantie ($\sigma^2$). Dit wordt genoteerd als $N(\mu, \sigma^2)$. Het voordeel hiervan is dat wanneer deze twee parameters bekend zijn, de verdeling volledig is vastgelegd [2](#page=2).
#### 2.4.2 Evaluatie van de normale verdeling
Om te beoordelen of data normaal verdeeld is, kan een QQ-plot (Quantile-Quantile plot) worden gebruikt. Hierbij worden de kwantielen van de steekproef uitgezet tegen de theoretische kwantielen die gebaseerd zijn op een normale verdeling [4](#page=4).
#### 2.4.3 Standaardisatie
Standaardisatie is een proces om variabelen te transformeren zodat ze een standaard normale verdeling volgen. Een gestandaardiseerde waarde, ook wel een Z-waarde genoemd, wordt berekend met de formule [2](#page=2):
$$z = \frac{x - \mu}{\sigma}$$
waarbij $x$ de observatie, $\mu$ het populatiegemiddelde, en $\sigma$ de populatiestandaarddeviatie is. Gestandaardiseerde variabelen volgen een $N(0,1)$ verdeling, wat betekent dat ze een gemiddelde van 0 en een standaarddeviatie van 1 hebben [2](#page=2).
> **Tip:** Standaardisatie is nuttig om variabelen van verschillende schalen te vergelijken of om te werken met tabellen van de normale verdeling.
> **Voorbeeld:** Als de gemiddelde lengte van mannen $\mu = 180$ cm is met een standaarddeviatie $\sigma = 7$ cm, en een man een lengte van $x = 190$ cm heeft, dan is zijn Z-waarde $z = \frac{190 - 180}{7} \approx 1.43$. Dit geeft aan dat hij ongeveer 1.43 standaarddeviaties langer is dan het gemiddelde [2](#page=2).
---
# Statistische inferentie en hypothesetesten
Dit gedeelte behandelt de kern van statistische inferentie: het maken van uitspraken over een populatie op basis van een steekproef. Hieronder vallen het schatten van parameters, het berekenen van betrouwbaarheidsintervallen en het uitvoeren van hypothesetesten zoals de t-test en ANOVA, met aandacht voor de onderliggende aannames [5](#page=5).
### 3.1 Het concept van statistische inferentie
Statistische inferentie stelt ons in staat om conclusies te trekken over een gehele populatie op basis van de informatie uit een steekproef. Dit is noodzakelijk omdat het testen van de gehele populatie vaak onhaalbaar is vanwege de omvang of logistieke redenen [17](#page=17) [5](#page=5).
#### 3.1.1 Populatie en steekproef
* **Populatie:** De gehele groep waarover een uitspraak wordt gedaan (bv. alle mensen met hypertensie) [5](#page=5).
* **Steekproef:** Een willekeurig geselecteerd deel van de populatie, gebruikt om conclusies te trekken [5](#page=5).
#### 3.1.2 Van steekproef naar populatie: parameters en schatters
Het doel is om populatieparameters (zoals het populatiegemiddelde $\mu$ of de populatievariantie $\sigma^2$) te schatten met behulp van steekproefstatistieken (zoals het steekproefgemiddelde $\bar{x}$ en de steekproefstandaarddeviatie $s$) [6](#page=6) [8](#page=8).
* **Schatten van populatieparameters:** Dit gebeurt aan de hand van de data uit de steekproef [6](#page=6).
* **Onzekerheid in schattingen:** Omdat de steekproef slechts een deel van de populatie is, is er altijd onzekerheid verbonden aan de schattingen. Deze onzekerheid neemt af naarmate de steekproef groter wordt [5](#page=5) [6](#page=6) [8](#page=8).
#### 3.1.3 Aannames in statistische inferentie
Voor veel statistische methoden zijn bepaalde aannames cruciaal voor de geldigheid van de resultaten. De meest voorkomende zijn [14](#page=14) [15](#page=15) [5](#page=5) [6](#page=6) [8](#page=8):
1. **Representatieve steekproef:** De steekproef moet willekeurig getrokken zijn uit de populatie, zodat de resultaten generaliseerbaar zijn [15](#page=15) [5](#page=5) [6](#page=6).
2. **Normaliteit:** De data (of de steekproefstatistieken, via de Centrale Limietstelling) volgen een normale verdeling. Dit kan gevisualiseerd worden met behulp van een QQ-plot [15](#page=15) [5](#page=5) [6](#page=6) [8](#page=8).
3. **Onafhankelijkheid:** De metingen binnen de steekproef zijn onafhankelijk van elkaar. Bij gepaarde data worden de metingen eerst getransformeerd (bv. het verschil berekenen) om onafhankelijkheid te verkrijgen [15](#page=15) [17](#page=17) [18](#page=18) [5](#page=5) [6](#page=6) [8](#page=8).
4. **Gelijkheid van variantie (homoscedasticiteit):** De variantie van de data is in alle groepen gelijk. Als deze aanname niet voldaan is, kan een aangepaste test (zoals de Welch test) worden gebruikt [15](#page=15) [17](#page=17) [8](#page=8) [9](#page=9).
> **Tip:** Het is essentieel om de aannames van de gebruikte statistische test te controleren. Indien aannames niet voldaan zijn, kunnen transformaties van de data, niet-parametrische testen of specifieke aangepaste methoden (zoals Welch's t-test) nodig zijn [17](#page=17) [5](#page=5) [7](#page=7) [9](#page=9).
### 3.2 Betrouwbaarheidsintervallen
Een betrouwbaarheidsinterval (BI) geeft een bereik van waarden waarbinnen de populatieparameter waarschijnlijk ligt, met een bepaald betrouwbaarheidsniveau (meestal 95%) [19](#page=19) [6](#page=6).
* **Interpretatie:** Een 95% betrouwbaarheidsinterval betekent dat als we het experiment duizend keer zouden herhalen, 95% van de resulterende intervallen de ware populatieparameter zouden bevatten [6](#page=6).
* **Belang bij nulhypothese:** Als een 95% BI de nulwaarde (bv. 0 bij een verschil) niet bevat, is dit een indicatie dat er een significant effect is [20](#page=20) [21](#page=21) [22](#page=22) [23](#page=23) [6](#page=6).
### 3.3 Hypothesetesten
Hypothesetesten worden gebruikt om te toetsen of een gevonden effect in de steekproef significant genoeg is om te concluderen dat het effect ook in de populatie aanwezig is [15](#page=15) [6](#page=6) [7](#page=7).
#### 3.3.1 Nulhypothese ($H_0$) en alternatieve hypothese ($H_1$)
* **Nulhypothese ($H_0$):** Er is geen effect of geen verschil in de populatie (bv. het gemiddelde verschil in bloeddruk is nul) [15](#page=15) [6](#page=6) [7](#page=7).
* **Alternatieve hypothese ($H_1$):** Er is wel een effect of een verschil in de populatie (bv. het gemiddelde verschil in bloeddruk is niet nul) [17](#page=17).
#### 3.3.2 De teststatistiek
De teststatistiek is een waarde berekend uit de steekproefdata die wordt gebruikt om de nulhypothese te evalueren. Voorbeelden zijn de t-statistiek en de F-statistiek. De teststatistiek vergelijkt het "signaal" (het waargenomen effect) met de "ruis" (de variabiliteit in de data) [14](#page=14) [15](#page=15) [6](#page=6) [7](#page=7).
#### 3.3.3 P-waarde
De p-waarde is de kans om de geobserveerde teststatistiek of een extremere waarde te verkrijgen, *aangenomen dat de nulhypothese waar is* [19](#page=19) [20](#page=20) [7](#page=7).
* **Beslissingsregel:** Als de p-waarde kleiner is dan het significantieniveau $\alpha$ (meestal 0.05), wordt de nulhypothese verworpen ten gunste van de alternatieve hypothese [10](#page=10) [7](#page=7).
* **Interpretatie:** Een lage p-waarde (bv. p < 0.001) suggereert dat het waargenomen effect onwaarschijnlijk is onder de nulhypothese [7](#page=7).
#### 3.3.4 Beslissingsfouten
Bij hypothesetesten kunnen twee soorten fouten optreden [10](#page=10) [20](#page=20) [22](#page=22):
* **Type I fout (vals positief):** De nulhypothese wordt verworpen terwijl deze in werkelijkheid waar is. De kans hierop is gelijk aan het significantieniveau $\alpha$ [10](#page=10) [20](#page=20).
* **Type II fout (vals negatief):** De nulhypothese wordt niet verworpen terwijl deze in werkelijkheid onwaar is. De kans hierop wordt aangeduid met $\beta$. De *power* van een toets is $1-\beta$ (de kans om een echt effect te detecteren) [10](#page=10) [20](#page=20) [21](#page=21).
> **Tip:** De power van een toets wordt beïnvloed door de effectgrootte, de variabiliteit van de data, het significantieniveau en de steekproefgrootte. In de designfase kan men de minimale steekproefgrootte bepalen om een gewenste power te bereiken [20](#page=20) [21](#page=21) [7](#page=7) [9](#page=9).
### 3.4 Specifieke hypothesetesten
#### 3.4.1 One-sample t-test
Toetst of het gemiddelde van een steekproef significant verschilt van een hypothetische waarde (vaak 0). De test gebruikt de t-verdeling met $n-1$ vrijheidsgraden, waarbij $n$ de steekproefgrootte is. Aannames: normaliteit van de data en onafhankelijke metingen [17](#page=17) [5](#page=5) [6](#page=6).
#### 3.4.2 Two-sample t-test
Vergelijkt de gemiddelden van twee onafhankelijke groepen. Er wordt getest of het verschil tussen de populatiegemiddelden ($\mu_2 - \mu_1$) significant is van nul. Aannames: normaliteit van de data in beide groepen en gelijkheid van variantie (homoscedasticiteit). Als de varianties ongelijk zijn, wordt de Welch two-sample t-test gebruikt [17](#page=17) [8](#page=8) [9](#page=9).
#### 3.4.3 Gepaarde t-test
Wordt gebruikt wanneer de metingen binnen paren afkomstig zijn (bv. voor en na een behandeling bij dezelfde patiënt). De test wordt uitgevoerd op de verschillen tussen de gepaarde metingen, die als onafhankelijk worden beschouwd. Aannames: normaliteit van de verschillen en onafhankelijkheid van de paren [17](#page=17) [5](#page=5) [6](#page=6).
#### 3.4.4 Variantieanalyse (ANOVA)
ANOVA wordt gebruikt om de gemiddelden van drie of meer groepen te vergelijken. De primaire test, de "omnibus test", toetst de nulhypothese dat alle groepsgemiddelden gelijk zijn [14](#page=14) [15](#page=15) [17](#page=17).
* **F-statistiek:** Gebruikt om de ratio van de variantie tussen groepen (MSR) ten opzichte van de variantie binnen groepen (MSE) te evalueren [14](#page=14).
* **Post-hoc testen:** Als de omnibus test significant is, worden post-hoc testen uitgevoerd om specifieke paarsgewijze vergelijkingen tussen groepen te maken, met correcties voor multiple testing (bv. Bonferroni, Tukey) om de kans op Type I fouten te beheersen [15](#page=15) [22](#page=22).
* **Factoriële ANOVA:** Kan worden gebruikt om de effecten van meerdere factoren (onafhankelijke variabelen) en hun interacties te onderzoeken [14](#page=14).
#### 3.4.5 Tests voor proporties
* **Test voor een proportie:** Gebruikt om te toetsen of de proportie van een binaire variabele in de populatie gelijk is aan een specifieke waarde (bv. 50%). Gebaseerd op de Centrale Limietstelling (voor grote steekproeven) of de exacte binomiale test (altijd geldig) [19](#page=19) [20](#page=20).
* **Associatie tussen twee categorische binaire variabelen:**
* **Gepaarde data (McNemar test):** Gebruikt voor gepaarde binaire variabelen, met de voorkeur voor de exacte binomiale test [20](#page=20) [21](#page=21).
* **Onafhankelijke data:** Gebruikt de Chi-kwadraat test (voor grote steekproeven) of de Fisher exact test (voor 2x2 tabellen) [21](#page=21) [22](#page=22).
#### 3.4.6 Logistische regressie
Een methode om een binaire of categorische respons variabele te modelleren met behulp van continue of categorische predictoren. De uitkomst wordt gemodelleerd via de log-odds, wat overeenkomt met een lineair model voor de log-odds. De parameters worden geïnterpreteerd in termen van log-odds en log-odds ratio's [22](#page=22) [23](#page=23).
### 3.5 Conclusies trekken uit statistische analyses
Een goede conclusie omvat de volgende elementen:
* Een duidelijke verwijzing naar de onderzoeksvraag [21](#page=21) [7](#page=7).
* De resultaten van de statistische test (bv. de significantie, p-waarde) [21](#page=21) [7](#page=7).
* De geschatte effectgrootte (bv. het gemiddelde verschil, de proportie) [21](#page=21) [7](#page=7).
* Het betrouwbaarheidsinterval voor de effectgrootte [21](#page=21) [7](#page=7).
* Een interpretatie van de resultaten in de context van de onderzoeksvraag en de populatie [21](#page=21) [7](#page=7).
> **Tip:** Rapporteer altijd de effectgrootte en het betrouwbaarheidsinterval, niet alleen de p-waarde. Dit geeft een vollediger beeld van de bevindingen [7](#page=7).
---
# Lineaire regressie en modellering
Dit onderwerp introduceert lineaire regressie als een methode om de lineaire relatie tussen continue variabelen te onderzoeken, inclusief het vertalen van onderzoeksvragen naar modelparameters, het schatten van effectgroottes, het uitvoeren van hypothesetesten, en de interpretatie van resultaten en aannames [11](#page=11).
### 4.1 Basisconcepten van lineaire regressie
Lineaire regressie wordt gebruikt om de associatie tussen continue variabelen te onderzoeken. De centrale vraag hierbij is hoe een respons variabele, die continu is, gerelateerd is aan een predictor variabele, die ook continu is [11](#page=11).
**Data-exploratie:**
Voorafgaand aan de modellering is data-exploratie cruciaal. Dit omvat het inspecteren van de data, het identificeren van patronen en het rechtvaardigen van eventuele data-uitsluitingen. Een "smoother" kan helpen bij het visualiseren van (niet-)lineaire patronen [11](#page=11).
**Associatie samenvatten:**
* **Pearson correlatie:** Geschikt voor het samenvatten van lineaire associaties [11](#page=11).
* **Spearman correlatie:** Wordt gebruikt voor monotone associaties, waarbij de data eerst naar ranks wordt getransformeerd. Dit kan een betere indicatie geven als de relatie niet strikt lineair is op de originele schaal [11](#page=11).
### 4.2 Vertalen van onderzoeksvragen naar modelparameters
De onderzoeksvraag wordt vertaald naar populatieparameters [11](#page=11).
**Hellingsparameter ($\beta_1$):**
Deze parameter kwantificeert de lineaire associatie tussen de genexpressies. Het toont aan hoe de respons variabele verandert wanneer de predictor variabele met één eenheid toeneemt. Formeel, als de predictor ($X$) met 1 eenheid verandert, zal de respons ($Y$) gemiddeld met $\beta_1$ eenheden veranderen [11](#page=11).
**Hypothesetesten:**
Bij hypothesetesten wordt eerst gekeken naar de mogelijke waarden van de hellingsparameter in verschillende steekproeven, voordat een statistische test wordt ontworpen. Dit gebeurt op basis van één test met aanvullende aannames [11](#page=11).
**Aannames van lineaire regressie:**
Voor statistische inferentie zijn specifieke aannames noodzakelijk:
* De fouttermen ($\epsilon_i$) hebben een gemiddelde van 0 [11](#page=11).
* De fouttermen hebben gelijke variantie (homoscedasticiteit) [11](#page=11).
* De fouttermen zijn normaal verdeeld [11](#page=11).
* De data volgt een normale verdeling met een gemiddelde dat varieert afhankelijk van $X$, en er is een spreiding rond de regressierechte [11](#page=11).
De geschatte hellingsparameter heeft een gemiddelde dat overeenkomt met de echte waarde en een bepaalde onzekerheid die varieert per steekproef [11](#page=11).
### 4.3 Schatten van effectgrootte en inferentie
De effectgrootte wordt geschat op basis van de steekproef. Resultaten van de `lm` functie in statistische software geven geschatte waarden. P-waarden zijn alleen betrouwbaar als de aannames van het model voldaan zijn. Residuanalyses zijn essentieel om de geldigheid van deze aannames te controleren [11](#page=11) [12](#page=12).
**Standaardfout (SE) van de hellingsparameter:**
De standaardfout van de geschatte hellingsparameter ($\text{SE}(\hat{\beta}_1)$) wordt berekend op basis van de kwadratische residuen [12](#page=12).
**t-statistiek:**
De t-statistiek voor de hellingsparameter wordt berekend als:
$$t = \frac{\hat{\beta}_1 - \beta_1}{\text{SE}(\hat{\beta}_1)}$$
waarbij $\hat{\beta}_1$ de geschatte hellingsparameter is en $\beta_1$ de werkelijke waarde onder de nulhypothese. Deze statistiek volgt een t-verdeling met $n-p$ vrijheidsgraden, waar $n$ het aantal observaties is en $p$ het aantal parameters in het model [12](#page=12).
**Hypothesetesten:**
Onder de nulhypothese ($H_0$) is de ware waarde van de hellingsparameter bekend (vaak nul). De t-statistiek wordt vervolgens berekend als $t_0 = \hat{\beta}_1 / \text{SE}(\hat{\beta}_1)$, die getoetst wordt tegen een $t_{n-p}$ verdeling [12](#page=12).
### 4.4 R-output en interpretatie
De output van statistische software (zoals R) biedt inzicht in de modelparameters [12](#page=12).
**Residuanalyse:**
Als residuen niet rond 0 liggen of patronen vertonen, is een lineair verband mogelijk geen goede fit. In dat geval kan het nodig zijn het model aan te passen, bijvoorbeeld door kwadraten van variabelen toe te voegen of transformaties op de predictoren toe te passen. Als de data niet normaal verdeeld is, kan een transformatie op de respons variabele nodig zijn [12](#page=12).
**Interpretatie van modelparameters:**
* **Log-getransformeerde data:** Wanneer zowel de respons als de predictor op logschaal worden gemodelleerd (bv. $\log_2$), kan de hellingsparameter ($\beta_1$) direct geïnterpreteerd worden als een percentage of ratio [12](#page=12).
* De intercept ($\beta_0$) vertegenwoordigt de gemiddelde log-getransformeerde respons wanneer de log-getransformeerde predictor 0 is (wat overeenkomt met een waarde van 1 op de originele schaal, als $\log_2$ is gebruikt) [12](#page=12).
* Een verschil van 1 eenheid op de log-getransformeerde schaal van de predictor correspondeert met een gemiddeld verschil van $\beta_1$ op de log-getransformeerde schaal van de respons [12](#page=12).
* Als de predictor ($X$) en respons ($Y$) op $\log_2$ schaal worden gemodelleerd: $\log_2(Y_2) - \log_2(Y_1) = \beta_1$. Dit impliceert $\log_2(Y_2/Y_1) = \beta_1$, dus $Y_2/Y_1 = 2^{\beta_1}$. De hellingsparameter vertegenwoordigt dan de ratio van de gemiddelde geometrische waarden [12](#page=12).
* **Originele schaal:** Als de respons niet getransformeerd is, betekent een verschil van 1 eenheid in $X$ dat de persoon met de hoogste $X$ een $Y$-waarde heeft die $\beta_1$ hoger ligt. Als de respons wel getransformeerd is, vertegenwoordigt de teruggetransformeerde hellingsparameter een ratio in de gemiddelde parameters [12](#page=12).
> **Tip:** Bij het interpreteren van modelparameters is het cruciaal om te weten of de variabelen op hun originele schaal of een getransformeerde schaal zijn gemodelleerd. Dit beïnvloedt of de parameter geïnterpreteerd wordt als een verschil of een ratio.
### 4.5 Kwadratensommen en ANOVA-tabel
Kwadratensommen en de ANOVA-tabel worden gebruikt voor het uitvoeren van statistische toetsen [13](#page=13).
* **Totale kwadratensom (Total Sum of Squares, SST):** Representeert de totale variabiliteit in de respons variabele $Y$, gemeten als de som van de gekwadrateerde afwijkingen van de observaties tot het algemene gemiddelde van $Y$ [13](#page=13).
* **Model verklaarde kwadratensom (Regression Sum of Squares, SSR):** Meet de variabiliteit die verklaard wordt door het regressiemodel [13](#page=13).
* **Residuele kwadratensom (Residual Sum of Squares, SSE):** Meet de onverklaarbare variabiliteit, d.w.z. de variabiliteit die niet door het model kan worden verklaard [13](#page=13).
De relatie is: $SST = SSR + SSE$ [13](#page=13).
**Determinatiecoëfficiënt ($R^2$):**
De $R^2$-waarde, berekend als $SSR/SST$, geeft aan welk percentage van de totale variabiliteit in de respons verklaard kan worden door het model [13](#page=13).
**F-test:**
De F-test vergelijkt het verklaarbare deel van de variabiliteit met het onverklaarbare deel, gecorrigeerd voor vrijheidsgraden. Deze test is nuttig om de algehele significantie van het regressiemodel te beoordelen [13](#page=13).
De interpretatie van $SSR$ kan ook gezien worden als het vergelijken van een model met het regressiemodel en een model met enkel het intercept [13](#page=13).
### 4.6 Ontwerpaspecten en kracht van de toets
Bij het ontwerpen van een studie is het belangrijk om rekening te houden met mogelijke fouten, zoals Type I (onterecht verwerpen van $H_0$) en Type II fouten (niet oppikken van een werkelijke associatie) [13](#page=13).
**Kracht van de toets (Power):**
De kracht van een toets is de kans om een alternatieve hypothese te aanvaarden wanneer deze waar is. De kracht is afhankelijk van [13](#page=13):
* De grootte van de hellingsparameter [13](#page=13).
* De residuele variabiliteit (die niet direct controleerbaar is) [13](#page=13).
* Het aantal observaties ($n$) en de spreiding van de observaties. Grote afwijkingen van het gemiddelde van $X$ bieden meer informatie over de hellingsparameter [13](#page=13).
Data simulatie kan worden gebruikt om de prestaties van verschillende ontwerpen te evalueren [13](#page=13).
### 4.7 Besluitvorming, voorspellingen en intervallen
Lineaire modellen worden gebruikt voor diverse doeleinden, waaronder voorspellingen [13](#page=13).
**Voorspellingen:**
Voor elke mogelijke waarde van de predictor ($X$), kan een voorspelling voor de respons ($Y$) worden gedaan op basis van de geschatte regressierechte. De onzekerheid rond deze voorspellingen is ook bekend [13](#page=13).
**Variantie van voorspellingen:**
De variantie op voorspellingen hangt af van de variantie van de geschatte parameters ($\beta_0$, $\beta_1$) en de gekozen $X$-waarde. Hoe verder $X$ van het gemiddelde van $X$ ligt, hoe groter de onzekerheid [13](#page=13).
**Betrouwbaarheidsintervallen en voorspellingsintervallen:**
* **Betrouwbaarheidsinterval voor het gemiddelde:** Kan worden opgesteld voor het verwachte gemiddelde van de respons voor een gegeven $X$-waarde [13](#page=13).
* **Voorspellingsinterval:** Geeft een bereik aan waarbinnen een nieuwe observatie waarschijnlijk zal vallen. Dit interval houdt rekening met zowel de onzekerheid in de geschatte gemiddelde respons als de inherente variabiliteit van nieuwe observaties rond dat gemiddelde. Het interval voor een nieuwe observatie is breder dan het betrouwbaarheidsinterval voor het gemiddelde [13](#page=13).
> **Tip:** Het onderscheid tussen betrouwbaarheidsintervallen (voor het gemiddelde) en voorspellingsintervallen (voor een individuele observatie) is cruciaal voor correcte interpretatie.
**Dummy variabelen:**
Dummy variabelen kunnen worden gebruikt om categorische predictoren op te nemen in lineaire regressiemodellen [13](#page=13).
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Populatie | De gehele groep individuen of objecten waar de onderzoeksinteresse naar uitgaat. Statistisch onderzoek probeert door middel van steekproeven conclusies te trekken over deze populatie. |
| Steekproef | Een subset van de populatie die wordt geselecteerd om onderzoek op uit te voeren. Een representatieve steekproef is cruciaal om generaliseerbare resultaten te verkrijgen. |
| Experimenteel design | De methode die wordt gebruikt om een onderzoeksvraag te beantwoorden, inclusief hoe de steekproef wordt genomen, welke interventies worden toegepast, en hoe de data zal worden geanalyseerd. |
| Beschrijvende statistiek | Technieken om data te organiseren, samenvatten en presenteren, zoals grafieken (histogrammen, boxplots) en samenvattende maten (gemiddelde, mediaan, standaarddeviatie, interkwartielafstand). |
| Inferentie | Het proces van het trekken van conclusies over een populatie op basis van gegevens uit een steekproef, rekening houdend met de onzekerheid die gepaard gaat met dit proces. |
| Steekproefgemiddelde ($\bar{x}$) | De som van alle waarden in een steekproef gedeeld door het aantal waarnemingen in die steekproef. Het is een schatter voor het populatiegemiddelde. |
| Standaarddeviatie ($s$) | Een maat voor de spreiding van data rond het gemiddelde. Het is de vierkantswortel van de variantie en geeft de gemiddelde afwijking van het gemiddelde aan. |
| Variabiliteit/Spreiding | De mate waarin waarden in een dataset afwijken van elkaar of van het gemiddelde. Dit kan worden gemeten met de standaarddeviatie, variantie of interkwartielafstand. |
| Normale verdeling | Een symmetrische, klokvormige kansverdeling die wordt gekenmerkt door zijn gemiddelde ($\mu$) en variantie ($\sigma^2$). Veel statistische methoden zijn gebaseerd op de aanname van normaliteit. |
| Standaardisatie (Z-score) | Het transformeren van een ruwe score naar een score die aangeeft hoeveel standaarddeviaties deze afwijkt van het gemiddelde. De formule is $Z = (x - \mu) / \sigma$. |
| Betrouwbaarheidsinterval (BI) | Een interval van waarden dat met een bepaalde mate van zekerheid (meestal 95%) de werkelijke populatieparameter bevat. Het geeft de precisie van een schatting weer. |
| Hypothese testen | Een statistische methode om te bepalen of er voldoende bewijs is in de steekproefdata om de nulhypothese te verwerpen ten gunste van een alternatieve hypothese. |
| Nulhypothese ($H_0$) | Een stelling die stelt dat er geen effect, verschil of verband is tussen variabelen in de populatie. Het doel van hypothesetesten is om deze hypothese te weerleggen. |
| Alternatieve hypothese ($H_1$) | Een stelling die stelt dat er wel een effect, verschil of verband is tussen variabelen in de populatie. |
| T-test | Een statistische test die wordt gebruikt om het verschil tussen de gemiddelden van twee groepen te vergelijken, of om het gemiddelde van één groep te vergelijken met een bekende waarde. |
| P-waarde | De kans om, gegeven dat de nulhypothese waar is, een teststatistiek te observeren die minstens zo extreem is als de waargenomen teststatistiek. Een lage p-waarde (bv. < 0.05) leidt tot verwerping van de nulhypothese. |
| Variantieanalyse (ANOVA) | Een statistische test die wordt gebruikt om de gemiddelden van drie of meer groepen te vergelijken door de totale variabiliteit in de data op te splitsen in verschillende componenten. |
| Lineaire regressie | Een statistische methode om de lineaire relatie tussen een afhankelijke variabele (respons) en een of meer onafhankelijke variabelen (predictors) te modelleren. |
| Hellingsparameter ($\beta_1$) | In lineaire regressie is dit de parameter die de verandering in de responsvariabele voor elke eenheidstoename in de predictorvariabele aangeeft, ervan uitgaande dat de relatie lineair is. |
| Residuen | Het verschil tussen de geobserveerde waarde van de afhankelijke variabele en de voorspelde waarde van de afhankelijke variabele volgens het regressiemodel. |
| Confounder | Een variabele die zowel gerelateerd is aan de onafhankelijke variabele als aan de afhankelijke variabele, en die een vertekend beeld kan geven van het werkelijke verband tussen die twee. |
| Steekproefgrootte ($n$) | Het aantal observaties of eenheden in een steekproef. Een grotere steekproefgrootte verhoogt doorgaans de statistische power en precisie van schattingen. |
| Type I fout (vals positief) | Het onterecht verwerpen van de nulhypothese wanneer deze in werkelijkheid waar is. De kans hierop wordt aangeduid met alfa ($\alpha$). |
| Type II fout (vals negatief) | Het onterecht aanvaarden van de nulhypothese wanneer deze in werkelijkheid onwaar is. De kans hierop wordt aangeduid met bèta ($\beta$). |
| Kracht van een toets (Power) | De kans om de nulhypothese correct te verwerpen wanneer de alternatieve hypothese waar is. Het is gelijk aan $1 - \beta$. |
| Odds Ratio (OR) | Een maat voor de associatie tussen twee categorische variabelen. Het is de verhouding van de odds van een uitkomst in de ene groep ten opzichte van de odds van de uitkomst in de andere groep. |
| Logistische regressie | Een statistische methode die wordt gebruikt om de relatie te modelleren tussen een binaire afhankelijke variabele en een of meer predictorvariabelen. |
| Absoluut Risico Verschil (ARV) | Het verschil in de proportie van een uitkomst tussen twee groepen. |
| McNemar test | Een statistische test die wordt gebruikt om de associatie tussen twee dichotome (binaire) variabelen te analyseren bij gepaarde metingen. |
| Chi-kwadraat test ($\chi^2$) | Een statistische test die wordt gebruikt om de associatie tussen twee categorische variabelen te onderzoeken. |