Cover
Inizia ora gratuitamente Set 8 H12 ANOVA.pptx
Summary
# Introductie tot variantie-analyse
Hier is een gedetailleerde studiehandleiding voor de introductie tot variantie-analyse, gebaseerd op de verstrekte documentatie.
## 1. Introductie tot variantie-analyse
Variantie-analyse (ANOVA) is een statistische techniek die wordt gebruikt om de gemiddelden van twee of meer populaties of condities te vergelijken, en dient als een uitbreiding van de t-toets.
### 1.1 De een-factor variantie-analyse (One-way ANOVA)
#### 1.1.1 Concept en doel
De een-factor variantie-analyse (ANOVA) is een methode om de gemiddelden van twee of meer groepen te vergelijken. Terwijl een t-toets voor onafhankelijke steekproeven zich beperkt tot het vergelijken van de gemiddelden van slechts twee populaties, maakt ANOVA dit mogelijk voor drie of meer groepen. Dit wordt gedaan op basis van enkelvoudige aselecte steekproeven (EAS) uit elke populatie of conditie.
#### 1.1.2 Nul- en alternatieve hypotheses
De nulhypothese ($H_0$) in ANOVA stelt dat alle populatiegemiddelden gelijk zijn. De alternatieve hypothese ($H_A$) stelt dat niet alle populatiegemiddelden gelijk zijn; er is dus minstens één gemiddelde dat significant verschilt van de andere.
* $H_0: \mu_1 = \mu_2 = \dots = \mu_k$
* $H_A$: Niet alle $\mu_i$ zijn gelijk
#### 1.1.3 Waarom niet meerdere paarsgewijze t-toetsen?
Het uitvoeren van meerdere paarsgewijze t-toetsen om de gemiddelden van meer dan twee groepen te vergelijken, is geen aanbevolen praktijk. Hoewel elke t-toets op zichzelf de kans op een Type I fout (onterecht concluderen dat er een verschil is terwijl dat er niet is) gelijk aan $\alpha$ (het significantieniveau) controleert, verhoogt het herhaaldelijk uitvoeren van deze toetsen het cumulatieve risico op een Type I fout aanzienlijk. Dit fenomeen staat bekend als "capitalizing on chance", waarbij men te snel significante verschillen vindt die er in werkelijkheid niet zijn.
> **Tip:** Bij het vergelijken van meer dan twee groepen, verhoogt elke extra t-toets de kans op een foutieve conclusie. ANOVA biedt een gecontroleerde manier om te toetsen of er *ergens* een verschil is voordat specifieke groepen worden vergeleken.
### 1.2 Voorwaarden voor ANOVA
Om de resultaten van een een-factor ANOVA betrouwbaar te interpreteren, moeten aan een aantal voorwaarden worden voldaan:
1. **Onafhankelijke steekproeven:** Er moeten $k$ onafhankelijke enkelvoudige aselecte steekproeven zijn, één uit elke populatie.
2. **Gelijke populatievarianties:** Alle $k$ populaties moeten dezelfde (onbekende) standaarddeviatie $\sigma$ hebben.
* **Vuistregel voor gelijkheid van varianties:** De resultaten van de F-test zijn bij benadering correct indien de grootste steekproef standaarddeviatie ($s_{max}$) niet meer dan twee keer zo groot is als de kleinste steekproef standaarddeviatie ($s_{min}$). Met andere woorden, de verhouding $\frac{s_{max}}{s_{min}} \le 2$.
* **Alternatieve toetsen:** Methoden zoals de Bartlett-test of de Levene-test kunnen gebruikt worden om de homogeniteit van varianties formeel te toetsen.
3. **Normaliteit van populaties:** Alle $k$ populaties moeten normaal verdeeld zijn met een onbekende verwachting $\mu_i$.
#### 1.2.1 Het ANOVA model
Het model voor een waarneming $Y_{ij}$ (de $j$-de waarneming in de $i$-de groep) kan worden uitgedrukt als:
$$
Y_{ij} = \mu_i + \epsilon_{ij}
$$
waarbij $\mu_i$ het populatiegemiddelde is van groep $i$, en $\epsilon_{ij}$ het residu is dat de afwijking van de individuele score ten opzichte van het groepsgemiddelde vertegenwoordigt. De aannames stellen dat $\epsilon_{ij}$ normaal verdeeld is met gemiddelde 0 en standaarddeviatie $\sigma$, en dat de groepen onafhankelijk zijn.
#### 1.2.2 Schatters voor parameters
* De populatiegemiddelden $\mu_1, \dots, \mu_k$ worden geschat door de steekproefgemiddelden $\bar{y}_1, \dots, \bar{y}_k$.
* De populatievariantie $\sigma^2$ wordt geschat door de "pooled variance" (gepoolde variantie), $s_p^2$.
### 1.3 De ANOVA F-statistiek
ANOVA werkt door de totale variabiliteit in de data op te splitsen in verschillende componenten. De kern van de ANOVA is de F-statistiek, die de ratio vormt van twee variantie-schatters: de variantie *tussen* de groepen versus de variantie *binnen* de groepen.
* **Variatie tussen groepen (explained variance / model variance):** Dit meet de variabiliteit tussen de steekproefgemiddelden van de verschillende groepen. Als deze variabiliteit groot is ten opzichte van de variabiliteit binnen de groepen, is dit bewijs tegen de nulhypothese.
* **Variatie binnen groepen (unexplained variance / error variance):** Dit meet de gemiddelde variabiliteit binnen elke groep. Dit vertegenwoordigt de inherente willekeurige variatie die niet door de groepsindeling wordt verklaard.
De F-statistiek wordt als volgt berekend:
$$
F = \frac{\text{Variantie tussen groepen}}{\text{Variantie binnen groepen}} = \frac{MS_{\text{between}}}{MS_{\text{within}}}
$$
* $MS_{\text{between}}$ is het "Mean Square Between" (gemiddeld kwadraat tussen de groepen).
* $MS_{\text{within}}$ is het "Mean Square Within" (gemiddeld kwadraat binnen de groepen, ook wel $MSE$ genoemd).
Een hoge F-waarde suggereert dat de groepsgemiddelden significant van elkaar verschillen. De F-test is eenzijdig, waarbij hoge waarden aan de rechterkant van de verdeling leiden tot verwerping van de nulhypothese.
#### 1.3.1 Vrijheidsgraden voor de F-test
De F-verdeling wordt gekenmerkt door twee vrijheidsgraden: die van de teller en die van de noemer.
* **Vrijheidsgraden teller ($df_1$):** $k - 1$, waarbij $k$ het aantal groepen is.
* **Vrijheidsgraden noemer ($df_2$):** $n - k$, waarbij $n$ het totale aantal waarnemingen is.
De F-statistiek volgt dus een F-verdeling met $F(df_1, df_2)$ vrijheidsgraden.
> **Tip:** De F-verdeling is altijd positief en rechtsscheef. De vorm van de verdeling wordt bepaald door de vrijheidsgraden.
### 1.4 Interpretatie van resultaten en post-hoc toetsen
Als de F-test significant is (d.w.z. de p-waarde is kleiner dan $\alpha$), verwerpen we de nulhypothese. Dit betekent dat er een statistisch significant verschil is tussen minstens twee van de groepsgemiddelden. Echter, de ANOVA vertelt ons *niet* welke specifieke groepen van elkaar verschillen. Hiervoor zijn aanvullende analyses nodig.
#### 1.4.1 Post-hoc toetsen (meervoudige vergelijkingen)
Wanneer de omnibus ANOVA significant is, worden post-hoc toetsen gebruikt om paarsgewijze vergelijkingen te maken tussen de groepsgemiddelden. Deze toetsen corrigeren voor het verhoogde Type I foutrisico dat ontstaat door het uitvoeren van meerdere vergelijkingen.
* **Contrasten (Planned Comparisons):** Deze worden gebruikt wanneer er voorafgaand aan de dataverzameling specifieke, wetenschappelijk gemotiveerde hypotheses over bepaalde verschillen bestaan. Contrasten hebben meer "power" (onderscheidingsvermogen) omdat ze specifieker zijn.
* Een contrast is een lineaire combinatie van populatiegemiddelden $\psi = \sum a_i \mu_i$ waarbij $\sum a_i = 0$.
* Het bijbehorende steekproefcontrast is $c = \sum a_i \bar{y}_i$.
* De hypothesetoets voor een contrast wordt meestal uitgevoerd met een t-statistiek:
$$
t = \frac{c}{\text{Standard Error}(c)}
$$
met vrijheidsgraden $DFE = n-k$.
* Een $C\%$ betrouwbaarheidsinterval voor $\psi$ is $c \pm t^* \cdot SE(c)$, waarbij $t^*$ de kritieke waarde is uit de t-verdeling met $DFE$ vrijheidsgraden.
* **Meervoudige Vergelijkingstests (Multiple Comparisons):** Deze worden gebruikt wanneer er geen specifieke vooraf gedefinieerde hypotheses zijn, en alle mogelijke paarsgewijze vergelijkingen van belang zijn.
* **LSD-methode (Least Significant Differences):** Voert standaard t-toetsen uit voor elk paar gemiddelden, zonder correctie voor meervoudige vergelijkingen. Wordt niet sterk aanbevolen als er veel groepen zijn.
* **Bonferroni-methode:** Controleert het totale Type I foutrisico door het significantieniveau voor elke individuele toets te verkleinen (vaak door $\alpha$ te delen door het aantal vergelijkingen). Dit is een conservatieve methode die de kans op Type I fouten sterk reduceert, maar ook de power kan verlagen.
* **Tukey's HSD (Honestly Significant Difference):** Een populaire methode die de studentized range-statistiek gebruikt om alle paarsgewijze vergelijkingen te maken en het "family-wise error rate" (het algehele risico op een Type I fout over alle vergelijkingen) op het ingestelde niveau $\alpha$ te houden.
* Andere methoden zoals Scheffé, Sidak, S-N-K, Duncan, Hochberg's GT2, Gabriel, Waller-Duncan, Dunnett's (voor vergelijking met een controle), Tamhane's T2, Dunnett's T3, en Games-Howell bestaan ook, met variaties in hoe ze de varianties behandelen (gelijk of ongelijk) en hoe ze corrigeren voor meervoudige vergelijkingen.
#### 1.4.2 Visuele inspectie
Naast statistische toetsen zijn grafische weergaven essentieel voor het begrijpen van de data:
* **Boxplots:** Verschaffen informatie over de spreiding, mediaan en uitschieters binnen elke groep. Let op: ANOVA vergelijkt gemiddelden, terwijl boxplots de mediaan weergeven.
* **Lijndiagrammen (Mean Plots):** Tonen de gemiddelden van de groepen en kunnen inzicht geven in de trend of verschillen tussen de groepen.
> **Tip:** Gebruik altijd een combinatie van statistische toetsen en grafische weergaven om een volledig beeld te krijgen van de resultaten. Een significante F-waarde in ANOVA kan worden verklaard door het analyseren van de gemiddelden en de spreiding van de data in boxplots of lijndiagrammen.
### 1.5 Voorbeeld: Gepercipieerde moeilijkheid van wiskunde-oefeningen
Een onderzoeker wil de gepercipieerde moeilijkheid van wiskunde-oefeningen onderzoeken. Drie groepen studenten krijgen dezelfde oefeningen, maar met verschillende instructies over de moeilijkheid: "simpel", "matig" of "moeilijk". Na het maken van de oefeningen beoordelen de studenten de moeilijkheid op een schaal van 0 tot 15.
* **Data:**
* Simpel: 9, 12, 4, 8, 7
* Matig: 4, 6, 8, 2, 10
* Moeilijk: 1, 3, 4, 5, 2
* **Doel:** Vergelijken of de gemiddelde gepercipieerde moeilijkheid verschilt tussen de drie condities.
* **Hypotheses:**
* $H_0: \mu_{\text{simpel}} = \mu_{\text{matig}} = \mu_{\text{moeilijk}}$
* $H_A$: Niet alle gemiddelden zijn gelijk.
Een analyse in statistische software (zoals R) zou de F-statistiek en de bijbehorende p-waarde produceren. Als deze significant is, kunnen post-hoc toetsen worden uitgevoerd om te bepalen welke specifieke condities van elkaar verschillen.
> **Voorbeeld:** Stel dat de ANOVA een significante p-waarde oplevert. Een Tukey HSD post-hoc test zou dan kunnen aantonen dat de groep "simpel" significant lager scoort dan de groep "matig" en "moeilijk", terwijl er geen significant verschil is tussen "matig" en "moeilijk".
### 1.6 Vergelijking met t-toets
De relatie tussen de t-toets voor twee groepen en ANOVA voor twee groepen is direct. Als er slechts twee groepen zijn ($k=2$), dan is de F-statistiek van de ANOVA gelijk aan het kwadraat van de t-statistiek van de tweegroepen t-toets, mits de varianties gelijk worden verondersteld:
$$
F = t^2
$$
De vrijheidsgraden voor de F-verdeling in dit geval zijn $df_1 = 2-1 = 1$ en $df_2 = n-2$. De kritieke waarden voor de F- en t-verdeling bij een gegeven significantieniveau $\alpha$ zullen corresponderen.
---
# Voorwaarden en model voor variantie-analyse
Dit hoofdstuk introduceert de voorwaarden waaraan voldaan moet worden voor de toepassing van variantie-analyse (ANOVA) en schetst het basismodel dat binnen ANOVA wordt gebruikt.
## 2.1 Inleiding tot variantie-analyse
Variantie-analyse (ANOVA) is een statistische techniek die wordt gebruikt om de gemiddelden van twee of meer populaties te vergelijken. Dit staat in contrast met de t-toets voor onafhankelijke steekproeven, die beperkt is tot het vergelijken van slechts twee populatiegemiddelden. Eén-factor variantie-analyse is een specifieke vorm van ANOVA die de gemiddelden van twee of meer populaties of condities vergelijkt, gebaseerd op enkelvoudige aselecte steekproeven uit elke populatie.
### 2.1.1 Van t-toets naar ANOVA
De t-toets voor onafhankelijke steekproeven vergelijkt de verwachtingen (gemiddelden) van twee populaties. ANOVA breidt dit concept uit om de verwachtingen van twee of meer populaties te vergelijken. Bij het vergelijken van meerdere groepen met herhaalde paarsgewijze t-toetsen ontstaat het risico op het zogenaamde "capitalizing on chance", waarbij de kans op een Type I-fout (onterecht verwerpen van de nulhypothese) toeneemt met elk extra getoetst paar. ANOVA biedt een manier om dit probleem te omzeilen door één enkele toets uit te voeren.
### 2.1.2 Het probleem van herhaalde toetsen
Wanneer meerdere groepen worden vergeleken met behulp van paarsgewijze t-toetsen, wordt het algehele risico op een Type I-fout verhoogd. Als een significantieniveau van $ \alpha = 0.01 $ wordt gebruikt voor elke t-toets, wordt de kans op een Type I-fout voor de totale analyse groter dan $ \alpha $. Dit kan leiden tot een te snelle conclusie van significante verschillen die er in werkelijkheid niet zijn.
### 2.1.3 Voorbeeld: Gepercipieerde moeilijkheid van wiskundeoefeningen
Een onderzoeker wil de gepercipieerde moeilijkheid van wiskundeoefeningen beoordelen. Drie groepen studenten krijgen oefeningen voorgelegd en krijgen te horen dat de oefeningen "simpel", "matig moeilijk" of "moeilijk" zijn. Na afloop geven studenten op een schaal van 0 tot 15 aan hoe moeilijk ze de oefeningen vonden. ANOVA kan hier worden toegepast om te onderzoeken of de gemiddelde gepercipieerde moeilijkheid verschilt tussen de drie condities. De steekproefgroottes per groep mogen hierbij verschillen.
## 2.2 Voorwaarden voor variantie-analyse
Voor een correcte toepassing van de één-factor variantie-analyse moeten aan de volgende voorwaarden worden voldaan:
* **Onafhankelijke enkelvoudige aselecte steekproeven**: Er worden $ k $ onafhankelijke enkelvoudige aselecte steekproeven getrokken, waarbij elke steekproef afkomstig is uit één van de $ k $ te vergelijken populaties of condities.
* **Normaal verdeelde populaties**: Alle $ k $ populaties waarvan de steekproeven zijn getrokken, worden verondersteld normaal verdeeld te zijn met een onbekende verwachting $ \mu_k $.
* **Gelijke standaarddeviaties (homogeniteit van varianties)**: Alle $ k $ populaties hebben dezelfde (onbekende) standaarddeviatie $ \sigma $.
### 2.2.1 Controle op gelijkheid van standaarddeviaties
Hoewel de resultaten van de ANOVA F-toets bij benadering correct zijn wanneer de standaarddeviaties van de populaties gelijk zijn, is het nuttig om dit te controleren. Een vuistregel is dat de ANOVA nog steeds betrouwbaar is als de grootste steekproef standaarddeviatie niet meer dan twee keer zo groot is als de kleinste steekproef standaarddeviatie. Formeel kan dit getest worden met bijvoorbeeld de Bartlett's test of de Levene's test.
> **Tip:** Hoewel de boxplot een visuele indicatie kan geven van de spreiding, vergelijkt de ANOVA de gemiddelden, niet de medianen. Een boxplot kan daarom misleidend zijn als de gemiddelden dicht bij elkaar liggen maar de medianen ver uit elkaar.
## 2.3 Het ANOVA-model
Het ANOVA-model beschrijft de waargenomen data als een som van een modelcomponent en een residucomponent.
$$ Y_{ij} = \mu_i + \epsilon_{ij} $$
Waarbij:
* $ Y_{ij} $: De waargenomen score van de $ j $-de observatie in de $ i $-de groep/conditie.
* $ \mu_i $: Het populatiegemiddelde van de $ i $-de groep/conditie.
* $ \epsilon_{ij} $: Het residu, wat de afwijking van de individuele score van het groepsgemiddelde vertegenwoordigt. Dit deel wordt ook wel de "niet-verklaarde variatie" genoemd.
Een meer gedetailleerd model beschouwt de relatie tussen de waarneming, het model en het residu:
$$ \text{Waarneming} = \text{Model} + \text{Residu} $$
Parameters in dit model zijn de populatiegemiddelden $ \mu_1, \dots, \mu_k $ en de populatiestandaarddeviatie $ \sigma $. Schatters voor deze parameters zijn de steekproefgemiddelden $ \bar{y}_i $ en de geschatte standaarddeviatie $ s $.
## 2.4 De ANOVA F-statistiek
De ANOVA F-statistiek is de kern van de variantie-analyse. Het toets de nulhypothese dat alle populatiegemiddelden gelijk zijn tegen de alternatieve hypothese dat niet alle populatiegemiddelden gelijk zijn.
$$ F = \frac{\text{Variantie tussen de groepen}}{\text{Variantie binnen de groepen}} $$
* De F-statistiek is altijd groter dan of gelijk aan 0.
* Een F-waarde van 0 treedt op wanneer alle steekproefgemiddelden exact gelijk zijn.
* Hoge F-waarden geven bewijs tegen de nulhypothese, wat suggereert dat de populatiegemiddelden significant van elkaar verschillen.
* De F-test is een een-zijdige toets aan de bovenzijde van de verdeling.
### 2.4.1 Interpretatie van de F-statistiek
De F-statistiek kan worden gezien als een verhouding van varianties: de variantie die verklaard wordt door het model (variatie *tussen* de groepen) ten opzichte van de niet-verklaarde variantie (variatie *binnen* de groepen). Dit is analoog aan de determinatiecoëfficiënt in regressie-analyse.
### 2.4.2 F-verdelingen en vrijheidsgraden
De F-statistiek volgt een F-verdeling onder de nulhypothese. F-verdelingen zijn familie van rechts-scheve verdelingen die alleen positieve waarden kunnen aannemen. Elke F-verdeling wordt gekarakteriseerd door twee vrijheidsgraden:
* **Vrijheidsgraden voor de teller (df1)**: Gelijk aan het aantal groepen minus 1 ($ k - 1 $). Dit vertegenwoordigt de vrijheidsgraden geassocieerd met de variatie *tussen* de groepen.
* **Vrijheidsgraden voor de noemer (df2)**: Gelijk aan het totale aantal waarnemingen min het aantal groepen ($ n - k $). Dit vertegenwoordigt de vrijheidsgraden geassocieerd met de variatie *binnen* de groepen (ook wel de error-vrijheidsgraden genoemd).
De notatie voor een F-verdeling is $ F(df1, df2) $.
### 2.4.3 Verloop van de ANOVA
1. Formuleren van de nulhypothese ($ H_0 $) en de alternatieve hypothese ($ H_A $).
* $ H_0 $: Alle populatiegemiddelden zijn gelijk ($ \mu_1 = \mu_2 = \dots = \mu_k $).
* $ H_A $: Niet alle populatiegemiddelden zijn gelijk.
2. Berekenen van de F-statistiek.
3. Vergelijken van de berekende F-waarde met een kritieke waarde uit de F-verdeling of bepalen van de p-waarde.
4. Als de F-waarde groter is dan de kritieke waarde (of de p-waarde kleiner is dan het significantieniveau $ \alpha $), wordt de nulhypothese verworpen. Dit suggereert dat er significante verschillen zijn tussen ten minste twee van de populatiegemiddelden.
5. Indien de nulhypothese wordt verworpen, zijn verdere analyses (zoals post-hoc toetsen of contrasten) nodig om te bepalen welke specifieke gemiddelden van elkaar verschillen.
> **Tip:** De voorwaarde van gelijke varianties is cruciaal. Wanneer deze voorwaarde geschonden wordt, zijn er aangepaste ANOVA-varianten of niet-parametrische toetsen die overwogen moeten worden. De relatief grote steekproefgrootte kan soms helpen om de robuustheid van de ANOVA te vergroten, zelfs bij enige schending van de aannames.
---
# De F-statistiek en verdeling in variantie-analyse
De F-statistiek en bijbehorende F-verdeling vormen de kern van variantie-analyse (ANOVA) om te bepalen of er significante verschillen zijn tussen de gemiddelden van drie of meer groepen.
### 3.1 Introductie tot variantie-analyse
Variantie-analyse (ANOVA) is een statistische techniek die wordt gebruikt om de gemiddelden van twee of meer populaties of groepen te vergelijken. Dit staat in contrast met de t-toets, die beperkt is tot het vergelijken van slechts twee groepen.
#### 3.1.1 Waarom niet meerdere t-toetsen?
Het uitvoeren van meerdere paarsgewijze t-toetsen om de gemiddelden van meerdere groepen te vergelijken, is problematisch vanwege het "capitalizing on chance" fenomeen. Bij elke t-toets bestaat er een kans (alfa, $\alpha$) om ten onrechte te concluderen dat er een significant verschil is tussen twee gemiddelden, terwijl dit in werkelijkheid niet zo is. Door dit herhaaldelijk te doen, neemt het totale risico op een Type I fout (onterecht verwerpen van de nulhypothese) aanzienlijk toe, wat leidt tot een hogere kans op het vinden van valse significante verschillen.
#### 3.1.2 Het principe van ANOVA
ANOVA ontleedt de totale variatie in de data in twee componenten:
1. **Variatie tussen groepen (between-group variance):** Dit meet de spreiding van de groepsgemiddelden rond het algemene gemiddelde.
2. **Variatie binnen groepen (within-group variance):** Dit meet de spreiding van de individuele observaties rond het gemiddelde van hun eigen groep.
ANOVA vergelijkt vervolgens deze twee bronnen van variatie. Als de variatie tussen de groepen veel groter is dan de variatie binnen de groepen, suggereert dit dat er significante verschillen zijn tussen de groepsgemiddelden.
#### 3.1.3 Nul- en alternatieve hypothese in ANOVA
De nulhypothese ($H_0$) in een één-factor ANOVA stelt dat alle populatiegemiddelden gelijk zijn:
$$H_0: \mu_1 = \mu_2 = \dots = \mu_k$$
waarbij $\mu_i$ het gemiddelde is van populatie $i$, en $k$ het aantal groepen is.
De alternatieve hypothese ($H_a$) stelt dat niet alle populatiegemiddelden gelijk zijn:
$$H_a: \text{Niet alle } \mu_i \text{ zijn gelijk}$$
Dit betekent dat minstens één gemiddelde significant verschilt van de andere.
### 3.2 De F-statistiek in ANOVA
De F-statistiek is de centrale maatstaf in een ANOVA-test. Het is de ratio van de variantie tussen de groepen tot de variantie binnen de groepen.
$$F = \frac{\text{Variantie tussen groepen}}{\text{Variantie binnen groepen}}$$
#### 3.2.1 Berekening van de F-statistiek
De variantie tussen groepen en de variantie binnen groepen worden geschat met behulp van kwadratensommen (Sum of Squares, SS) en vrijheidsgraden (Degrees of Freedom, df).
* **Sum of Squares Between Groups (SSB):** Meet de totale variatie die wordt toegeschreven aan de verschillen tussen de groepsgemiddelden.
* **Sum of Squares Within Groups (SSW) of Sum of Squares Error (SSE):** Meet de totale variatie die niet wordt verklaard door de groepsverschillen, oftewel de foutvariantie of residuele variatie.
* **Mean Square Between Groups (MSB):** Dit is een schatting van de populatievariantie, gebaseerd op de variatie tussen de groepen.
$$MSB = \frac{SSB}{df_{teller}}$$
waarbij $df_{teller} = k - 1$ (aantal groepen min 1).
* **Mean Square Within Groups (MSW) of Mean Square Error (MSE):** Dit is een gepoolde schatting van de populatievariantie, gebaseerd op de variatie binnen de groepen.
$$MSE = \frac{SSW}{df_{noemer}}$$
waarbij $df_{noemer} = N - k$ (totaal aantal observaties min het aantal groepen).
De F-statistiek wordt vervolgens berekend als:
$$F = \frac{MSB}{MSE}$$
#### 3.2.2 Interpretatie van de F-statistiek
* Een F-waarde van 1 betekent dat de variantie tussen de groepen gelijk is aan de variantie binnen de groepen. Onder de nulhypothese wordt verwacht dat de F-statistiek rond de 1 zal liggen.
* Hoge F-waarden (veel groter dan 1) geven aan dat de variantie tussen de groepen aanzienlijk groter is dan de variantie binnen de groepen. Dit levert bewijs tegen de nulhypothese en suggereert dat er significante verschillen zijn tussen de groepsgemiddelden.
* De F-test is een eenzijdige test, gericht op de hogere waarden van de F-verdeling.
### 3.3 De F-verdeling
De F-verdeling is een continue kansverdeling die wordt gebruikt om de F-statistiek te evalueren.
#### 3.3.1 Eigenschappen van de F-verdeling
* De F-verdeling is **rechtsscheef** (positief scheef).
* De waarden van de F-verdeling zijn **altijd positief** ($F \ge 0$).
* De vorm van de F-verdeling wordt bepaald door twee parameters: de **vrijheidsgraden voor de teller** ($df_1$) en de **vrijheidsgraden voor de noemer** ($df_2$).
* De notatie voor een F-verdeling is $F(df_1, df_2)$.
#### 3.3.2 Vrijheidsgraden voor de F-test
In een één-factor ANOVA zijn de vrijheidsgraden als volgt:
* **Teller vrijheidsgraden ($df_1$):** Dit zijn de vrijheidsgraden van de variantie tussen de groepen, gelijk aan het aantal groepen minus 1:
$$df_1 = k - 1$$
* **Noemer vrijheidsgraden ($df_2$):** Dit zijn de vrijheidsgraden van de variantie binnen de groepen (error), gelijk aan het totale aantal observaties minus het aantal groepen:
$$df_2 = N - k$$
waarbij $N$ het totale aantal observaties is en $k$ het aantal groepen.
De verdeling van de ANOVA F-statistiek onder de nulhypothese is dus een $F(k-1, N-k)$ verdeling.
#### 3.3.3 Kritische waarde en beslissingsregel
Om te bepalen of de verkregen F-statistiek significant is, wordt deze vergeleken met een kritieke F-waarde uit een F-verdelingstabel of berekend met software. De kritieke waarde hangt af van het gekozen significantieniveau ($\alpha$) en de vrijheidsgraden ($df_1, df_2$).
* Als de berekende $F$-statistiek groter is dan de kritieke $F$-waarde, verwerpen we de nulhypothese ($H_0$).
* Als de berekende $F$-statistiek kleiner is dan of gelijk is aan de kritieke $F$-waarde, behouden we de nulhypothese ($H_0$).
$$F_{berekend} > F_{kritiek} \implies \text{Verwerp } H_0$$
> **Tip:** De $p$-waarde die statistische software rapporteert, is de kans om een F-statistiek te observeren die zo extreem of extremer is dan de berekende F-statistiek, aannemende dat de nulhypothese waar is. Als de $p$-waarde kleiner is dan het gekozen $\alpha$, verwerpen we de nulhypothese.
### 3.4 Voorwaarden voor ANOVA
Om de resultaten van een één-factor ANOVA betrouwbaar te kunnen interpreteren, moeten aan de volgende voorwaarden worden voldaan:
1. **Onafhankelijke steekproeven:** De observaties binnen elke groep en tussen de groepen moeten onafhankelijk zijn. Dit betekent dat de meting bij één individu geen invloed mag hebben op de meting bij een ander individu.
2. **Normaliteit:** De populaties waaruit de steekproeven zijn getrokken, moeten normaal verdeeld zijn. Voor grotere steekproefgroottes is ANOVA redelijk robuust tegen schendingen van deze aanname.
3. **Homogeniteit van varianties (homoscedasticiteit):** De populaties waaruit de steekproeven zijn getrokken, moeten gelijke varianties hebben ($\sigma^2_1 = \sigma^2_2 = \dots = \sigma^2_k$).
* **Vuistregel:** De resultaten van een ANOVA F-test zijn bij benadering correct als de verhouding van de grootste steekproefstandaarddeviatie tot de kleinste steekproefstandaarddeviatie niet groter is dan 2.
* **Testen van homogeniteit van varianties:** Tests zoals de Bartlett-test of Levene-test kunnen worden gebruikt om deze aanname te controleren. Indien deze aanname geschonden wordt, kunnen aangepaste ANOVA-methoden of niet-parametrische toetsen (zoals de Welch ANOVA) worden gebruikt.
> **Voorbeeld:** In een onderzoek naar de effectiviteit van drie verschillende leermethoden (Klassiek, DRTA, Strat) op leesvaardigheid, moeten de scores van de leerlingen binnen elke methode normaal verdeeld zijn en mag de spreiding (variantie) van de leesvaardigheidsscores ongeveer gelijk zijn voor de drie groepen.
### 3.5 De F-statistiek en de $t$-toets
Voor het geval van twee groepen ($k=2$) is de F-statistiek in ANOVA nauw verwant aan de $t$-statistiek van een onafhankelijke $t$-toets. Als de steekproefgroottes gelijk zijn ($n_1 = n_2 = n$), dan geldt:
$$F = t^2$$
Dit is logisch, aangezien een $t$-toets een verschil tussen twee gemiddelden onderzoekt, wat overeenkomt met het verwerpen van de nulhypothese in ANOVA wanneer er maar twee groepen zijn.
### 3.6 Gevolgen van een significante F-test
Wanneer de omnibus ANOVA-test resulteert in een significante F-statistiek (wat leidt tot het verwerpen van $H_0$), weten we alleen dat *niet alle* populatiegemiddelden gelijk zijn. Het vertelt ons echter niet *welke* specifieke gemiddelden van elkaar verschillen. Om dit te achterhalen, zijn verdere post-hoc analyses nodig.
#### 3.6.1 Meervoudige vergelijkingen (Post-hoc tests)
Als de nulhypothese wordt verworpen, worden meervoudige vergelijkingstesten (post-hoc tests) gebruikt om paarsgewijze vergelijkingen tussen de groepsgemiddelden uit te voeren. Deze tests houden rekening met de herhaalde vergelijkingen om het totale Type I foutpercentage te controleren. Enkele veelgebruikte methoden zijn:
* **LSD (Least Significant Difference):** Een reeks onafhankelijke $t$-toetsen zonder correctie voor meervoudige vergelijkingen. Dit wordt vaak te liberaal bevonden.
* **Bonferroni-correctie:** Een strenge methode die het significantieniveau voor elke individuele test aanpast ($\alpha / \text{aantal paren}$) om het totale Type I foutpercentage te controleren. Dit kan leiden tot een verminderd onderscheidingsvermogen (power).
* **Tukey's HSD (Honestly Significant Difference):** Een populaire test die het vergelijkt met de Studentized range verdeling en het experiment-wijde foutpercentage controleert.
* **Scheffé-test:** Een conservatievere test die gebruikt kan worden voor alle mogelijke lineaire combinaties van groepsgemiddelden, niet alleen paarsgewijze vergelijkingen.
#### 3.6.2 Contrasten
Contrasten zijn specifiek geplande vergelijkingen die worden uitgevoerd wanneer er voorafgaand aan het onderzoek duidelijke wetenschappelijke hypothesen bestaan over verwachte verschillen tussen bepaalde groepen. Contrasten hebben vaak meer power dan algemene post-hoc tests omdat ze gerichter zijn.
* Een contrast is een lineaire combinatie van populatiegemiddelden met coëfficiënten die optellen tot nul:
$$\psi = a_1 \mu_1 + a_2 \mu_2 + \dots + a_k \mu_k, \quad \sum_{i=1}^k a_i = 0$$
* Het overeenkomstige steekproefcontrast is:
$$c = a_1 \bar{x}_1 + a_2 \bar{x}_2 + \dots + a_k \bar{x}_k$$
* De standaardfout van $c$ wordt berekend met behulp van de Mean Square Error (MSE) en de steekproefgroottes.
* Hypothesetoetsen voor contrasten maken gebruik van de $t$-statistiek met vrijheidsgraden gelijk aan de error vrijheidsgraden ($N-k$).
> **Voorbeeld:** In een experiment met een placebo-groep en twee behandelgroepen (A en B), kan een gepland contrast zijn om de gemiddelde effectiviteit van de twee actieve behandelingen te vergelijken met de placebo. Bijvoorbeeld, als de groepen zijn gecodeerd als 1=Placebo, 2=Behandeling A, 3=Behandeling B, kan een contrast zijn: $\psi = -2\mu_1 + \mu_2 + \mu_3$. De steekproefcoëfficiënt zou dan zijn: $c = -2\bar{x}_1 + \bar{x}_2 + \bar{x}_3$.
Als er geen duidelijke vooraf gespecificeerde hypothesen zijn, worden meervoudige vergelijkingstesten (zoals Tukey's HSD) aanbevolen in plaats van contrasten. Het is niet gepast om contrasten te bepalen op basis van verschillen die pas na dataverzameling worden vastgesteld.
---
# Contrasten en meervoudige vergelijkingen in variantie-analyse
Dit onderwerp behandelt de statistische methoden die worden gebruikt om specifieke groepsverschillen te onderzoeken na een significante uitkomst van een variantie-analyse (ANOVA).
### 4.1 De noodzaak voor post-hoc analyses
Een significante uitkomst van een ANOVA (d.w.z. de nulhypothese dat alle populatiegemiddelden gelijk zijn wordt verworpen) indiceert dat er ten minste één paar groepsgemiddelden significant van elkaar verschilt. Echter, de ANOVA zelf identificeert niet *welke* specifieke groepen significant van elkaar verschillen. Om dit te achterhalen, zijn aanvullende analyses, bekend als contrasten en meervoudige vergelijkingstests, vereist.
* **Probleem van herhaalde t-toetsen:** Het uitvoeren van meerdere paarsgewijze t-toetsen na een ANOVA leidt tot een verhoogde kans op een Type I fout (het ten onrechte verwerpen van de nulhypothese). Dit fenomeen wordt "capitalizing on chance" genoemd. Voor elke t-toets is er een kans $\alpha$ op een Type I fout. Bij $m$ vergelijkingen kan de kans op ten minste één Type I fout aanzienlijk toenemen, wat leidt tot onbetrouwbare conclusies.
> **Tip:** ANOVA is een "omnibus" test die aangeeft *of* er een verschil is, maar niet *waar*. Voor specifieke groepsverschillen zijn post-hoc tests essentieel.
### 4.2 Contrasten
Contrasten zijn vooraf gespecificeerde, wetenschappelijk gemotiveerde vergelijkingen tussen groepsgemiddelden. Ze worden gebruikt wanneer er *voorafgaand* aan de dataverzameling duidelijke hypothesen zijn over specifieke verschillen tussen groepen.
* **Kenmerken van contrasten:**
* **Geplande vergelijkingen:** Contrasten zijn geplande vergelijkingen die deel uitmaken van het onderzoeksdesign.
* **Hoger onderscheidingsvermogen (power):** Vanwege hun specificiteit hebben contrasten een beter onderscheidingsvermogen dan meervoudige vergelijkingstests, waardoor ze beter in staat zijn om significante verschillen te detecteren.
* **Statistische toetsing:** Contrasten kunnen worden getoetst met een t-test, en betrouwbaarheidsintervallen kunnen worden berekend.
* **Onafhankelijkheid van ANOVA:** De resultaten van contrasten zijn geldig, ongeacht de uitkomst van de omnibus ANOVA-toets.
* **Lineaire combinaties:** Een contrast is een lineaire combinatie van populatiegemiddelden $\mu_i$ met coëfficiënten $a_i$, zodanig dat $\sum a_i = 0$.
$$ \psi_k = a_1 \mu_1 + a_2 \mu_2 + \dots + a_r \mu_r $$
waar $r$ het aantal groepen is.
* **Hypothesetoetsing voor contrasten:**
* **Nulhypothese:** $H_0: \psi_k = 0$
* **Steekproefcontrast:** Het overeenkomstige steekproefcontrast is:
$$ c = a_1 \bar{y}_1 + a_2 \bar{y}_2 + \dots + a_r \bar{y}_r $$
waar $\bar{y}_i$ het steekproefgemiddelde is van groep $i$.
* **Standaardfout van het contrast:** De standaardfout van $c$ wordt berekend met behulp van de gepoolde variantie ($MSE$):
$$ SE_c = \sqrt{MSE \sum_{i=1}^r \frac{a_i^2}{n_i}} $$
waar $n_i$ de steekproefgrootte van groep $i$ is.
* **Toetsingsgrootheid:** De t-statistiek wordt berekend als:
$$ t = \frac{c}{SE_c} $$
met vrijheidsgraden $df = N - r$, waar $N$ het totale aantal waarnemingen is en $r$ het aantal groepen.
* **Betrouwbaarheidsinterval:** Een niveau $C$ betrouwbaarheidsinterval voor het verschil $\psi_k$ is:
$$ c \pm t_{crit} \cdot SE_c $$
waar $t_{crit}$ de kritieke waarde is die overeenkomt met de gewenste betrouwbaarheid en de vrijheidsgraden $df$.
* **Voorbeeld van contrasten:**
* Vergelijken van een klassieke methode met twee nieuwe methoden: $a = (-1, 0.5, 0.5)$.
* Vergelijken van twee nieuwe methoden onderling: $a = (0, 1, -1)$.
* **Contrasten in statistische software:** Verschillende statistische softwarepakketten, zoals R (met de `gmodels` library) en SPSS, bieden functionaliteit voor het uitvoeren van contrasten. Vaak moeten de coëfficiënten $a_i$ handmatig worden opgegeven.
> **Tip:** Gebruik altijd de gepoolde variantie en bijbehorende vrijheidsgraden bij het berekenen van contrasten, aangezien dit een betere schatting van de populatievariantie oplevert.
### 4.3 Meervoudige vergelijkingstests (Post-hoc tests)
Meervoudige vergelijkingstests worden gebruikt wanneer er *geen* vooraf gespecificeerde hypothesen zijn en men alle mogelijke paarsgewijze vergelijkingen tussen groepen wil onderzoeken na een significante ANOVA. Deze tests passen correcties toe om de kans op Type I fouten te beheersen.
* **Basis:** Meervoudige vergelijkingstests zijn varianten van de tweesteekproeven t-test, gebaseerd op de gepoolde standaarddeviatie ($s_p$) en de gepoolde vrijheidsgraden ($df_E$).
* **Doel:** Controle van de "family-wise error rate" (FWER), de kans op ten minste één Type I fout over alle uitgevoerde vergelijkingen.
* **Methoden voor meervoudige vergelijkingen:**
* **LSD-methode (Least Significant Differences):**
* Voert paarsgewijze t-toetsen uit zonder aanpassing voor meervoudige vergelijkingen.
* De kritieke waarde $t^*$ is de kritieke waarde voor $\alpha/2$ uit de t-verdeling met $df_E$ vrijheidsgraden.
* **Probleem:** Verhoogt aanzienlijk de kans op Type I fouten bij veel vergelijkingen.
* **Bonferroni-methode:**
* Past de t-toets aan door de significantieniveaus aan te scherpen.
* De $\alpha$ voor elke individuele toets wordt ingesteld op $\alpha/m$, waarbij $m$ het aantal paarsgewijze vergelijkingen is.
* De kritieke waarde $t^*$ is gebaseerd op deze aangepaste $\alpha$.
* **Voordeel:** Controleert de FWER.
* **Nadeel:** Kan conservatief zijn, wat leidt tot een lager onderscheidingsvermogen (meer Type II fouten).
* **Tukey's Honestly Significant Difference (HSD):**
* Gebruikt de Studentized range statistic om alle paarsgewijze vergelijkingen te maken.
* Houdt de FWER op het niveau $\alpha$ voor de gehele reeks van paarsgewijze vergelijkingen.
* Zeer geschikt voor gelijke steekproefgroottes.
* **Andere methoden (beschikbaar in SPSS/R):**
* **Sidak:** Vergelijkbaar met Bonferroni, maar iets minder conservatief.
* **Scheffé:** Kan gebruikt worden voor alle mogelijke lineaire combinaties van groepsgemiddelden, niet alleen paarsgewijze vergelijkingen. Gebruikt de F-verdeling.
* **R-E-G-W F/Q (Ryan-Einot-Gabriel-Welsch):** Stepdown procedures gebaseerd op F of Studentized range.
* **S-N-K (Student-Newman-Keuls):** Gebruikt de Studentized range, maar is minder conservatief dan Tukey's HSD.
* **Duncan:** Gebruikt de Studentized range, maar is nog minder conservatief.
* **Hochberg's GT2:** Gebruikt de Studentized maximum modulus.
* **Gabriel:** Kan krachtiger zijn dan Hochberg's GT2 bij ongelijke celgroottes.
* **Waller-Duncan:** Een Bayesiaanse benadering.
* **Dunnett:** Specifiek voor het vergelijken van meerdere behandelgroepen met één controlegroep.
* **Vergelijkingen bij ongelijke varianties:** Wanneer de aanname van gelijke varianties (homogeniteit van varianties) geschonden is, zijn specifieke post-hoc tests aangewezen:
* **Tamhane's T2:** Conservatieve t-test gebaseerd.
* **Dunnett's T3:** Gebaseerd op de Studentized maximum modulus.
* **Games-Howell:** Een pairwise vergelijkingstest die soms liberaler is.
* **Dunnett's C:** Gebaseerd op de Studentized range.
* **Post-hoc tests in statistische software:** SPSS biedt een uitgebreid menu voor "Post Hoc tests" waarbij verschillende methoden geselecteerd kunnen worden, inclusief opties voor gelijkheid van varianties. In R kan `TukeyHSD(model)` gebruikt worden voor Tukey's HSD, en `pairwise.t.test()` biedt flexibiliteit voor verschillende p-adjuncties (correcties).
> **Tip:** Bij het interpreteren van post-hoc tests is het cruciaal om te weten welke methode is gebruikt, aangezien dit de significantiedrempel en de kans op fouten beïnvloedt.
### 4.4 Toepassing: Gepercipieerde moeilijkheid van oefeningen
Een voorbeeld scenario betreft de gepercipieerde moeilijkheid van wiskundeoefeningen, waarbij studenten aan verschillende groepen (simpel, matig, moeilijk) werden toegewezen. Na een significante ANOVA, zou men post-hoc tests kunnen toepassen om te bepalen welke suggesties van moeilijkheid leidden tot significant verschillende percepties.
* **Contrasten:** Men zou vooraf kunnen hypothesen formuleren zoals:
1. Is de perceptie van de 'moeilijk' groep significant verschillend van het gemiddelde van de 'simpel' en 'matig' groepen? ($a = (-1, 0.5, 0.5)$).
2. Verschilt de 'simpel' groep significant van de 'matig' groep? ($a = (1, -1, 0)$).
* **Meervoudige vergelijkingen:** Indien er geen vooraf bepaalde hypothesen zijn, kunnen paarsgewijze vergelijkingen met bijvoorbeeld Tukey's HSD worden uitgevoerd om alle mogelijke paren te vergelijken: (simpel vs. matig), (simpel vs. moeilijk), en (matig vs. moeilijk).
> **Voorbeeld:** Stel dat de gemiddelde scores voor gepercipieerde moeilijkheid zijn: Simpel (gem. 8.2), Matig (gem. 7.0), Moeilijk (gem. 2.8). Een ANOVA zou kunnen aantonen dat er significante verschillen zijn. Een post-hoc test zou vervolgens kunnen onthullen dat de 'Moeilijk' groep significant lager scoort dan zowel de 'Simpel' als de 'Matig' groepen, terwijl het verschil tussen 'Simpel' en 'Matig' mogelijk niet significant is.
### 4.5 Voorwaarden voor ANOVA en post-hoc analyses
De geldigheid van zowel de ANOVA als de daaropvolgende contrasten en meervoudige vergelijkingstests is afhankelijk van bepaalde aannames:
1. **Onafhankelijke steekproeven:** De steekproeven uit de verschillende populaties of condities moeten onafhankelijk zijn.
2. **Normaliteit:** De responsvariabele moet in elke populatie (of groep) normaal verdeeld zijn.
3. **Homogeniteit van varianties (homoscedasticiteit):** De populaties moeten dezelfde onbekende standaarddeviatie $\sigma$ hebben. Een vuistregel is dat de verhouding van de grootste tot de kleinste steekproefstandaarddeviatie niet groter mag zijn dan 2.
* Tests voor homogeniteit van varianties zijn onder andere de Bartlett's test of Levene's test.
* Bij schending van deze aanname moeten specifieke post-hoc tests worden gebruikt die hier rekening mee houden (zie sectie 4.3).
> **Tip:** Controleer altijd de aannames van de ANOVA voordat u interpretaties van contrasten of meervoudige vergelijkingen doet. Schending van aannames kan leiden tot ongeldige resultaten.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Eén-factor variantie-analyse | Een statistische techniek die wordt gebruikt om de gemiddelden van drie of meer groepen te vergelijken door de variatie tussen de groepen te vergelijken met de variatie binnen de groepen. |
| Nulhypothese (H0) | Een stelling die stelt dat er geen statistisch significant verschil is tussen de gemiddelden van de populaties die worden vergeleken in een analyse. |
| Alternatieve hypothese (HA) | Een stelling die stelt dat er wel een statistisch significant verschil is tussen de gemiddelden van de populaties die worden vergeleken, wat aangeeft dat ten minste één gemiddelde significant verschilt van de andere. |
| Paarsgewijze t-toetsen | Statistische toetsen die worden gebruikt om de gemiddelden van twee groepen te vergelijken. Het herhaaldelijk uitvoeren van deze toetsen kan leiden tot een verhoogd risico op een Type I fout. |
| Capitalizing on chance | Het fenomeen waarbij door herhaaldelijke toetsingen, zelfs bij afwezigheid van echte effecten, significantie wordt gevonden, wat leidt tot valse positieven. |
| Boxplot (Doosdiagram) | Een grafische weergave van de spreiding van data die de mediaan, kwartielen en uitschieters toont. Hoewel nuttig voor datavisualisatie, vergelijkt ANOVA gemiddelden in plaats van medianen. |
| Lijndiagram | Een grafische weergave die de trend van data over tijd of verschillende categorieën toont, vaak gebruikt om gemiddelden van groepen te visualiseren. |
| Variabliteit | De mate waarin gegevenspunten of waarden afwijken van het gemiddelde. In ANOVA wordt zowel de variatie tussen groepen als binnen groepen geëvalueerd. |
| Onafhankelijke Enkelvoudige Aselecte Steekproeven | Een methode van steekproeftrekking waarbij elke populatie een gelijke kans heeft om geselecteerd te worden en de selectie van de ene populatie geen invloed heeft op de selectie van een andere. |
| Homogeniteit van varianties | De aanname dat de varianties van de populaties waaruit de steekproeven zijn getrokken, gelijk zijn. Tests zoals de Bartlett-test of Levene-test worden gebruikt om deze aanname te controleren. |
| ANOVA-model | Een wiskundig model dat een waarneming beschrijft als een som van een modelterm (die de groepsgemiddelden vertegenwoordigt) en een residu (die de resterende, onverklaarde variatie vertegenwoordigt). |
| Parameters | De waarden in een statistisch model die de populatiekarakteristieken vertegenwoordigen, zoals populatiegemiddelden (µ) en standaarddeviaties (σ). |
| Schatters | Statistieken berekend uit steekproefdata die worden gebruikt om populatieparameters te benaderen, zoals steekproefgemiddelden en steekproefstandaarddeviaties. |
| F-statistiek | De statistiek die wordt berekend in een ANOVA-test, die de ratio van de variantie tussen groepen tot de variantie binnen groepen weergeeft. Een hogere F-waarde suggereert significantie. |
| Vrijheidsgraden (df) | Het aantal waarden in een berekening dat vrij kan variëren. In ANOVA worden vrijheidsgraden gebruikt voor de teller (tussen groepen) en de noemer (binnen groepen) van de F-statistiek. |
| F-verdeling | Een continue kansverdeling die voornamelijk wordt gebruikt in hypothesetoetsing. Het is een familie van rechts-scheve verdelingen, gedefinieerd door twee parameters: vrijheidsgraden voor de teller en de noemer. |
| Verklaarde variantie | Het deel van de totale variantie in de afhankelijke variabele dat wordt verklaard door de onafhankelijke variabele(n) in het model. Gerelateerd aan de determinatiecoëfficiënt in regressie. |
| Contrasten | Specifiek geplande vergelijkingen van populatiegemiddelden, vaak met specifieke hypotheses, die een beter onderscheidend vermogen (power) kunnen hebben dan algemene meervoudige vergelijkingen. |
| Meervoudige vergelijkingen | Statistische procedures die worden toegepast wanneer er meer dan twee groepen zijn om de kans op een Type I fout te beheersen bij het uitvoeren van meerdere paarsgewijze vergelijkingen. Voorbeelden zijn LSD, Bonferroni en Tukey. |
| LSD-methode (Least Significant Differences) | Een methode voor meervoudige vergelijkingen die paarsgewijze t-toetsen gebruikt zonder aanpassing van het alfarasico voor meervoudige toetsingen, wat leidt tot een verhoogd Type I foutrisico. |
| Bonferroni-methode | Een conservatieve methode voor meervoudige vergelijkingen waarbij de alpha voor elke individuele toets wordt aangepast om het totale Type I foutrisico voor alle vergelijkingen te beperken. |
| Tukey's HSD (Honestly Significant Difference) | Een methode voor meervoudige vergelijkingen die de Studentized range statistic gebruikt om alle paarsgewijze vergelijkingen tussen groepen uit te voeren en het experimentwise error rate controleert. |
| Post Hoc tests | Tests die worden uitgevoerd na een significante ANOVA-uitkomst om te bepalen welke specifieke groepsgemiddelden significant van elkaar verschillen. |