Cover
Aloita nyt ilmaiseksi STA3set8Hfst12ANOVA.pptx
Summary
# Introductie tot variantie-analyse
Hier is een gedetailleerde studiehandleiding over de introductie tot variantie-analyse (ANOVA).
## 1. Introductie tot variantie-analyse
Variantie-analyse (ANOVA) is een statistische methode die wordt gebruikt om de gemiddelden van twee of meer groepen te vergelijken, en dient als een uitbreiding van de t-toets.
### 1.1 Van t-toets naar ANOVA
De t-toets voor onafhankelijke steekproeven wordt gebruikt om de gemiddelden ($\mu$) van twee populaties te vergelijken. Wanneer we echter de gemiddelden van drie of meer populaties willen vergelijken, wordt het gebruik van meerdere t-toetsen problematisch.
#### 1.1.1 Waarom niet paarsgewijze t-toetsen gebruiken?
Het uitvoeren van meerdere paarsgewijze t-toetsen om de gemiddelden van meer dan twee groepen te vergelijken, verhoogt het risico op het maken van een Type I fout (onterecht H$_0$ verwerpen). Bij elke afzonderlijke t-toets is er een kans ($\alpha$) dat we ten onrechte concluderen dat er een significant verschil is tussen twee groepen, terwijl dit in werkelijkheid niet zo is. Door dit risico te herhalen met meerdere toetsen, vergroot de kans dat we "kapitaliseren op toeval" (capitalizing on chance) en ten onrechte significante verschillen vinden.
* **Voorbeeld:** Stel we vergelijken de gepercipieerde moeilijkheid van wiskundeopgaven binnen drie groepen studenten die verschillende instructies krijgen over de moeilijkheid ("simpel", "matig", "moeilijk"). Als we voor elke paarvergelijking (simpel vs. matig, simpel vs. moeilijk, matig vs. moeilijk) een t-toets zouden uitvoeren, neemt de algehele kans op een fout Type I toe.
#### 1.1.2 ANOVA als alternatief
Variantie-analyse (ANOVA) is ontworpen om dit probleem aan te pakken door één enkele omnibus-toets uit te voeren die test of er *enig* significant verschil is tussen de groepsgemiddelden. Als de omnibus-ANOVA significant is, suggereert dit dat ten minste één van de groepsgemiddelden verschilt van de anderen, waarna verdere (post-hoc) analyses nodig kunnen zijn om specifieke verschillen te identificeren.
### 1.2 Het ANOVA-model
#### 1.2.1 Aannames voor ANOVA
Voordat we ANOVA kunnen toepassen, moeten aan de volgende voorwaarden worden voldaan:
1. **Onafhankelijke steekproeven:** We beschikken over $k$ onafhankelijke enkelvoudige aselecte steekproeven, één uit elke populatie of conditie.
2. **Gelijke responsvariabele:** Binnen elke steekproef wordt dezelfde responsvariabele gemeten.
3. **Normaliteit:** Alle $k$ populaties zijn normaal verdeeld. De gemiddelden ($\mu$) zijn onbekend, maar de verdeling binnen elke populatie wordt verondersteld normaal te zijn.
4. **Homogeniteit van varianties:** Alle populaties hebben dezelfde (onbekende) standaarddeviatie, $\sigma$.
#### 1.2.2 Check op homogeniteit van varianties
Hoewel ANOVA robuust is voor kleine schendingen van de normaliteitsassumptie, is de homogeniteit van varianties belangrijker. Een vuistregel om te controleren of de varianties ongeveer gelijk zijn, is de verhouding tussen de grootste en de kleinste steekproefstandaarddeviatie ($s_i$).
> **Tip:** ANOVA mag bij benadering worden toegepast als de verhouding van de grootste steekproef $s_i$ tot de kleinste steekproef $s_i$ niet groter is dan 2.
* Formeel kan de **Bartlett's test** of de **Levene's test** worden gebruikt om de homogeniteit van varianties te toetsen.
#### 1.2.3 Het waarnemingsmodel
Het basismodel voor een waarneming ($Y_{ij}$) in ANOVA kan worden uitgedrukt als:
$$
Y_{ij} = \mu_i + \epsilon_{ij}
$$
waarbij:
* $Y_{ij}$ de $j$-de waarneming is in de $i$-de groep.
* $\mu_i$ het populatiegemiddelde is van de $i$-de groep.
* $\epsilon_{ij}$ het residu of de foutterm is voor de $j$-de waarneming in de $i$-de groep, die wordt verondersteld normaal verdeeld te zijn met gemiddelde 0 en standaarddeviatie $\sigma$.
Wanneer we met $k$ groepen werken, en de $i$-de groep een steekproefgrootte van $n_i$ heeft, dan is de totale steekproefgrootte $N = \sum_{i=1}^{k} n_i$.
### 1.3 De F-statistiek in ANOVA
ANOVA werkt door de totale variantie in de data op te splitsen in twee componenten: de variantie *tussen* de groepen en de variantie *binnen* de groepen.
* **Variantie tussen groepen (Model / Verklaarde variantie):** Dit meet de spreiding van de groepsgemiddelden rond het algemene gemiddelde. Het vertegenwoordigt de variantie die verklaard wordt door het verschil in behandeling of groep.
* **Variantie binnen groepen (Residu / Onverklaarde variantie):** Dit meet de spreiding van de individuele waarnemingen rond hun eigen groepsgemiddelde. Het vertegenwoordigt de natuurlijke, willekeurige variatie die niet door de groepsindeling wordt verklaard.
#### 1.3.1 De F-grootheid
De ANOVA F-statistiek is de ratio van de variantie tussen de groepen tot de variantie binnen de groepen.
$$
F = \frac{\text{Variantie tussen groepen}}{\text{Variantie binnen groepen}}
$$
* Als de nulhypothese (dat alle populatiegemiddelden gelijk zijn) waar is, verwachten we dat de variantie tussen de groepen vergelijkbaar is met de variantie binnen de groepen, wat resulteert in een F-waarde dicht bij 1.
* Als de alternatieve hypothese (dat ten minste één gemiddelde verschilt) waar is, zal de variantie tussen de groepen groter zijn dan de variantie binnen de groepen, wat resulteert in een grotere F-waarde.
De F-test is altijd een eenzijdige test aan de bovenzijde, omdat F $\ge$ 0. Hoge F-waarden leveren bewijs tegen de nulhypothese.
#### 1.3.2 De F-verdeling
De F-statistiek volgt, onder de nulhypothese, een F-verdeling. F-verdelingen zijn rechtsscheef en nemen alleen positieve waarden aan. Elke F-verdeling wordt gekarakteriseerd door twee vrijheidsgraden:
* $df_1$ (numerator degrees of freedom): Vrijheidsgraden voor de teller (variantie tussen groepen).
* $df_2$ (denominator degrees of freedom): Vrijheidsgraden voor de noemer (variantie binnen groepen).
De notatie is $F(df_1, df_2)$.
#### 1.3.3 Vrijheidsgraden voor de F-test
* **$df_1$ (teller):** $k - 1$, waarbij $k$ het aantal groepen is.
* **$df_2$ (noemer):** $N - k$, waarbij $N$ de totale steekproefgrootte is en $k$ het aantal groepen.
$$
\text{Vrijheidsgraden teller} = k - 1
$$
$$
\text{Vrijheidsgraden noemer} = N - k
$$
### 1.4 Verloop van een ANOVA
1. **Formuleer hypotheses:**
* $H_0$: $\mu_1 = \mu_2 = \dots = \mu_k$ (Alle populatiegemiddelden zijn gelijk)
* $H_1$: Niet alle $\mu_i$ zijn gelijk (Ten minste één populatiegemiddelde verschilt)
2. **Controleer aannames:** Normaliteit en homogeniteit van varianties.
3. **Bereken de F-statistiek:** Gebruik de variantie tussen groepen en de variantie binnen groepen.
4. **Bepaal de kritieke waarde:** Zoek de kritieke F-waarde op in een F-tabel voor het gekozen significantieniveau ($\alpha$) en de berekende vrijheidsgraden ($df_1$ en $df_2$).
5. **Neem een beslissing:**
* Als de berekende $F \ge$ de kritieke $F$-waarde, verwerpen we $H_0$.
* Als de berekende $F <$ de kritieke $F$-waarde, verwerpen we $H_0$ niet.
6. **Interpretatie:** Als $H_0$ wordt verworpen, concluderen we dat er significante verschillen zijn tussen de groepsgemiddelden. Dit vereist echter verdere analyses om te bepalen *welke* specifieke gemiddelden van elkaar verschillen.
### 1.5 Post-hoc analyses: Meervoudige Vergelijkingen en Contrasten
Als de omnibus ANOVA een significant resultaat oplevert ($H_0$ wordt verworpen), betekent dit niet dat alle groepen significant van elkaar verschillen. Het betekent alleen dat er *ergens* een verschil is. Om te achterhalen welke groepen significant van elkaar verschillen, worden post-hoc analyses uitgevoerd.
#### 1.5.1 Contrasten
Contrasten worden gebruikt om specifieke, vooraf geplande hypothesen over de groepsgemiddelden te toetsen. Deze zijn vooral nuttig als er een duidelijke wetenschappelijke hypothese is vóór de dataverzameling, bijvoorbeeld wanneer een experiment is opgezet met een controleconditie. Contrasten hebben meer onderscheidingsvermogen (power) dan algemene meervoudige vergelijkingen omdat ze specifieker zijn.
* Een contrast is een lineaire combinatie van populatiegemiddelden:
$$
\psi = a_1 \mu_1 + a_2 \mu_2 + \dots + a_k \mu_k
$$
waar $\sum_{i=1}^{k} a_i = 0$.
* Het overeenkomstige steekproefcontrast is:
$$
c = a_1 \bar{Y}_1 + a_2 \bar{Y}_2 + \dots + a_k \bar{Y}_k
$$
* De standaardfout van $c$ wordt berekend met de gepoolde variantie ($s_p^2$ of $MSE$):
$$
SE(c) = s_p \sqrt{\sum_{i=1}^{k} \frac{a_i^2}{n_i}}
$$
* De nulhypothese ($H_0: \psi = 0$) wordt getoetst met een t-statistiek:
$$
t = \frac{c}{SE(c)}
$$
met vrijheidsgraden $DFE = N - k$.
> **Tip:** Contrasten zijn geplande vergelijkingen en hebben meer power dan meervoudige vergelijkingen wanneer er een duidelijke theoretische basis voor is. Ze kunnen ook worden berekend als de omnibus ANOVA niet significant is, omdat ze specifieke hypothesen toetsen.
#### 1.5.2 Meervoudige vergelijkingstesten
Wanneer er geen specifieke geplande hypothesen zijn, of wanneer er veel groepen zijn die allemaal met elkaar vergeleken moeten worden, worden meervoudige vergelijkingstesten gebruikt. Deze tests corrigeren het $\alpha$-niveau om de algehele kans op een Type I fout laag te houden bij het uitvoeren van meerdere paarsgewijze vergelijkingen.
* **LSD-methode (Least Significant Differences):** Voert standaard t-toetsen uit voor alle paren, zonder correctie voor meervoudige vergelijkingen. Dit verhoogt het risico op Type I fouten.
* **Bonferroni-methode:** Stelt het significantieniveau voor elke individuele test zo streng in dat de algehele kans op een Type I fout voor alle vergelijkingen niet groter is dan het oorspronkelijke $\alpha$. Dit is zeer conservatief en kan leiden tot minder power.
* **Tukey's HSD (Honestly Significant Difference):** Gebruikt de Studentized range statistic om alle paarsgewijze vergelijkingen uit te voeren, met controle over de "family-wise error rate". Dit is een veelgebruikte en krachtige methode.
* **Andere methoden:** Er zijn diverse andere methoden zoals Scheffé, S-N-K, Duncan, Gabriel, Games-Howell, etc., elk met specifieke eigenschappen en aannames (bijv. gelijkheid van varianties).
> **Tip:** De keuze van de post-hoc test hangt af van de onderzoeksvraag en de aannames die geldig zijn voor de data. Tukey's HSD is een goede standaardkeuze bij gelijke steekproefgroottes en gelijke varianties.
#### 1.5.3 Interpretatie van paarsgewijze vergelijkingen
Deze tests vergelijken telkens twee groepsgemiddelden en rapporteren een p-waarde. Als de p-waarde kleiner is dan het gekozen significantieniveau ($\alpha$), wordt geconcludeerd dat die twee specifieke groepsgemiddelden significant van elkaar verschillen.
* **Voorbeeld:** Na een significante ANOVA voor de effectiviteit van drie leesmethoden, kunnen paarsgewijze vergelijkingen uitwijzen dat Methode A significant beter is dan Methode B, maar dat Methode C niet significant verschilt van Methode B.
#### 1.5.4 Gelijkheid van varianties niet verondersteld
Indien de aanname van gelijke varianties wordt geschonden, zijn er specifieke post-hoc tests die hier rekening mee houden, zoals Tamhane's T2, Dunnett's T3, of Games-Howell.
### 1.6 Voorbeeld: Gepercipieerde moeilijkheid van oefeningen
* **Situatie:** Een onderzoeker wil weten of de gepercipieerde moeilijkheid van wiskundeopgaven verschilt wanneer studenten verschillende instructies krijgen over de moeilijkheid ("simpel", "matig", "moeilijk").
* **Data:** Scores op een 16-puntenschaal (0-15).
* **ANOVA:** Een eenwegs ANOVA wordt uitgevoerd om te testen of de gemiddelde gepercipieerde moeilijkheid verschilt tussen de drie groepen.
* **Resultaat:** Als de ANOVA significant is, kan een post-hoc test (bv. Tukey's HSD) worden gebruikt om te bepalen welke van de drie instructies leidt tot significant verschillende percepties van moeilijkheid.
> **Tip:** Visualisaties zoals boxplots en meansplots (lijndiagrammen van gemiddelden) zijn cruciaal om de verdelingen, gemiddelden en spreiding binnen de groepen te begrijpen, en om hypotheses te vormen voor contrasten of om resultaten van post-hoc analyses te ondersteunen. De boxplot vergelijkt echter medianen, terwijl ANOVA gemiddelden vergelijkt.
---
# Voorwaarden en model van ANOVA
Dit onderdeel bespreekt de essentiële voorwaarden waaraan voldaan moet worden om een één-weg variantie-analyse (ANOVA) correct uit te voeren, en legt het onderliggende ANOVA-model uit.
### 2.1 De t-toets versus ANOVA
De t-toets voor onafhankelijke steekproeven wordt gebruikt om de verwachtingen (gemiddelden) van twee populaties te vergelijken. Variantie-analyse (ANOVA) daarentegen is een statistische methode die wordt ingezet om de verwachtingen van twee of meer populaties te vergelijken. Een één-wegs ANOVA vergelijkt meerdere populatieverwachtingen op basis van enkelvoudige aselecte steekproeven (EAS) uit elke populatie.
Het gebruik van paarsgewijze t-toetsen om meer dan twee groepen te vergelijken is geen goed alternatief voor ANOVA. Hoewel paarsgewijze t-toetsen individuele verschillen tussen groepen kunnen detecteren, verhoogt het herhaaldelijk uitvoeren van deze toetsen de kans op een Type I fout (onterecht concluderen dat er een significant verschil is wanneer er in werkelijkheid geen is). Dit fenomeen, bekend als "capitalizing on chance", leidt ertoe dat er te snel significante verschillen worden gevonden die er niet zijn.
**Voorbeeld:** Stel een onderzoeker wil onderzoeken hoe studenten de moeilijkheid van wiskundeoefeningen ervaren. Hij deelt 30 studenten willekeurig in drie groepen in: één groep krijgt te horen dat de oefeningen "simpel" zijn, de tweede "matig", en de derde "moeilijk". Na afloop beoordelen de studenten de moeilijkheid op een schaal van 0 tot 15. Om de gemiddelde beoordelingen van de drie groepen te vergelijken, is ANOVA de geschikte methode, niet drie aparte t-toetsen.
### 2.2 Voorwaarden voor ANOVA
Om een één-weg ANOVA op een correcte en betrouwbare manier uit te voeren, moet aan de volgende voorwaarden worden voldaan:
* **Onafhankelijke steekproeven:** Er moeten k onafhankelijke enkelvoudige aselecte steekproeven worden getrokken, één uit elke populatie of conditie die wordt onderzocht.
* **Normaliteit:** Alle k populaties waaruit de steekproeven zijn getrokken, moeten normaal verdeeld zijn.
* **Homogeniteit van varianties (gelijke standaarddeviaties):** Alle k populaties moeten dezelfde (onbekende) standaarddeviatie $\sigma$ hebben.
**Controle op gelijkheid van standaarddeviaties:**
Een vuistregel om de aanname van gelijke standaarddeviaties te controleren is de volgende: de resultaten van de ANOVA F-toets zijn bij benadering correct als de grootste steekproef standaarddeviatie niet meer dan twee keer zo groot is als de kleinste steekproef standaarddeviatie. Wiskundig uitgedrukt:
$$ \frac{s_{max}}{s_{min}} \leq 2 $$
waarbij $s_{max}$ de grootste en $s_{min}$ de kleinste standaarddeviatie van de steekproeven is.
### 2.3 Het ANOVA-model
Het ANOVA-model beschrijft een waargenomen waarde ($Y_{ij}$) als de som van een algemeen gemiddelde, het effect van de groep waartoe de waarneming behoort, en een residu (foutterm).
Voor een waarneming $j$ in groep $i$, kan het model als volgt worden geschreven:
$$ Y_{ij} = \mu_i + \epsilon_{ij} $$
waarbij:
* $Y_{ij}$ staat voor de waargenomen waarde van de $j$-de observatie in de $i$-de groep.
* $\mu_i$ staat voor het populatiegemiddelde van de $i$-de groep.
* $\epsilon_{ij}$ staat voor het residu (de foutterm) van de $j$-de observatie in de $i$-de groep. Dit representeert de variatie die niet verklaard wordt door de groepsverschillen.
De nulhypothese in een één-wegs ANOVA stelt dat alle populatiegemiddelden gelijk zijn:
$$ H_0: \mu_1 = \mu_2 = \dots = \mu_k $$
De alternatieve hypothese is dat niet alle populatiegemiddelden gelijk zijn.
Het model kan ook worden uitgedrukt in termen van de schatters voor de parameters:
$$ \text{Waarneming} = \text{Model} + \text{Residu} $$
$$ Y_{ij} = \hat{\mu}_i + e_{ij} $$
waarbij $\hat{\mu}_i$ de steekproefgemiddelde van groep $i$ is en $e_{ij}$ het residu voor de $j$-de observatie in groep $i$.
### 2.4 De F-statistiek in ANOVA
De ANOVA F-statistiek is de kern van de toets en vergelijkt de variantie *tussen* de groepen met de variantie *binnen* de groepen.
$$ F = \frac{\text{Variantie tussen groepen}}{\text{Variantie binnen groepen}} $$
* **Variantie tussen groepen (Mean Square Between, MSB):** Dit meet de spreiding van de steekproefgemiddelden rond het totale gemiddelde. Het wordt ook wel "verklaarde variantie" genoemd, vergelijkbaar met de R-kwadraat in regressieanalyse.
* **Variantie binnen groepen (Mean Square Within, MSW of Mean Square Error, MSE):** Dit meet de gemiddelde spreiding van de observaties binnen elke groep rond het groepsgemiddelde. Het vertegenwoordigt de "ongelgde variantie".
De F-statistiek is altijd groter dan of gelijk aan nul ($F \geq 0$). Als alle steekproefgemiddelden identiek zijn, is $F=0$. Een hogere F-waarde duidt op grotere verschillen tussen de groepsgemiddelden, wat bewijs levert tegen de nulhypothese van gelijke gemiddelden. De F-toets is een één-zijdige toets aan de bovenzijde.
**Relatie met de t-toets:** Voor het specifieke geval van twee groepen ($k=2$) en gelijke steekproefgroottes ($n_1 = n_2 = n$), is het kwadraat van de tweegroep t-toetsgrootheid gelijk aan de F-statistiek: $t^2 = F$.
#### 2.4.1 Vrijheidsgraden voor de F-test
De F-verdeling, die de verdeling van de F-statistiek onder de nulhypothese beschrijft, wordt gekenmerkt door twee parameters: de vrijheidsgraden van de teller (tussen groepen) en de vrijheidsgraden van de noemer (binnen groepen).
* **Vrijheidsgraden teller (df1):** Dit is het aantal groepen ($k$) min 1: $df_1 = k - 1$.
* **Vrijheidsgraden noemer (df2):** Dit is het totale aantal waarnemingen ($N$) min het aantal groepen ($k$): $df_2 = N - k$. Het totale aantal waarnemingen is de som van de waarnemingen in alle groepen: $N = n_1 + n_2 + \dots + n_k$.
De verdeling van de ANOVA F-statistiek onder $H_0$ is dus $F(k-1, N-k)$.
### 2.5 Verloop van ANOVA en vervolganalyses
1. **Formuleren van hypothesen:** Definieer de nulhypothese ($H_0$: alle populatiegemiddelden zijn gelijk) en de alternatieve hypothese ($H_1$: niet alle populatiegemiddelden zijn gelijk).
2. **Controleren van voorwaarden:** Verifieer de aannames van normaliteit, homogeniteit van varianties en onafhankelijke steekproeven.
3. **Berekenen van de F-statistiek:** Bereken de F-waarde op basis van de variantie tussen en binnen de groepen.
4. **Vergelijken met kritieke waarde:** Vergelijk de berekende F-statistiek met een kritieke waarde uit de F-verdeling (met de correcte vrijheidsgraden en gekozen significantieniveau $\alpha$). Als $F > F_{kritiek}$, wordt de nulhypothese verworpen.
5. **Conclusie en vervolganalyses:**
* Als $H_0$ wordt verworpen, betekent dit dat er statistisch significante verschillen zijn tussen ten minste twee populatiegemiddelden.
* **Vervolgstap: Welke gemiddelden verschillen?** De omnibus ANOVA zelf vertelt niet *welke* specifieke groepen significant van elkaar verschillen. Hiervoor zijn vervolganalyses nodig.
#### 2.5.1 Contrasten
Contrasten worden gebruikt om specifieke, vooraf gedefinieerde hypothesen over de populatiegemiddelden te toetsen. Ze zijn vooral nuttig wanneer er een duidelijke wetenschappelijke hypothese is over de verwachte verschillen tussen bepaalde groepen, en dit deel uitmaakt van het onderzoeksdesign.
* Een contrast is een lineaire combinatie van populatiegemiddelden $\mu_i$ met coëfficiënten $a_i$ zodanig dat de som van de coëfficiënten nul is ($\sum a_i = 0$).
* Het bijbehorende steekproefcontrast $c$ wordt berekend met de steekproefgemiddelden $\bar{x}_i$:
$$ c = a_1 \bar{x}_1 + a_2 \bar{x}_2 + \dots + a_k \bar{x}_k $$
* De standaardfout van het steekproefcontrast $c$ is:
$$ SE(c) = s_p \sqrt{\sum_{i=1}^k \frac{a_i^2}{n_i}} $$
waarbij $s_p$ de gepoolde standaarddeviatie is en $n_i$ de steekproefgrootte van groep $i$.
* De nulhypothese $H_0: \psi = 0$ (waarbij $\psi$ het populatiecontrast is) wordt getoetst met een t-statistiek:
$$ t = \frac{c}{SE(c)} $$
met vrijheidsgraden gelijk aan de vrijheidsgraden van de error ($df_E = N - k$).
* Een betrouwbaarheidsinterval voor het contrast $\psi$ is:
$$ c \pm t^* \cdot SE(c) $$
waarbij $t^*$ de kritieke waarde uit de t-verdeling is.
**Voordelen van contrasten:**
* **Hoger onderscheidingsvermogen (power):** Omdat ze specifiekere hypothesen toetsen, zijn contrasten krachtiger in het detecteren van een significant verschil dan algemene meervoudige vergelijkingstests.
* **Wetenschappelijke hypothese toetsen:** Ze laten toe om vooraf geformuleerde wetenschappelijke verwachtingen te toetsen.
**Belangrijk:** Contrasten zijn het meest zinvol wanneer ze *vooraf* worden bepaald, gebaseerd op het onderzoeksdesign. Het is niet gepast om contrasten te bepalen op basis van verschillen die pas na dataverzameling worden vastgesteld.
#### 2.5.2 Meervoudige vergelijkingen (Multiple Comparisons)
Meervoudige vergelijkingstests worden toegepast wanneer de omnibus ANOVA een significant resultaat oplevert, maar er geen specifieke, vooraf gedefinieerde hypothesen zijn om te toetsen met contrasten. Ze voeren paarsgewijze significantietoetsen uit tussen alle groepen, waarbij er een correctie wordt toegepast om de kans op Type I fouten te beheersen.
Verschillende methoden bestaan om de p-waarden te corrigeren of een strengere kritieke waarde te hanteren:
* **LSD-methode (Least Significant Differences):** Voert paarsgewijze t-toetsen uit zonder expliciete correctie voor meervoudige vergelijkingen. De kans op een Type I fout wordt voor elk paar afzonderlijk bepaald.
* **Bonferroni-methode:** Controleert de totale kans op een Type I fout voor alle vergelijkingen door de alfaniveau voor elke individuele toets aanzienlijk te verlagen ($\alpha / (\text{aantal paren})$). Dit leidt tot strengere kritieke waarden en minder power.
* **Tukey's HSD (Honestly Significant Difference):** Een populaire methode die de studentized range statistic gebruikt om alle paarsgewijze vergelijkingen te maken en de experiment-wise error rate te controleren.
* **Scheffé-methode:** Een zeer conservatieve methode die alle mogelijke lineaire combinaties van groepsgemiddelden kan toetsen, niet alleen paarsgewijze vergelijkingen.
**Keuze van methode:** De keuze hangt af van het aantal groepen, de specifieke onderzoeksvraag en de gewenste balans tussen Type I en Type II fouten. Wanneer de varianties niet gelijk zijn, zijn aangepaste methoden zoals Tamhane's T2 of Games-Howell nodig.
**Tip:** In veel statistische softwarepakketten (zoals R en SPSS) zijn functies beschikbaar om zowel contrasten als verschillende soorten meervoudige vergelijkingstests uit te voeren na een ANOVA.
**Boxplots en gemiddeldendiagrammen:** Visuele hulpmiddelen zoals boxplots en gemiddeldendiagrammen (met foutbalken die de standaarddeviatie of het betrouwbaarheidsinterval weergeven) zijn zeer nuttig om de spreiding en de gemiddelden van de groepen te inspecteren en om inzicht te krijgen in mogelijke verschillen, zelfs voordat de formele statistische toetsen worden uitgevoerd. Deze plots zijn echter gebaseerd op medianen (boxplot) of gemiddelden, terwijl ANOVA specifiek gemiddelden vergelijkt.
---
# De F-statistiek en de F-verdeling
Hier is een studiehandleiding voor het onderwerp "De F-statistiek en de F-verdeling".
## 3. De F-statistiek en de F-verdeling
De F-statistiek is een maat die de variatie tussen groepen vergelijkt met de variatie binnen groepen, en de F-verdeling is de bijbehorende kansverdeling die wordt gebruikt om de significantie van deze statistiek te beoordelen.
### 3.1 ANOVA F-statistiek: spreiding tussen groepen versus spreiding binnen groepen
ANOVA (Analyse van Variantie) wordt gebruikt om de gemiddelden van twee of meer populaties te vergelijken. Wanneer men meer dan twee groepen heeft, zijn paarsgewijze t-toetsen geen geschikte methode omdat het risico op het vinden van een significant verschil terwijl dit er niet is (Type I fout) toeneemt met elke extra toets. Dit fenomeen wordt "capitalizing on chance" genoemd.
De ANOVA F-statistiek is de kern van deze analyse en wordt gedefinieerd als de verhouding van de variantie *tussen* de groepen tot de variantie *binnen* de groepen.
$$
F = \frac{\text{Variantie tussen groepen}}{\text{Variantie binnen groepen}}
$$
- Een hoge F-waarde (F $\geq$ 0) geeft aan dat de variantie tussen de groepen aanzienlijk groter is dan de variantie binnen de groepen. Dit leidt tot bewijs tegen de nulhypothese ($H_0$) dat alle populatiegemiddelden gelijk zijn.
- Een F-waarde van 0 treedt op wanneer alle steekproefgemiddelden exact gelijk zijn.
- De F-test is een een-zijdige toets aan de bovenzijde.
De F-statistiek kan worden begrepen in relatie tot de verklaarde variantie in een model, vergelijkbaar met de determinatiecoëfficiënt in regressieanalyse.
#### 3.1.1 Het ANOVA-model en de berekening van varianties
Het ANOVA-model voor een waarneming ($Y_{ij}$, de $j$-de waarneming in de $i$-de groep) wordt uitgedrukt als:
$$
Y_{ij} = \mu_i + \epsilon_{ij}
$$
Waarbij $\mu_i$ het populatiegemiddelde van groep $i$ is en $\epsilon_{ij}$ de residu (foutterm) voor die waarneming.
Wanneer men meer dan twee groepen vergelijkt, worden de formules voor de F-statistiek complexer, maar de onderliggende redenering blijft hetzelfde: het vergelijken van de spreiding *tussen* de groepen met de spreiding *binnen* elke groep.
> **Tip:** Denk aan de F-statistiek als een signaal-ruisverhouding: een hoog signaal (variatie tussen groepen) ten opzichte van de ruis (variatie binnen groepen) suggereert dat er werkelijke verschillen zijn tussen de groepen.
##### 3.1.1.1 Formule voor de F-statistiek (algemeen)
De F-statistiek wordt berekend als de verhouding van de gemiddelde kwadratensom tussen groepen (Mean Square Between, $MSB$) tot de gemiddelde kwadratensom binnen groepen (Mean Square Within, $MSW$ of Mean Square Error, $MSE$).
$$
F = \frac{MSB}{MSE}
$$
- $MSB$ meet de variantie tussen de groepsgemiddelden.
- $MSE$ meet de gemiddelde variantie binnen de groepen (de "pooled" variantie).
##### 3.1.1.2 Relatie met de t-toets voor 2 groepen
Voor het specifieke geval van twee groepen ($k=2$), is het kwadraat van de t-toets ($t^2$) voor onafhankelijke steekproeven equivalent aan de F-statistiek ($F$), mits de varianties gelijk worden verondersteld.
$$
F = t^2 \quad \text{als } k=2
$$
### 3.2 De F-verdeling
De F-verdeling is een continue kansverdeling die uitsluitend positieve waarden aanneemt. Het is een familie van verdelingen, waarbij elke specifieke F-verdeling wordt bepaald door twee parameters: de vrijheidsgraden voor de teller en de vrijheidsgraden voor de noemer.
De notatie voor een F-verdeling is $F(\text{df}_1, \text{df}_2)$, waarbij:
- $\text{df}_1$ de vrijheidsgraden van de teller zijn (gerelateerd aan de variantie tussen de groepen).
- $\text{df}_2$ de vrijheidsgraden van de noemer zijn (gerelateerd aan de variantie binnen de groepen).
F-verdelingen zijn typisch rechts-scheef, vooral bij lage vrijheidsgraden. Naarmate de vrijheidsgraden toenemen, wordt de verdeling symmetrischer en lijkt deze meer op een normale verdeling.
#### 3.2.1 Vrijheidsgraden voor de F-test in ANOVA
Wanneer we $k$ populaties vergelijken met een totaal aantal waarnemingen $n = n_1 + n_2 + \dots + n_k$, worden de vrijheidsgraden voor de F-test als volgt bepaald:
- **Vrijheidsgraden voor de teller (tussen groepen):** $\text{df}_{\text{teller}} = k - 1$. Dit weerspiegelt het aantal groepen min één, wat aangeeft hoeveel onafhankelijke gemiddelden er kunnen variëren.
- **Vrijheidsgraden voor de noemer (binnen groepen):** $\text{df}_{\text{noemer}} = n - k$. Dit zijn de totale vrijheidsgraden minus het aantal groepen, en vertegenwoordigen de informatie over de variabiliteit binnen elke groep.
Dus, de F-statistiek volgt een $F(k-1, n-k)$ verdeling onder de nulhypothese ($H_0$) dat alle populatiegemiddelden gelijk zijn.
### 3.3 Voorwaarden voor ANOVA
Om de resultaten van een éénwegs ANOVA te kunnen vertrouwen, moeten aan bepaalde voorwaarden worden voldaan:
1. **Onafhankelijke steekproeven:** Er moeten $k$ onafhankelijke Enkelvoudige Aselecte Steekproeven (EAS) worden getrokken, één uit elke populatie of conditie.
2. **Normaal verdeelde populaties:** Alle $k$ populaties waaruit de steekproeven zijn getrokken, moeten normaal verdeeld zijn met hun respectievelijke onbekende verwachtingen ($\mu_i$).
3. **Gelijke standaarddeviaties (homogeniteit van varianties):** Alle $k$ populaties moeten dezelfde (onbekende) standaarddeviatie $\sigma$ hebben.
#### 3.3.1 Controleren van de voorwaarden
- **Gelijkheid van standaarddeviaties:** Een vuistregel is dat de ANOVA-resultaten bij benadering correct blijven als de verhouding van de grootste steekproef-standaarddeviatie tot de kleinste steekproef-standaarddeviatie niet groter is dan 2 ($s_{\text{max}} / s_{\text{min}} \le 2$). Meer formele tests zoals de Bartlett-test of Levene's test kunnen worden gebruikt.
- **Normaliteit:** Kan worden beoordeeld met behulp van Q-Q plots of statistische tests zoals de Shapiro-Wilk test. ANOVA is echter relatief robuust tegen schendingen van de normaliteit, vooral bij grotere steekproeven.
#### 3.3.2 Wat als de voorwaarden geschonden zijn?
Als de varianties ongelijk zijn, kunnen specifieke aanpassingen of alternatieve toetsen, zoals de Welch's ANOVA, worden gebruikt. Deze zijn niet altijd standaard beschikbaar en vereisen vaak gespecialiseerde software.
### 3.4 Interpretatie van de F-test en vervolganalyses
Als de F-test significant is (d.w.z. de p-waarde is kleiner dan het gekozen significantieniveau $\alpha$), verwerpen we de nulhypothese dat alle populatiegemiddelden gelijk zijn. Dit betekent dat er ten minste één paar gemiddelden is dat significant verschilt.
Wanneer de omnibus ANOVA-toets significant is, is het noodzakelijk om vervolganalyses uit te voeren om te bepalen welke specifieke groepsgemiddelden van elkaar verschillen. Hiervoor bestaan twee hoofdcategorieën van methoden:
1. **Contrasten:**
* Worden gebruikt wanneer er *voorafgaand aan de dataverzameling* specifieke wetenschappelijke hypothesen bestaan over verwachte verschillen tussen bepaalde groepen.
* Contrasten zijn lineaire combinaties van populatiegemiddelden met coëfficiënten ($a_i$) zodanig dat $\sum a_i = 0$. Een steekproefcontrast ($c$) schat dit populatiecontrast.
* Ze hebben een groter onderscheidingsvermogen (power) dan meervoudige vergelijkingen omdat ze specifieker zijn.
* Voor elk contrast kan een t-toets worden uitgevoerd met de formule:
$$
t = \frac{c}{\text{SE}(c)}
$$
waarbij $\text{SE}(c)$ de standaardfout van het steekproefcontrast is.
* Een betrouwbaarheidsinterval voor het verschil van een contrast kan worden berekend:
$$
c \pm t^* \cdot \text{SE}(c)
$$
waarbij $t^*$ de kritieke waarde is voor de t-verdeling met $\text{df}_{\text{error}}$ vrijheidsgraden.
2. **Meervoudige vergelijkingen (Post-hoc tests):**
* Worden gebruikt wanneer er geen specifieke *a priori* hypothesen zijn, maar er wel een algemene interesse is in het identificeren van alle significant verschillende paren van gemiddelden.
* Deze tests corrigeren voor het verhoogde Type I foutrisico dat ontstaat door het uitvoeren van meerdere vergelijkingen.
* Bekende methoden zijn:
* **LSD (Least Significant Differences):** Voert paarsgewijze t-toetsen uit zonder correctie voor meervoudige vergelijkingen. Hoger risico op Type I fouten.
* **Bonferroni:** Controleert de totale kans op een Type I fout door het significantieniveau voor elke individuele test te verkleinen ($\alpha / \text{aantal paren}$). Is erg conservatief.
* **Tukey's HSD (Honestly Significant Difference):** Een populaire methode die gebaseerd is op de Studentized range statistic en de experimentwise error rate controleert voor alle paarsgewijze vergelijkingen.
* Andere methoden zoals Sidak, Scheffe, S-N-K, en Gabriel bestaan ook, elk met hun eigen eigenschappen wat betreft conservatisme en power.
* Sommige methoden zijn geschikt bij ongelijke varianties (bv. Games-Howell, Tamhane's T2).
#### 3.4.1 Contrasten versus Meervoudige Vergelijkingen: Hoe kiezen?
- Kies **contrasten** als u specifieke, wetenschappelijke hypothesen heeft *voordat u de data analyseert*. Ze zijn krachtiger voor deze specifieke hypothesen.
- Kies **meervoudige vergelijkingen** als u *na het verkrijgen van een significant omnibus ANOVA-resultaat* wilt weten welke groepen van elkaar verschillen, zonder specifieke *a priori* verwachtingen.
##### 3.4.1.1 Voorbeeld van een contrast
Stel, men vergelijkt een klassieke methode met twee nieuwe methoden. Een contrast kan zijn om de klassieke methode te vergelijken met het gemiddelde van de twee nieuwe methoden. De coëfficiënten zouden dan bijvoorbeeld zijn: $a_1 = -1$, $a_2 = 0.5$, $a_3 = 0.5$. De nulhypothese zou dan zijn dat $\mu_{\text{klassiek}} = \frac{\mu_{\text{nieuw1}} + \mu_{\text{nieuw2}}}{2}$.
##### 3.4.1.2 Voorbeeld van meervoudige vergelijkingen
Na een significante ANOVA met drie groepen (A, B, C), wilt u weten of A verschilt van B, A van C, en B van C. U zou dan een post-hoc test zoals Tukey's HSD uitvoeren om deze paarsgewijze vergelijkingen te testen, waarbij de p-waarden worden aangepast om het totale Type I foutrisico te controleren.
> **Tip:** Het is cruciaal om het onderscheid te maken tussen geplande contrasten (vooraf bepaald) en post-hoc analyses (uitgevoerd na de data-analyse), aangezien de interpretatie en de statistische power sterk verschillen. Contrasten kunnen ook worden uitgevoerd, zelfs als de omnibus ANOVA niet significant is, omdat ze specifiekere hypothesen testen. Meervoudige vergelijkingen worden over het algemeen alleen aanbevolen als de omnibus ANOVA significant is.
---
# Post-hoc analyses en meervoudige vergelijkingen
Hier is de samenvatting voor het onderwerp "Post-hoc analyses en meervoudige vergelijkingen":
## 4. Post-hoc analyses en meervoudige vergelijkingen
Wanneer een ANOVA-analyse een significant algemeen verschil tussen groepsgemiddelden aantoont, is verdere analyse nodig om te bepalen welke specifieke groepen significant van elkaar verschillen. Dit wordt gedaan middels post-hoc analyses en meervoudige vergelijkingen.
### 4.1 De noodzaak van post-hoc analyses
* **Probleem met herhaalde t-toetsen:** Het uitvoeren van meerdere paarsgewijze t-toetsen na een significante ANOVA vergroot de kans op een Type I fout (onterecht H$_0$ verwerpen). Dit fenomeen, "capitalizing on chance", kan leiden tot het vinden van significante verschillen die er in werkelijkheid niet zijn.
* **ANOVA vergelijkt alle gemiddelden tegelijk:** De ANOVA test de nulhypothese dat *alle* populatiegemiddelden gelijk zijn. Bij een significante uitkomst weet men dat er ergens een verschil is, maar niet *waar*.
### 4.2 Contrasten en meervoudige vergelijkingen
Er zijn twee hoofdtypen van analyses om specifieke verschillen te onderzoeken na een significante ANOVA: contrasten en meervoudige vergelijkingen.
#### 4.2.1 Contrasten
Contrasten worden gebruikt wanneer er *voorafgaand* aan de dataverzameling specifieke, wetenschappelijk gemotiveerde hypothesen zijn over verwachte verschillen tussen groepen. Dit zijn geplande vergelijkingen.
* **Kenmerken van contrasten:**
* Ze hebben doorgaans meer onderscheidend vermogen (power) dan meervoudige vergelijkingen omdat ze specifieker zijn.
* Ze kunnen worden getoetst met een t-toets, waarbij de nulhypothese is dat een specifieke lineaire combinatie van populatiegemiddelden gelijk is aan nul.
* De resultaten van contrasten zijn valide, ongeacht het resultaat van de omnibus ANOVA-toets.
* **Definitie van een contrast:** Een contrast is een lineaire combinatie van populatiegemiddelden $\mu_i$ met coëfficiënten $a_i$ zodanig dat $\sum a_i = 0$.
$$ \psi = a_1 \mu_1 + a_2 \mu_2 + \dots + a_k \mu_k $$
* **Steekproefcontrast:** Het overeenkomstige steekproefcontrast wordt berekend met de steekproefgemiddelden $\bar{x}_i$:
$$ c = a_1 \bar{x}_1 + a_2 \bar{x}_2 + \dots + a_k \bar{x}_k $$
* **Standaardfout van het steekproefcontrast:** De standaardfout van $c$ is afhankelijk van de geobserveerde varianties binnen de groepen:
$$ SE_c = s_p \sqrt{\sum_{i=1}^k \frac{a_i^2}{n_i}} $$
waarbij $s_p$ de gepoolde standaarddeviatie is en $n_i$ de steekproefgrootte van groep $i$.
* **Hypothesetoets voor contrasten:** De nulhypothese $H_0: \psi = 0$ wordt getoetst met de t-statistiek:
$$ t = \frac{c}{SE_c} $$
met vrijheidsgraden $DFE$ (de vrijheidsgraden van de error), die gelijk zijn aan de vrijheidsgraden van $s_p$. De toets kan 1-zijdig of 2-zijdig zijn.
* **Betrouwbaarheidsinterval voor een contrast:** Een niveau $C$ betrouwbaarheidsinterval voor het verschil $\psi$ is:
$$ c \pm t^* SE_c $$
waarbij $t^*$ de kritieke waarde is die overeenkomt met de middelste $C\%$ van de t-verdeling met $DFE$ vrijheidsgraden.
* **Voorbeeld van contrasten:** Stel we hebben drie groepen (A, B, C) en we willen onderzoeken of groep A significant verschilt van het gemiddelde van groepen B en C. Het contrast is dan $\psi = 2\mu_A - \mu_B - \mu_C$. De coëfficiënten zijn $a_1=2, a_2=-1, a_3=-1$. $\sum a_i = 2 - 1 - 1 = 0$.
* **Implementatie in software:** Niet alle software geeft automatisch contrasten weer. Vaak moeten de coëfficiënten $a_i$ gespecificeerd worden, of zijn er opties om te vergelijken met een controleconditie. Zelf contrasten berekenen kan door t-toetsen uit te voeren met de formules voor contrasten, waarbij steeds de gepoolde variantie en bijbehorende vrijheidsgraden gebruikt worden.
#### 4.2.2 Meervoudige vergelijkingen (multiple comparisons)
Meervoudige vergelijkingen worden toegepast wanneer er *geen* specifieke, vooraf geformuleerde hypothesen zijn, maar men de effecten van alle mogelijke paarsgewijze vergelijkingen tussen groepen wil onderzoeken, *nadat* een significante omnibus ANOVA is gevonden. Het doel is om het totale risico op Type I fouten te beheersen.
* **Basis:** Deze tests zijn varianten op de 2-steekproeven t-toets en zijn gebaseerd op de gepoolde standaarddeviatie $s_p$ en de gepoolde vrijheidsgraden $DFE$. Een compensatie voor het aantal vergelijkingen wordt toegepast.
* **De $t_{ij}$ toetsgrootheid:** Voor elk paar gemiddelden $\mu_i$ en $\mu_j$ wordt de t-toetsgrootheid berekend:
$$ t_{ij} = \frac{\bar{x}_i - \bar{x}_j}{s_p \sqrt{\frac{1}{n_i} + \frac{1}{n_j}}} $$
Een toets is significant indien $|t_{ij}| \ge t^{**}$, waarbij $t^{**}$ de kritieke waarde is die afhangt van de gekozen procedure en het gewenste significantieniveau.
* **Verschillende methoden voor meervoudige vergelijkingen:** Er bestaan diverse procedures die de kritieke waarde $t^{**}$ bepalen om te corrigeren voor het uitvoeren van meerdere toetsen. Enkele veelgebruikte methoden zijn:
* **LSD-methode (Least Significant Differences):**
* Gebruikt de standaard kritieke waarde van de t-verdeling voor $\alpha/2$ met $DFE$ vrijheidsgraden.
* Voert paarsgewijze t-toetsen uit met de standaard $\alpha$.
* **Probleem:** Controleert het experiment-wijde Type I foutniveau niet; het risico op een Type I fout neemt toe met het aantal vergelijkingen. Dit is equivalent aan het uitvoeren van onafhankelijke t-toetsen.
* **Bonferroni-methode:**
* Past de alpha-waarde aan per vergelijking om het totale Type I foutniveau voor alle vergelijkingen te beperken tot $\alpha$. De alpha voor elke individuele test wordt $\alpha / m$ (waarbij $m$ het aantal paren is).
* Is zeer conservatief en verhoogt de kans op Type II fouten (een echt verschil niet vinden).
* **Tukey's Honestly Significant Difference (HSD):**
* Gebruikt de Studentized Range statistic ($q$).
* Is geschikt voor het maken van alle paarsgewijze vergelijkingen en controleert het experiment-wijde foutniveau ($\alpha$) voor de gehele set van paarsgewijze vergelijkingen.
* Vaak een goede keuze bij gelijke steekproefgroottes.
* **Andere methoden (o.a. Sidak, Scheffé, SNK, Gabriel, Games-Howell):** Deze methoden variëren in hun aanpak om het Type I foutniveau te controleren, gevoeligheid voor ongelijke varianties en steekproefgroottes, en de complexiteit van de berekende kritieke waarden.
* **Keuze van de methode:** De keuze hangt af van de onderzoeksdoelen, de steekproefkarakteristieken (gelijke/ongelijke varianties, gelijke/ongelijke steekproefgroottes) en de gewenste balans tussen Type I en Type II fouten.
### 4.3 Implementatie in software
Moderne statistische softwarepakketten zoals R en SPSS bieden functies om zowel contrasten als verschillende post-hoc tests uit te voeren.
* **In R:**
* Contrasten kunnen worden gespecificeerd met functies zoals `fit.contrast` (uit de `gmodels` library).
* Meervoudige vergelijkingen kunnen worden uitgevoerd met `pairwise.t.test` (met verschillende `p.adj` methoden zoals "none" voor LSD, "bonferroni" voor Bonferroni, "holm", "hochberg", "hommel", "BH", "BY") of `TukeyHSD`.
> **Tip:** Gebruik `TukeyHSD()` in R voor algemene paarsgewijze vergelijkingen na een significante ANOVA, aangezien dit een robuuste methode is die het experiment-wijde foutniveau goed controleert.
* **In SPSS:**
* Er is een specifieke sectie "Post Hoc" binnen de ANOVA-dialogen waar verschillende methoden (LSD, Bonferroni, Tukey, etc.) geselecteerd kunnen worden.
* Contrasten kunnen vaak worden gedefinieerd door specifieke combinaties van groepen in te voeren.
### 4.4 Gelijkheid van varianties
Veel post-hoc methoden, net als ANOVA zelf, veronderstellen gelijkheid van varianties tussen de groepen (homogeniteit van varianties).
* **Wanneer varianties gelijk zijn:** Methoden zoals LSD, Bonferroni, Tukey HSD, en Scheffé kunnen gebruikt worden.
* **Wanneer varianties ongelijk zijn:** Er zijn specifieke tests die hier rekening mee houden, zoals Tamhane's T2, Dunnett's T3, en Games-Howell. Deze zijn conservatiever of, in sommige gevallen, kunnen ze meer power hebben dan de methoden voor gelijke varianties.
### 4.5 Interpretatie
Na het uitvoeren van de gekozen post-hoc analyse of contrasten, worden de resultaten geïnterpreteerd aan de hand van de p-waarden en/of betrouwbaarheidsintervallen. Een significante bevinding voor een specifiek paar of een specifieke lineaire combinatie van gemiddelden suggereert dat er een statistisch significant verschil is tussen die groepen of combinaties, op het gekozen significantieniveau.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Eén-factor variantie-analyse | Een statistische methode die gebruikt wordt om de gemiddelden van drie of meer groepen te vergelijken op basis van één categorische onafhankelijke variabele. Het hoofddoel is te bepalen of er een significant verschil bestaat tussen de groepsgemiddelden. |
| t-toets voor onafhankelijke steekproeven | Een statistische test die de gemiddelden van twee onafhankelijke groepen vergelijkt om te bepalen of er een significant verschil tussen deze groepen bestaat. |
| Populatieverwachting | Het theoretische gemiddelde van een variabele over de gehele populatie. In de context van ANOVA wordt aangenomen dat deze populatieverwachtingen mogelijk verschillen tussen de onderzochte groepen. |
| Enkelvoudige Aselecte Steekproef (EAS) | Een methode van steekproeftrekking waarbij elke eenheid in de populatie een gelijke kans heeft om geselecteerd te worden, wat essentieel is voor de geldigheid van de statistische inferenties in ANOVA. |
| Paarsgewijze t-toetsen | Een reeks t-toetsen die worden uitgevoerd om alle mogelijke paren van groepen binnen een dataset te vergelijken. Dit kan leiden tot een verhoogd risico op Type I fouten ('capitalizing on chance') bij herhaald testen. |
| Capitalizing on chance | Het fenomeen waarbij door herhaaldelijk statistische toetsen uit te voeren, de kans toeneemt om een statistisch significant verschil te vinden, ook al bestaat dit verschil in werkelijkheid niet. Dit is een reden om ANOVA te verkiezen boven meerdere paarsgewijze t-toetsen. |
| Boxplot (Doosdiagram) | Een grafische weergave van de spreiding van data die de mediaan, kwartielen en uitschieters toont. Hoewel nuttig voor visualisatie, vergelijkt een boxplot medianen, terwijl ANOVA gemiddelden vergelijkt. |
| Lijndiagram | Een grafische weergave die de trends of veranderingen in data over een bepaalde periode of reeks laat zien. In ANOVA context kan het gebruikt worden om de gemiddelden van de groepen te visualiseren. |
| Normaal verdeeld | Een kenmerk van data waarbij de verdeling symmetrisch is rond het gemiddelde, met de meeste observaties geconcentreerd in het midden en minder observaties aan de uiteinden, gevormd als een klokcurve. Dit is een belangrijke aanname voor ANOVA. |
| Standaarddeviatie (SD) | Een maat voor de spreiding van data rond het gemiddelde. Een kleinere standaarddeviatie geeft aan dat de data dichter bij het gemiddelde liggen, terwijl een grotere standaarddeviatie duidt op meer variabiliteit. |
| ANOVA model | Een wiskundig raamwerk dat de waarneming opsplitst in een systematisch effect (gerelateerd aan de groepsgemiddelden) en een willekeurig fouttermeffect (residu), wat essentieel is voor het berekenen van variantiecomponenten. |
| Verklaarde variantie | Het deel van de totale variatie in de afhankelijke variabele dat verklaard kan worden door de onafhankelijke variabele(n). In ANOVA wordt dit de 'between groups' variantie genoemd. |
| F-statistiek | De toetsingsgrootheid in een variantie-analyse, berekend als de verhouding van de variantie tussen groepen tot de variantie binnen groepen. Een hoge F-waarde suggereert dat de groepsgemiddelden significant van elkaar verschillen. |
| F-verdeling | Een kansverdeling die wordt gebruikt bij het toetsen van variantie (zoals in ANOVA). Het is een familie van rechts-scheve verdelingen die afhangen van twee parameters: de vrijheidsgraden van de teller en de noemer. |
| Vrijheidsgraden (df) | Het aantal onafhankelijke stukjes informatie dat beschikbaar is om een parameter te schatten. In ANOVA zijn er vrijheidsgraden voor de teller (k-1) en voor de noemer (n-k), waarbij k het aantal groepen is en n het totaal aantal waarnemingen. |
| Homogeniteit van varianties | De aanname dat de varianties van de populaties waaruit de steekproeven zijn getrokken, gelijk zijn. Tests zoals de Bartlett-test of Levene-test worden gebruikt om deze aanname te controleren. |
| Contrasts | Specifiek geplande vergelijkingen tussen groepsgemiddelden die vooraf worden gedefinieerd op basis van wetenschappelijke hypotheses. Ze hebben meer power dan meervoudige vergelijkingen omdat ze gerichter zijn. |
| Meervoudige vergelijkingen | Statistische toetsen die worden uitgevoerd om meerdere paarsgewijze vergelijkingen tussen groepsgemiddelden te maken nadat de algemene ANOVA significant is bevonden. Dit helpt het inflatie-effect van Type I fouten te beheersen. |
| LSD-methode (Least Significant Differences) | Een methode voor meervoudige vergelijkingen die paarsgewijze t-toetsen gebruikt zonder correctie voor het aantal vergelijkingen, waardoor het risico op Type I fouten toeneemt. |
| Bonferroni-methode | Een methode voor meervoudige vergelijkingen die het significantieniveau aanpast om de algehele kans op een Type I fout te controleren door het significantieniveau voor elke individuele test te verlagen (vaak door te delen door het aantal vergelijkingen). |
| Tukey's HSD (Honestly Significant Difference) | Een methode voor meervoudige vergelijkingen die de Studentized range statistic gebruikt om alle paarsgewijze vergelijkingen te maken en het experimentwise error rate controleert. |