Cover
Mulai sekarang gratis College H9b_variantie_analyse.pdf
Summary
# Introductie tot enkelvoudige variantieanalyse
Dit gedeelte introduceert variantieanalyse (ANOVA) als een statistische toets om te bepalen of de gemiddelden van een metrische afhankelijke variabele significant verschillen tussen verschillende groepen, gedefinieerd door een categorische onafhankelijke variabele. De kernvraag is of de waargenomen verschillen tussen groepsgemiddelden groter zijn dan wat op basis van toeval verwacht mag worden [10](#page=10) [3](#page=3) [4](#page=4).
### 1.1 Concept van variantieanalyse (ANOVA)
Variantieanalyse, ook bekend als Analysis of Variance (ANOVA), is een statistische toets die de relatie onderzoekt tussen een categorische onafhankelijke variabele en een metrische afhankelijke variabele. Het primaire doel van ANOVA is om te evalueren of er significante verschillen bestaan tussen de gemiddelde waarden van de afhankelijke variabele over de verschillende groepen die door de onafhankelijke variabele worden gedefinieerd [3](#page=3) [4](#page=4).
> **Tip:** Onthoud dat ANOVA primair gericht is op het vergelijken van gemiddelden, niet op individuele datapunten.
### 1.2 De centrale vraagstelling
De centrale vraag die met ANOVA wordt beantwoord, luidt: "Zijn de gemiddelde waarden op de afhankelijke variabele gelijk voor alle groepen, of verschilt minstens één groepsgemiddelde significant van de andere?". Dit vertaalt zich naar de vraag of een categorische groepsvariabele een meetbaar effect heeft op een metrische afhankelijke variabele. Een effect wordt vastgesteld indien de groepsgemiddelden significant van elkaar verschillen [4](#page=4) [5](#page=5).
### 1.3 Partitionering van de som van de kwadraten
ANOVA is gebaseerd op het principe van de partitionering (opsplitsing) van de totale som van de kwadraten (sum of squares) van de afhankelijke variabele. De totale spreiding in de data wordt ontleed in twee componenten [5](#page=5) [6](#page=6):
* **Verklaarde variantie (Between Groups SS):** Dit deel vertegenwoordigt de spreiding tussen de groepsgemiddelden en het algemene gemiddelde van de afhankelijke variabele. Deze variantie wordt "verklaard" door de verschillen tussen de groepen die door de onafhankelijke variabele worden veroorzaakt [6](#page=6) [9](#page=9).
* **Niet-verklaarde variantie (Within Groups SS):** Dit deel vertegenwoordigt de spreiding van individuele scores ten opzichte van hun eigen groepsgemiddelde. Deze variantie wordt beschouwd als "niet-verklaard" door de onafhankelijke variabele en wordt toegeschreven aan willekeurige fouten of andere factoren die niet in het model zijn opgenomen [6](#page=6) [9](#page=9).
De relatie wordt formeel weergegeven als:
$$
\text{Total SS} = \text{Within Groups SS} + \text{Between Groups SS}
$$
### 1.4 Binnen- en tussengroepscomponenten
De totale variatie in de afhankelijke variabele kan worden gevisualiseerd als een som van twee componenten [7](#page=7):
* **Binnengroepsvaria(n)tie (Within groups SS):** Dit meet de variatie binnen elke afzonderlijke groep. Het kwantificeert hoe individuele observaties afwijken van het gemiddelde van hun eigen groep [6](#page=6) [9](#page=9).
* **Tussengroepsvaria(n)tie (Between Groups SS):** Dit meet de variatie tussen de gemiddelden van de verschillende groepen en het algemene gemiddelde. Het kwantificeert hoe de groepsgemiddelden zelf variëren [6](#page=6) [9](#page=9).
De centrale vraag is dus waar de meeste variatie zich bevindt: binnen de groepen of tussen de groepen. Als de variatie binnen de groepen groter is dan de variatie tussen de groepen, is het moeilijk om met zekerheid te stellen dat de groepsvariabele een significant effect heeft op de afhankelijke variabele, aangezien de gevonden groepsverschillen dan mogelijk puur het gevolg zijn van toevallige variatie [10](#page=10) [11](#page=11).
### 1.5 Illustratief voorbeeld
Stel dat onderzoekers het aantal verschillende delicten onderzoeken, met geslacht als categorische onafhankelijke variabele en het aantal delicten als metrische afhankelijke variabele. Jongens rapporteren gemiddeld meer delicten dan meisjes. Echter, er kunnen ook aanzienlijke verschillen zijn in het aantal gerapporteerde delicten *binnen* de groep van jongens, en ook *binnen* de groep van meisjes. Als deze binnengroepsvariatie groter is dan de tussengroepsvariatie (het verschil tussen het gemiddelde van jongens en meisjes), dan is het lastig om te concluderen dat geslacht een doorslaggevend effect heeft op het aantal delicten, aangezien de waargenomen verschillen ook door toeval binnen de groepen verklaard kunnen worden [11](#page=11).
---
# Centrale begrippen van variantieanalyse
Variantieanalyse (ANOVA) is een statistische techniek die wordt gebruikt om te bepalen of er significante verschillen zijn tussen de gemiddelden van drie of meer groepen. De kernbegrippen omvatten de ANOVA-tabel, de berekening van Mean Squares, de F-toets, interpretatie van de F-waarde, kritische waarden, en Eta² als maat voor effectgrootte [15](#page=15).
### 2.1 De ANOVA-tabel: verdeling van variantie
De ANOVA-tabel is een gestructureerde weergave die de totale variantie binnen de gegevens verdeelt in verschillende bronnen. De centrale vraag is of verschillen voornamelijk tussen groepen optreden, of binnen de groepen zelf aanwezig zijn [12](#page=12) [13](#page=13) [14](#page=14) [15](#page=15).
#### 2.1.1 Essentiële componenten van de ANOVA-tabel
* **Sum of Squares (SS)**: Dit is de som van de gekwadrateerde afwijkingen van elke observatie ten opzichte van het gemiddelde [16](#page=16) [17](#page=17) [18](#page=18).
* De totale SS is de som van de SS voor de verschillen tussen groepen (Between Groups SS) en de SS voor de verschillen binnen groepen (Within Groups SS) [17](#page=17) [18](#page=18).
$$ \text{Total SS} = \text{Between Groups SS} + \text{Within Groups SS} $$
* **Degrees of Freedom (DF)**: Dit zijn de vrijheidsgraden, die bij benadering gelijk zijn aan het aantal waarnemingen of groepen min één, afhankelijk van de context (bij steekproeven) [16](#page=16) [17](#page=17) [18](#page=18).
* De totale DF is de som van de DF voor de verschillen tussen groepen (Between Groups DF) en de DF voor de verschillen binnen groepen (Within Groups DF) [17](#page=17) [18](#page=18).
$$ \text{Total DF} = \text{Between Groups DF} + \text{Within Groups DF} $$
* **Mean Squares (MS)**: Dit is de variantie en wordt berekend door de Sum of Squares te delen door de Degrees of Freedom [13](#page=13) [14](#page=14) [18](#page=18).
$$ Ms = \frac{ss}{df} $$
* **Between Groups MS**: De variantie tussen de groepen.
* **Within Groups MS**: De variantie binnen de groepen (ook wel error variantie genoemd).
### 2.2 Significantietesten met de F-toets
De F-toets wordt gebruikt om de significantie van de verschillen tussen groepen te testen [19](#page=19) [20](#page=20).
* **Berekening van de F-waarde**: De F-waarde is de verhouding tussen de verklaarde variantie (tussen groepen) en de niet-verklaarde variantie (binnen groepen) [19](#page=19) [20](#page=20).
$$ F = \frac{\text{Verklaarde variantie}}{\text{Niet-verklaarde variantie}} = \frac{\text{Between SS} / \text{DF}}{\text{Within SS} / \text{DF}} $$
* **Interpretatie van de F-waarde**: Een hogere F-waarde indiceert grotere verschillen tussen de groepen in verhouding tot de verschillen binnen de groepen [19](#page=19) [20](#page=20).
* **Hypothesetesten**: Om te bepalen of de gevonden F-waarde statistisch significant is, wordt deze vergeleken met een kritische waarde uit een F-tabel [20](#page=20).
* De kritische waarde wordt bepaald op basis van het significantieniveau (α, vaak 0.05) en de vrijheidsgraden in de teller (Between Groups DF) en de noemer (Within Groups DF) [20](#page=20) [48](#page=48).
* Als de gevonden F-waarde groter is dan de kritische waarde, wordt de nulhypothese (H₀) verworpen, wat betekent dat er een significant verband is [20](#page=20).
> **Tip:** Raadpleeg altijd de juiste F-tabel en controleer nauwkeurig het aantal vrijheidsgraden voor zowel de teller als de noemer om de kritische waarde correct te bepalen.
#### 2.2.1 Voorbeeld van F-toets interpretatie
Stel, een berekende F-waarde is 1.34, met 2 vrijheidsgraden in de teller en 21 in de noemer. Bij een significantieniveau van α=0.05 is de kritische F-waarde 3.47. Omdat de berekende F-waarde (1.34) lager is dan de kritische waarde (3.47), is het gevonden verband niet statistisch significant [48](#page=48).
### 2.3 Eta²: Equivalent voor de determinatiecoëfficiënt
Eta² ($\eta^2$) is het equivalent van de determinatiecoëfficiënt ($R^2$) binnen variantieanalyse en meet de effectgrootte [26](#page=26) [27](#page=27).
* **Definitie**: Eta² vertegenwoordigt de verhouding tussen de variantie tussen groepen (tussengroepsvariatie) en de totale variatie in de afhankelijke variabele (Y) [26](#page=26) [27](#page=27).
* **Berekening**: Eta² wordt berekend als de Between Groups SS gedeeld door de Total SS [49](#page=49).
$$ \eta^2 = \frac{\text{Between groups SS}}{\text{totaal SS}} $$
* **Interpretatie**: Eta² geeft aan welk percentage van de totale variatie in de afhankelijke variabele verklaard kan worden door de verschillen tussen de groepen. Een hogere Eta² duidt op een sterkere samenhang tussen de onafhankelijke (nominale) en afhankelijke (metrische) variabele [27](#page=27) [49](#page=49).
> **Voorbeeld:** Als Eta² gelijk is aan 0.1129, betekent dit dat 11.29% van de variatie in de afhankelijke variabele verklaard kan worden door de onafhankelijke variabele (gemeentetype in het voorbeeld). Zelfs als de verschillen niet statistisch significant zijn, kan de effectgrootte nog steeds informatief zijn [49](#page=49).
---
# Praktische toepassing en berekening van variantieanalyse
Dit gedeelte demonstreert hoe variantieanalyse (ANOVA) praktisch wordt toegepast en berekend aan de hand van een concreet voorbeeld, waarbij de componenten van de ANOVA-tabel worden uitgewerkt en geïnterpreteerd [28](#page=28).
### 3.1 Het principe van variantieanalyse
Variantieanalyse (ANOVA) wordt gebruikt om te onderzoeken of er significante verschillen zijn tussen de gemiddelden van meerdere groepen. De kernlogica berust op het vergelijken van twee soorten variantie: de variantie *tussen* de groepen en de variantie *binnen* de groepen [28](#page=28).
* **Tussen-groepsvariantie (Between-group variance)**: Meet hoeveel de gemiddelden van de verschillende groepen van elkaar afwijken. Dit is de "verklaarde variantie" in de afhankelijke variabele, toegeschreven aan de onafhankelijke variabele [28](#page=28) [29](#page=29).
* **Binnen-groepsvariantie (Within-group variance)**: Meet de variatie binnen elke afzonderlijke groep. Dit wordt beschouwd als de "niet-verklaarde variantie" of de resterende variatie die niet door de groepsindeling wordt verklaard [28](#page=28) [29](#page=29).
Indien de variantie tussen de groepen groter is dan de variantie binnen de groepen, suggereert dit dat de onafhankelijke variabele (de groepsindeling) waarschijnlijk invloed heeft op de afhankelijke variabele. Als de varianties daarentegen vergelijkbaar zijn, is er geen duidelijke indicatie van invloed van de groepsindeling [28](#page=28).
> **Tip:** De variabele die wordt onderzocht (de uitkomstmaat) moet metrisch zijn, terwijl de variabele die de groepen definieert nominaal moet zijn [29](#page=29).
#### 3.1.1 De F-ratio
De F-ratio is de centrale statistiek in ANOVA en wordt berekend als de verhouding tussen de tussen-groepsvariantie en de binnen-groepsvariantie [29](#page=29).
$$
F = \frac{\text{Tussen-groepsvariantie (Between SS / DF)}}{\text{Binnen-groepsvariantie (Within SS / DF)}}
$$
Een hogere F-waarde suggereert een groter verschil tussen de groepsgemiddelden ten opzichte van de variatie binnen de groepen [29](#page=29).
### 3.2 Berekening van ANOVA-componenten: een voorbeeld
We gebruiken het voorbeeld van moordgraad per 10.000 inwoners in 24 Engelse gemeenten uit de 19e eeuw, onderverdeeld in drie gemeentetypes: industriesteden, handelssteden en agrarische nederzettingen. De onderzoeksvraag is: Heeft het gemeentetype invloed op de moordgraad? [28](#page=28) [30](#page=30).
De nulhypothese ($H_0$) stelt dat er geen significant verschil is in moordgraad tussen de gemeentetypes, terwijl de alternatieve hypothese ($H_a$) stelt dat er wel een significant verschil is [29](#page=29).
#### 3.2.1 Stap-voor-stap berekening
**1. Verzamel de data en bereken groepsgemiddelden:**
De gegevens zijn als volgt (moordgraad per 10.000 inwoners) [30](#page=30):
| Gemeentetype | Waarneming 1 | Waarneming 2 | ... | Waarneming 8 | Sum | Mean | N |
| :--------------------- | :----------- | :----------- | :-- | :----------- | :----- | :------ | :- |
| Industriesteden | 4,3 | 2,8 | ... | 10,2 | 68,6 | 8,575 | 8 |
| Handelssteden | 5,1 | 6,2 | ... | 3,3 | 44,8 | 5,6 | 8 |
| Agrarische nederzet. | 12,5 | 3,1 | ... | 1,9 | 47,6 | 5,95 | 8 |
| **Totaal** | | | | | **161** | **6,708333** | **24** |
**2. Bereken de binnengroepsvariantie (Within Sum of Squares - SS within):**
Dit is de som van de varianties binnen elke groep.
* **Industriesteden:** De som van de gekwadrateerde afwijkingen van elk datapunt ten opzichte van het groepsgemiddelde (8,575). De tekst geeft de berekening niet volledig weer, maar stelt dat de som van squares voor industriesteden 66,68 is [34](#page=34).
* **Handelssteden:** De som van de gekwadrateerde afwijkingen van elk datapunt ten opzichte van het groepsgemiddelde (5,6). De tekst toont een gedeeltelijke berekening resulterend in een binnengroepsvariantie van 73,16 [35](#page=35).
* **Agrarische nederzettingen:** De som van de gekwadrateerde afwijkingen van elk datapunt ten opzichte van het groepsgemiddelde (5,95). De tekst geeft de berekening niet volledig weer [36](#page=36).
De totale binnengroepsvariantie wordt berekend door de SS van de afzonderlijke groepen te sommeren:
$SS_{within} = SS_{industriesteden} + SS_{handelssteden} + SS_{agrarische nederzettingen}$.
De som van de gekwadrateerde afwijkingen binnen de groepen is in totaal 331,21 [37](#page=37).
**3. Bereken de vrijheidsgraden (Degrees of Freedom - df):**
* **Df voor binnengroepsvariantie ($df_{within}$):** Dit is het totale aantal waarnemingen min het aantal groepen. In dit geval: 24 waarnemingen - 3 groepen = 21. Dit kan ook berekend worden als $(n_1-1) + (n_2-1) + (n_3-1) = (8-1) + (8-1) + (8-1) = 7 + 7 + 7 = 21$ [38](#page=38).
* **Df voor tussengroepsvariantie ($df_{between}$):** Dit is het aantal groepen min 1. In dit geval: 3 groepen - 1 = 2 [44](#page=44).
**4. Bereken de Mean Square (MS) voor binnengroepsvariantie ($MS_{within}$):**
Dit is de binnengroepsvariantie gedeeld door de bijbehorende vrijheidsgraden.
$MS_{within} = \frac{SS_{within}}{df_{within}} = \frac{331,21}{21} = 15,77$ [41](#page=41).
**5. Bereken de tussengroepsvariantie (Between Sum of Squares - SS between):**
Dit is de som van de gekwadrateerde afwijkingen van de groepsgemiddelden ten opzichte van het algemene gemiddelde, vermenigvuldigd met de groepsomvang (aangenomen dat groepen even groot zijn), gedeeld door de vrijheidsgraden voor tussengroepsvariantie. De tekst geeft dat de $SS_{between}$ = 42,16 [43](#page=43).
**6. Bereken de Mean Square (MS) voor tussengroepsvariantie ($MS_{between}$):**
Dit is de tussengroepsvariantie gedeeld door de bijbehorende vrijheidsgraden.
$MS_{between} = \frac{SS_{between}}{df_{between}} = \frac{42,16}{2} = 21,08$ [45](#page=45).
**7. Bereken de F-waarde:**
De F-waarde is de verhouding van de twee Mean Squares:
$F = \frac{MS_{between}}{MS_{within}} = \frac{21,08}{15,77} \approx 1,34$ [46](#page=46) [48](#page=48).
**8. Bepaal de significantie:**
Om de significantie te bepalen, vergelijken we de berekende F-waarde met een kritieke F-waarde uit een F-tabel, of we kijken naar de p-waarde.
* **Vergelijking met kritieke F-waarde:** Met $df_{numerator} = 2$ en $df_{denominator} = 21$, en een significantieniveau ($\alpha$) van 0,05, is de kritieke F-waarde 3,47. Omdat de berekende F-waarde (1,34) lager is dan de kritieke waarde (3,47), is het gevonden verband niet statistisch significant op het niveau van $\alpha = 0,05$ [48](#page=48).
* **Vergelijking met p-waarde (uit de tabel):** De tabel toont dat de significantie (Sig.) voor de berekende F-waarde van 1,34 niet wordt weergegeven met een exacte p-waarde, maar de vergelijking met de kritieke waarde duidt op niet-significantie [49](#page=49).
**9. Bereken Eta-kwadraat ($\eta^2$):**
Eta-kwadraat geeft aan welk proportie van de totale variatie in de afhankelijke variabele verklaard kan worden door de onafhankelijke variabele.
$\eta^2 = \frac{SS_{between}}{SS_{total}}$
De totale Sum of Squares ($SS_{total}$) is de som van $SS_{between}$ en $SS_{within}$: $42,16 + 331,21 = 373,37$ [49](#page=49).
$\eta^2 = \frac{42,16}{373,37} \approx 0,1129$ [49](#page=49).
Dit betekent dat ongeveer 11,29% van de variatie in moordgraad verklaard kan worden door het gemeentetype. Echter, ondanks deze verklaarde variatie, is het effect niet statistisch significant [49](#page=49).
#### 3.2.2 Samenvattende ANOVA-tabel
De resultaten van de berekening worden samengevat in een ANOVA-tabel:
| Bron van variatie | Sum of Squares (SS) | Df | Mean Square (MS) | F | Sig. |
| :---------------- | :------------------ | :-- | :--------------- | :--- | :----- |
| Between groups | 42,16 | 2 | 21,08 | 1,34 | > 0,05 |
| Within groups | 331,21 | 21 | 15,77 | | |
| Total | 373,37 | 23 | | | |
Eta² = 0,1129 [49](#page=49).
### 3.3 Interpretatie van de resultaten in de praktijk
Bij de interpretatie van de resultaten is het cruciaal om zowel de F-waarde en p-waarde (significantie) als de Eta-kwadraat (effectgrootte) te beschouwen [49](#page=49).
* Als de F-waarde hoog is en de p-waarde kleiner is dan het gekozen significantieniveau (bv. 0,05), dan wordt de nulhypothese verworpen. Dit duidt op een statistisch significant verschil tussen de groepsgemiddelden [51](#page=51).
* Een lage p-waarde (bv. $p < 0,001$) betekent dat de kans op het observeren van de gevonden resultaten (of extremere resultaten) onder de aanname dat de nulhypothese waar is, erg klein is (< 0,1%) [51](#page=51).
**Voorbeeld van een significant resultaat:**
In een onderzoek naar empathische bezorgdheid tussen jongens en meisjes, werd een hoge F-waarde van 372,352 gevonden met een p-waarde kleiner dan 0,001. Omdat $p < 0,05$, kon de nulhypothese (geen verschil) worden verworpen. Er is een statistisch significant verschil in empathische bezorgdheid tussen jongens en meisjes [51](#page=51).
> **Tip:** Houd er rekening mee dat zelfs met een statistisch significant resultaat, de Eta-kwadraat informatie geeft over de omvang van het effect. Een klein effect kan statistisch significant zijn in grote steekproeven, maar praktisch minder relevant.
#### 3.3.1 Kritieke F-waarden en significantieniveaus
De kritieke F-waarde bij een bepaald significantieniveau ($\alpha$) en vrijheidsgraden wordt gebruikt om de berekende F-statistiek te beoordelen [22](#page=22).
* **Voorbeeld:** Voor een F-statistiek met 3 vrijheidsgraden in de teller en 21 in de noemer:
* Bij $\alpha = 0,05$ is de kritieke F-waarde 3,47 [48](#page=48).
* Bij $\alpha = 0,01$ is de kritieke F-waarde hoger, wat een strengere eis stelt voor significantie [22](#page=22).
Als de berekende F-waarde lager is dan de kritieke F-waarde, wordt de nulhypothese niet verworpen [48](#page=48).
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Enkelvoudige variantieanalyse | Een statistische toets die gebruikt wordt om te bepalen of de gemiddelden van de afhankelijke variabele significant van elkaar verschillen tussen twee of meer groepen, bepaald door één categorische onafhankelijke variabele. |
| Analysis of variance (ANOVA) | Een statistische methode die de totale variatie in een dataset verdeelt in componenten die aan verschillende bronnen van variatie kunnen worden toegeschreven, om hypothesen te toetsen over groepsgemiddelden. |
| Onafhankelijke variabele | Een variabele die wordt gemanipuleerd of gemeten om het effect ervan op een andere variabele te observeren; in ANOVA is deze variabele categorisch en definieert deze de groepen. |
| Afhankelijke variabele | Een variabele die wordt gemeten om te zien of deze wordt beïnvloed door de onafhankelijke variabele; in ANOVA is deze variabele metrisch. |
| Groepsvariabele | Een synoniem voor de onafhankelijke variabele wanneer deze categorisch is en observaties in verschillende groepen indeelt voor vergelijking. |
| Partitionering van de som van de kwadraten | Het proces waarbij de totale spreiding (Sum of Squares) van de afhankelijke variabele wordt opgesplitst in delen die verklaard kunnen worden door de onafhankelijke variabele (Between Groups SS) en delen die niet verklaard kunnen worden (Within Groups SS). |
| Sum of Squares (SS) | De som van de gekwadrateerde afwijkingen van waarnemingen ten opzichte van een gemiddelde. Het meet de totale spreiding binnen een dataset of een deel daarvan. |
| Within Groups SS (binnengroeps SS) | De som van de gekwadrateerde afwijkingen van individuele scores van hun eigen groepsgemiddelde. Dit vertegenwoordigt de variatie binnen de groepen, ook wel de 'niet-verklaarde' variatie genoemd. |
| Between Groups SS (tussengroepsvariantie) | De som van de gekwadrateerde afwijkingen van de groepsgemiddelden van het algemene gemiddelde. Dit vertegenwoordigt de variatie tussen de groepen, ook wel de 'verklaarde' variatie genoemd. |
| Degrees of Freedom (DF) | Het aantal onafhankelijke waarnemingen dat vrij kan variëren na het schatten van parameters. Voor groepen is dit het aantal groepen minus 1, en voor observaties binnen groepen is het het totale aantal observaties min het aantal groepen. |
| Mean Squares (MS) | De variantie binnen een groep of tussen groepen, berekend door de Sum of Squares te delen door de bijbehorende Degrees of Freedom. |
| F-toets | Een statistische toets die de verhouding berekent tussen de variantie tussen groepen en de variantie binnen groepen. Een hoge F-waarde suggereert significante verschillen tussen groepsgemiddelden. |
| Kritische F-waarde | De drempelwaarde uit de F-verdeling waartegen de berekende F-statistiek wordt vergeleken om de significantie van de resultaten te bepalen, afhankelijk van de gekozen significantieniveau ($\alpha$) en de vrijheidsgraden. |
| Eta² (Eta squared) | Een maat voor de effectgrootte in ANOVA, die het deel van de totale variatie in de afhankelijke variabele weergeeft dat verklaard wordt door de onafhankelijke variabele. Het is de verhouding tussen de tussengroepsvariatie en de totale variatie. |
| Nulhypothese (H₀) | De hypothese dat er geen statistisch significant verschil is tussen de groepsgemiddelden van de afhankelijke variabele. |
| Alternatieve hypothese (Hₐ) | De hypothese dat er wel een statistisch significant verschil is tussen ten minste twee groepsgemiddelden van de afhankelijke variabele. |
| p-waarde | De kans om een teststatistiek te verkrijgen die minstens zo extreem is als de waargenomen statistiek, ervan uitgaande dat de nulhypothese waar is. Een lage p-waarde (typisch < 0.05) leidt tot verwerping van de nulhypothese. |