Cover
Comença ara de franc Student - Hoorcollege 6 - Toetsen voor 2 onafh SP.pptx
Summary
# Inleiding tot toetsen voor twee populaties
Hieronder volgt een gedetailleerde samenvatting voor het onderwerp "Inleiding tot toetsen voor twee populaties", gericht op examenvoorbereiding.
## 1. Inleiding tot toetsen voor twee populaties
Dit hoofdstuk introduceert het concept van het vergelijken van twee onafhankelijke steekproeven om het effect van interventies of verschillen tussen groepen te onderzoeken.
### 1.1 Het doel van het vergelijken van twee populaties
Wanneer we het effect van een interventie of een verschil tussen twee groepen willen onderzoeken, is het noodzakelijk om twee onafhankelijke steekproeven met elkaar te vergelijken. Dit kan bijvoorbeeld door een methode of therapie toe te passen op één groep (experimentele groep) en een andere groep niet aan te wenden (controlegroep). De centrale vraag is of een waargenomen verschil toe te wijzen is aan de interventie of therapie.
### 1.2 De aanpak: toetsen voor twee populaties
De algemene aanpak voor het toetsen van twee populaties volgt een gestructureerd stramien, vergelijkbaar met toetsen voor één populatie:
1. **Toetsingssituatie:** Begrijpen van de onderzoeksvraag, identificeren van afhankelijke en onafhankelijke variabelen, en het meetniveau van de variabelen. Specifiek voor dit hoofdstuk wordt er gefocust op situaties met **twee populaties** en **onafhankelijke steekproeven**.
2. **Voorwaarden:** Nagaan of de statistische voorwaarden voor de gekozen toets voldaan zijn.
3. **Hypothesen:** Formuleren van de nulhypothese ($H_0$) en de alternatieve hypothese ($H_1$).
4. **Toetsingsgrootheid:** Identificeren van de te berekenen toetsingsgrootheid en de bijbehorende kansverdeling. Berekenen van de waarde van de toetsingsgrootheid met de correcte formule.
5. **Beslissingsregel:** Bepalen wanneer de nulhypothese wordt verworpen, gebruikmakend van overschrijdingskansen of kritieke waarden.
6. **Effectgrootte:** Kwantificeren van de belangrijkheid van het gevonden effect.
7. **Rapporteren:** Correct rapporteren van de resultaten van de statistische toets.
### 1.3 Onafhankelijke vs. Afhankelijke Steekproeven
Bij het vergelijken van twee populaties is het cruciaal om het onderscheid te maken tussen afhankelijke en onafhankelijke steekproeven:
* **Afhankelijke steekproeven:**
* **Herhaalde metingen:** Dezelfde groep proefpersonen wordt op twee of meer verschillende momenten gemeten.
* **Gematchte paren:** Personen in de ene groep zijn gematcht met personen in de andere groep op basis van specifieke kenmerken (bijvoorbeeld leeftijd, geslacht, startniveau).
* **Onafhankelijke steekproeven:**
* De trekking van de tweede steekproef is onafhankelijk van de samenstelling van de eerste steekproef.
* Er is sprake van volledig random toewijzing.
* De grootte van de steekproeven kan verschillen.
* Een deelnemer mag slechts één keer voorkomen in beide steekproeven.
Dit hoofdstuk focust specifiek op toetsen voor **twee onafhankelijke steekproeven**.
### 1.4 De t-toets voor twee onafhankelijke steekproeven (parametrisch)
De t-toets voor twee onafhankelijke steekproeven wordt gebruikt wanneer men twee steekproeven wil vergelijken en de afhankelijke variabele van intervalniveau is en bij benadering normaal verdeeld is in de populatie. De centrale vraag is of het verschil tussen de twee populatiegemiddelden ($\mu_1$ en $\mu_2$) te wijten is aan toeval of aan een systematisch verschil tussen de groepen.
#### 1.4.1 Toetsingssituatie
De toetsingssituatie is: Verschilt het gemiddelde in populatie 1 van het gemiddelde in populatie 2 waaruit de onafhankelijke steekproeven afkomstig zijn?
#### 1.4.2 Hypothesen
* **Eenzijdig:**
* Linkseenzijdig: $H_0: \mu_1 \ge \mu_2$ en $H_1: \mu_1 < \mu_2$
* Rechtseenzijdig: $H_0: \mu_1 \le \mu_2$ en $H_1: \mu_1 > \mu_2$
* **Tweezijdig:**
* $H_0: \mu_1 = \mu_2$ en $H_1: \mu_1 \ne \mu_2$
#### 1.4.3 Toetsingsgrootheid: Gelijke of Ongelijke Varianties
Een cruciaal aspect bij het berekenen van de t-statistiek is het bepalen of de varianties in de twee populaties gelijk zijn ($\sigma^2_1 = \sigma^2_2$) of ongelijk ($\sigma^2_1 \ne \sigma^2_2$). Hiervoor wordt eerst een F-toets uitgevoerd als hulpstap.
* **Variant 1: Gelijke varianties ($\sigma^2_1 = \sigma^2_2$)**
* In dit geval wordt gebruik gemaakt van een **gepoolde variantie** ($s_p^2$) om de t-statistiek te berekenen.
* De formule voor de gepoolde variantie is:
$$s_p^2 = \frac{(n_1 - 1)s_1^2 + (n_2 - 1)s_2^2}{n_1 + n_2 - 2}$$
Waarbij $n_1$ en $n_2$ de steekproefgroottes zijn en $s_1^2$ en $s_2^2$ de steekproefvarianties.
* De formule voor de t-statistiek met gelijke varianties is:
$$t = \frac{(\bar{x}_1 - \bar{x}_2) - (\mu_1 - \mu_2)}{\sqrt{s_p^2 \left(\frac{1}{n_1} + \frac{1}{n_2}\right)}}$$
Onder $H_0$ wordt $\mu_1 - \mu_2 = 0$ gesteld. De t-statistiek heeft dan vrijheidsgraden $df = n_1 + n_2 - 2$.
* **Variant 2: Ongelijke varianties ($\sigma^2_1 \ne \sigma^2_2$)**
* Hierbij wordt **geen gepoolde variantie** gebruikt. De varianties in elke steekproef ($s_1^2$ en $s_2^2$) worden direct gebruikt.
* De formule voor de t-statistiek met ongelijke varianties (ook bekend als de Welch t-toets) is:
$$t = \frac{(\bar{x}_1 - \bar{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}}$$
* Het berekenen van de vrijheidsgraden ($df$) is complexer en wordt vaak benaderd met de Welch-Satterthwaite vergelijking, die door statistische software wordt berekend.
#### 1.4.4 Beslissingsregel
De beslissingsregel is analoog aan de t-toets voor één populatie:
* **Via kritieke waarden:** Als de berekende t-statistiek buiten het betrouwbaarheidsinterval (bepaald door de kritieke waarde uit de t-verdeling met de juiste $df$) valt, wordt $H_0$ verworpen.
* **Via overschrijdingskansen (p-waarde):** Als de berekende p-waarde kleiner is dan het significantieniveau ($\alpha$), wordt $H_0$ verworpen.
#### 1.4.5 Effectgrootte
Een veelgebruikte maat voor effectgrootte bij de t-toets voor twee onafhankelijke steekproeven is Cohen's $r$ (voor correlatie, wat hier een interpretatie kan hebben als de mate van overlap).
> **Tip:** Bij het rapporteren is het belangrijk om duidelijk aan te geven of er is uitgegaan van gelijke of ongelijke varianties. SPSS toont dit vaak door middel van een F-toets op de varianties. Een niet-significante F-toets (p > .05) suggereert dat de varianties gelijk zijn en de formule voor gelijke varianties gebruikt kan worden.
#### 1.4.6 Rapportering
Een standaard rapportage van een onafhankelijke t-toets bevat:
1. De onderzoeksvraag en de uitgevoerde toets.
2. Beschrijvende statistieken van de steekproeven (gemiddelde, standaarddeviatie).
3. De resultaten van de statistische toets (t-waarde, vrijheidsgraden, p-waarde) en de effectgrootte.
*Voorbeeld van rapportage:*
Om na te gaan of er een verschil was in dopaminescores tussen groep 1 (favoriete muziek) en groep 2 (andere muziek) werd een onafhankelijke t-toets uitgevoerd. Gemiddeld werden er hogere dopaminescores gemeten in groep 1 ($M = 16.03, SD = 2.66$) dan in groep 2 ($M = 13.96, SD = 2.94$). Dit verschil was statistisch significant op niveau $\alpha = .05$, $t(58) = 2.86, p = .006, r = .35$.
### 1.5 De Wilcoxon Rank-Sum Toets (Mann-Whitney U-toets) (non-parametrisch)
De Wilcoxon Rank-Sum Toets (ook bekend als de Mann-Whitney U-toets) is de non-parametrische tegenhanger van de t-toets voor twee onafhankelijke steekproeven. Deze toets wordt gebruikt wanneer niet aan de assumpties van de t-toets is voldaan, met name:
* De afhankelijke variabele is van ordinaal niveau (niet interval).
* De afhankelijke variabele is niet normaal verdeeld in de populatie, en de steekproefgrootte is klein (bijvoorbeeld $n < 30$ per groep).
#### 1.5.1 Toetsingssituatie
De toetsingssituatie is: Verschillen de scores in populatie 1 over het algemeen van de scores in populatie 2 waaruit de onafhankelijke steekproeven afkomstig zijn? Dit wordt beoordeeld op basis van de rangordes van de data.
#### 1.5.2 Voorwaarden
* Onafhankelijke steekproeven.
* De afhankelijke variabele is minimaal van ordinaal niveau.
* Niet voldaan aan de voorwaarden voor een parametrische toets (zoals normaliteit of intervalniveau van de AV).
#### 1.5.3 Hypothesen
De nulhypothese stelt dat er geen systematisch verschil is tussen de twee populaties wat betreft de verdeling van de scores. De alternatieve hypothese stelt dat er wel een verschil is.
* $H_0$: De verdeling van de scores in populatie 1 is gelijk aan de verdeling van de scores in populatie 2.
* $H_1$: De verdeling van de scores in populatie 1 verschilt systematisch van de verdeling van de scores in populatie 2.
#### 1.5.4 Toetsingsgrootheid
Het proces omvat de volgende stappen:
1. **Rangschikken:** Alle verzamelde data uit beide steekproeven worden gecombineerd en van laag naar hoog gerangschikt, ongeacht tot welke groep de data behoort.
2. **Som van de rangen:** De rangen worden opgeteld per groep. Dit levert de 'rangensom' voor elke groep op (bijvoorbeeld $W_s$ of $U$).
3. **Omrekenen naar Z-score:** De kleinste rangensom wordt omgezet naar een Z-score, waarbij de verwachting en standaardfout van de rangensom worden berekend.
* Verwachte rangensom onder $H_0$:
$$E(W_s) = \frac{n_1(n_1 + n_2 + 1)}{2}$$
* Standaardfout van de rangensom (voor ongelijke steekproefgroottes):
$$SE(W_s) = \sqrt{\frac{n_1 n_2 (n_1 + n_2 + 1)}{12}}$$
* Z-score:
$$z = \frac{W_s - E(W_s)}{SE(W_s)}$$
#### 1.5.5 Beslissingsregel
De beslissingsregel is gebaseerd op de berekende Z-score en de bijbehorende p-waarde, vergelijkbaar met andere Z-toetsen:
* Als de p-waarde kleiner is dan het significantieniveau ($\alpha$), wordt $H_0$ verworpen.
#### 1.5.6 Effectgrootte
Een veelgebruikte effectgrootte is Cohen's $r$, die gerelateerd is aan de Z-score en de steekproefgroottes:
$$r = \frac{|z|}{\sqrt{n_1 + n_2}}$$
#### 1.5.7 Rapportering
Een typische rapportage voor de Wilcoxon Rank-Sum Toets:
1. Onderzoeksvraag en uitgevoerde toets.
2. Beschrijvende statistieken (bijvoorbeeld mediaan, interkwartielafstand) van de groepen.
3. Resultaten van de toets (rangensom, Z-score, p-waarde) en de effectgrootte.
*Voorbeeld van rapportage:*
Om na te gaan of het subjectief welbevinden groter was bij het luisteren naar favoriete muziek vergeleken met niet-favoriete muziek, werd een Wilcoxon Rank-Sum toets uitgevoerd. De score voor subjectief welbevinden was hoger in de conditie met favoriete muziek (Mdn = 4) dan in de conditie met niet-favoriete muziek (Mdn = 3). Dit verschil was significant op $\alpha = .05$-niveau, $W_s = 167.5, z = -2.7, p = .006, r = .51$.
> **Tip:** Bij het examen is het essentieel om te weten wanneer welke toets (t-toets of Wilcoxon Rank-Sum) gebruikt moet worden, gebaseerd op het meetniveau van de afhankelijke variabele en de aannames van de toetsen. Het correct kunnen interpreteren van SPSS-output, inclusief de output van de F-toets voor variantiehomogeniteit bij de t-toets, is ook cruciaal.
---
# De t-toets voor twee onafhankelijke steekproeven
Dit onderwerp behandelt de parametrische t-toets voor het vergelijken van gemiddelden van twee onafhankelijke groepen, inclusief de beslissingsregels en rapportage, met aandacht voor varianten bij gelijke en ongelijke populatievarianties.
### 2.1 Toetsingssituatie
De t-toets voor twee onafhankelijke steekproeven wordt gebruikt wanneer men twee onafhankelijke steekproeven met elkaar wil vergelijken om te bepalen of het gemiddelde in de ene populatie verschilt van het gemiddelde in de andere populatie. Dit is relevant bij onderzoeksvragen die een verschil in gemiddelde proberen aan te tonen tussen twee groepen, zoals het vergelijken van genders in het aantal gemiste lessen, of het effect van een therapie (experimentele groep) versus geen therapie (controlegroep).
**Onderzoeksvraag:** Verschilt het gemiddelde in populatie 1 van het gemiddelde in populatie 2 waaruit de steekproeven afkomstig zijn?
**Kenmerken:**
* Er worden twee onafhankelijke steekproeven vergeleken.
* De afhankelijke variabele is gemeten op intervalniveau.
### 2.2 Onafhankelijke versus afhankelijke steekproeven
Het is cruciaal om onderscheid te maken tussen onafhankelijke en afhankelijke steekproeven:
* **Onafhankelijke steekproeven:** De samenstelling van de ene steekproef is niet gerelateerd aan die van de andere. Deelnemers komen slechts één keer voor in het gehele onderzoek. Een voorbeeld is het vergelijken van jongens en meisjes.
* **Afhankelijke steekproeven:** Deze komen voort uit herhaalde metingen op dezelfde groep proefpersonen of uit gematchte paren. Bijvoorbeeld: het meten van een variabele voor en na een interventie bij dezelfde groep, of het matchen van deelnemers op basis van kenmerken voordat ze aan verschillende condities worden toegewezen.
Dit hoofdstuk focust specifiek op de t-toets voor **onafhankelijke steekproeven**.
### 2.3 Voorwaarden voor de t-toets
Om de t-toets voor twee onafhankelijke steekproeven correct toe te passen, moet aan de volgende voorwaarden worden voldaan:
* De afhankelijke variabele is gemeten op interval- of ratio niveau.
* De observaties binnen elke groep zijn onafhankelijk.
* De populaties waaruit de steekproeven afkomstig zijn, zijn normaal verdeeld (vooral belangrijk bij kleine steekproeven, $n < 30$).
* De varianties in de twee populaties zijn gelijk (of worden als gelijk beschouwd). Hier wordt later dieper op ingegaan met een variant om hiermee om te gaan.
### 2.4 Hypothesen
De hypothesen voor de t-toets voor twee onafhankelijke steekproeven richten zich op de gemiddelden van de twee populaties ($\mu_1$ en $\mu_2$):
* **Eenzijdig links:**
* $H_0: \mu_1 \ge \mu_2$
* $H_1: \mu_1 < \mu_2$
* **Eenzijdig rechts:**
* $H_0: \mu_1 \le \mu_2$
* $H_1: \mu_1 > \mu_2$
* **Tweezijdig:**
* $H_0: \mu_1 = \mu_2$
* $H_1: \mu_1 \neq \mu_2$
### 2.5 Berekening van de toetsingsgrootheid
De berekening van de toetsingsgrootheid hangt af van de aanname over de populatievarianties. Eerst wordt getest of de populatievarianties gelijk zijn of niet.
#### 2.5.1 Testen op gelijke populatievarianties (F-toets)
Voordat de t-toets berekend kan worden, wordt met een F-toets nagegaan of de varianties in de twee populaties gelijk zijn.
* **Formule F-toets:**
$$F = \frac{s^2_{\text{groot}}}{s^2_{\text{klein}}}$$
waarbij $s^2_{\text{groot}}$ de grotere en $s^2_{\text{klein}}$ de kleinere steekproefvariantie is.
* **Beslissingsregel F-toets:**
De nulhypothese ($H_0: \sigma^2_1 = \sigma^2_2$) wordt verworpen als de berekende F-waarde groter is dan de kritieke F-waarde uit de F-tabel voor de gegeven vrijheidsgraden (df1 = $n_1 - 1$, df2 = $n_2 - 1$) en het gekozen significantieniveau ($\alpha$). Bij een tweezijdige toets wordt de kritieke waarde vaak bepaald op $\alpha/2$.
* Indien F < Kritieke F-waarde: Populatievarianties worden als gelijk beschouwd.
* Indien F $\ge$ Kritieke F-waarde: Populatievarianties worden als ongelijk beschouwd.
#### 2.5.2 T-toets met gelijke populatievarianties (Variant 1)
Als uit de F-toets blijkt dat de populatievarianties gelijk zijn ($\sigma^2_1 = \sigma^2_2$), wordt een gepoolde variantie gebruikt.
* **Gepoolde variantie ($s_p^2$):**
$$s_p^2 = \frac{(n_1 - 1)s^2_1 + (n_2 - 1)s^2_2}{n_1 + n_2 - 2}$$
* **Formule toetsingsgrootheid t:**
$$t = \frac{(\bar{x}_1 - \bar{x}_2) - (\mu_1 - \mu_2)}{\sqrt{s_p^2 \left(\frac{1}{n_1} + \frac{1}{n_2}\right)}}$$
Onder de nulhypothese is $(\mu_1 - \mu_2) = 0$.
* **Vrijheidsgraden (df):**
$df = n_1 + n_2 - 2$
#### 2.5.3 T-toets met ongelijke populatievarianties (Variant 2 - Welch's t-test)
Als uit de F-toets blijkt dat de populatievarianties ongelijk zijn ($\sigma^2_1 \neq \sigma^2_2$), wordt een aangepaste formule gebruikt.
* **Formule toetsingsgrootheid t:**
$$t = \frac{(\bar{x}_1 - \bar{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{s^2_1}{n_1} + \frac{s^2_2}{n_2}}}$$
Onder de nulhypothese is $(\mu_1 - \mu_2) = 0$.
* **Vrijheidsgraden (df):**
De berekening van de vrijheidsgraden is complexer en volgt de Welch-Satterthwaite vergelijking:
$$df \approx \frac{\left(\frac{s^2_1}{n_1} + \frac{s^2_2}{n_2}\right)^2}{\frac{\left(\frac{s^2_1}{n_1}\right)^2}{n_1 - 1} + \frac{\left(\frac{s^2_2}{n_2}\right)^2}{n_2 - 1}}$$
De vrijheidsgraden zijn hierdoor vaak geen geheel getal.
> **Tip:** In softwarepakketten zoals SPSS wordt deze variant vaak automatisch toegepast wanneer de varianties als ongelijk worden beschouwd.
### 2.6 Beslissingsregel
Net als bij de t-toets voor één populatie, wordt de nulhypothese verworpen op basis van de berekende t-waarde en de vrijheidsgraden, hetzij via kritieke waarden of overschrijdingskansen (p-waarde).
* **Via kritieke waarden:** Als de berekende t-waarde buiten het acceptatiegebied valt (d.w.z. kleiner is dan de kritieke t-waarde voor een eenzijdige toets of groter/kleiner is dan de kritieke waarden voor een tweezijdige toets, afhankelijk van de richting van het verschil), wordt $H_0$ verworpen.
* **Via overschrijdingskansen (p-waarde):** Als de berekende p-waarde kleiner is dan het vooraf gekozen significantieniveau ($\alpha$), wordt $H_0$ verworpen.
### 2.7 Effectgrootte
Naast de significantie van het resultaat, is het belangrijk om de effectgrootte te rapporteren om de praktische relevantie van het gevonden verschil te beoordelen.
* **Cohen's d (voor onafhankelijke t-toets):**
Een veelgebruikte maat voor de effectgrootte is Cohen's d. Bij gelijke varianties wordt deze berekend als:
$$d = \frac{\bar{x}_1 - \bar{x}_2}{s_p}$$
waarbij $s_p$ de wortel van de gepoolde variantie is.
Bij ongelijke varianties is er geen eenduidige formule, en wordt vaak de formule met de gemiddelde standaarddeviatie gebruikt:
$$d = \frac{\bar{x}_1 - \bar{x}_2}{\sqrt{\frac{s^2_1 + s^2_2}{2}}}$$
* **Interpretatie Cohen's d:**
* 0.2: klein effect
* 0.5: gemiddeld effect
* 0.8: groot effect
### 2.8 Rapporteren
De resultaten van een t-toets voor twee onafhankelijke steekproeven dienen gestructureerd te worden gerapporteerd.
* **Onderzoeksvraag en gebruikte toets:** Geef aan wat onderzocht werd en welke toets is gebruikt (bijv. "independent samples t-test").
* **Steekproefgegevens:** Rapporteer de gemiddelden ($\bar{x}$), standaarddeviaties ($s$) en steekproefgroottes ($n$) voor elke groep.
* **Statistische toets resultaten:** Rapporteer de t-waarde, de vrijheidsgraden (df), de p-waarde, en de effectgrootte (bijv. Cohen's d). Vermeld expliciet of het resultaat significant was op het gekozen $\alpha$-niveau.
**Voorbeeld rapportage:**
"Om na te gaan of er een verschil was in dopaminescores tussen groep 1 (experimentele groep) en groep 2 (controlegroep), werd een onafhankelijke t-toets uitgevoerd. Gemiddeld werd er een hogere dopaminescore gemeten in groep 1 ($M = 16.03, SD = 2.66, n=30$) dan in groep 2 ($M = 13.96, SD = 2.94, n=30$). Dit verschil was statistisch significant, $t(58) = 2.86, p = .006$. De effectgrootte, gemeten met Cohen's d, was $d = 0.73$, wat duidt op een gemiddeld tot groot effect."
### 2.9 Non-parametrische alternatief: Wilcoxon Rank-sum toets (Mann-Whitney U-toets)
Wanneer niet aan de voorwaarden van de t-toets (met name normaliteit en intervalniveau van de afhankelijke variabele) is voldaan, kan de Wilcoxon Rank-sum toets (ook wel Mann-Whitney U-toets genoemd) worden gebruikt. Deze toets vergelijkt rangordes in plaats van gemiddelden.
* **Toetsingssituatie:** Vergelijken van twee onafhankelijke groepen op een ordinale variabele, of wanneer de afhankelijke variabele niet normaal verdeeld is en de steekproef klein ($n<30$).
* **Hypothesen:** Focussen op verschillen in de verdeling of centrale tendens van de groepen (bv. $H_0$: geen verschil in de centrale tendens, $H_1$: verschil in de centrale tendens).
* **Toetsingsgrootheid:** De toetsingsgrootheid (vaak aangeduid als $W_s$ of $U$) is gebaseerd op de som van de rangen van één van de groepen. Deze wordt omgezet naar een z-score voor de beslissingsregel.
* **Effectgrootte:** Vaak gerapporteerd als $r = \frac{|z|}{\sqrt{n_{totaal}}}$.
> **Tip:** Wees alert op de overlap in de toetsingssituatie tussen de t-toets en de Wilcoxon toets. De keuze hangt af van de meetniveaus en de aannames over normaliteit.
### 2.10 SPSS Voorbeeld
In SPSS wordt de "Independent Samples T-Test" uitgevoerd. De output bevat een F-toets voor de gelijkheid van varianties. Als deze F-toets niet significant is ($p > .05$), wordt de t-toets berekend met gelijke varianties. Als de F-toets wel significant is ($p < .05$), wordt de t-toets berekend met ongelijke varianties (variant 2, Welch's t-test). Belangrijk is om de juiste rij in de SPSS-output te interpreteren afhankelijk van de significantie van de F-toets.
---
# De Wilcoxon rank-sum toets (Mann-Whitney U-toets)
Dit gedeelte beschrijft de non-parametrische Wilcoxon rank-sum toets, een alternatief voor de t-toets voor twee onafhankelijke steekproeven wanneer de aannames van de t-toets niet voldaan zijn.
### 3.1 Inleiding en toetsingssituatie
De Wilcoxon rank-sum toets (ook bekend als de Mann-Whitney U-toets) wordt gebruikt wanneer men twee onafhankelijke groepen wil vergelijken, maar de afhankelijke variabele niet voldoet aan de voorwaarden voor een parametrische toets zoals de t-toets. Dit is typisch het geval wanneer de afhankelijke variabele:
* Op een ordinaal meetniveau is.
* Niet normaal verdeeld is in de populatie, vooral bij kleine steekproeven (kleiner dan 30 per groep).
De centrale vraag die met deze toets wordt beantwoord, is of de scores in de ene populatie over het algemeen verschillen van de scores in de andere populatie.
### 3.2 Voorwaarden voor de toets
De volgende voorwaarden moeten vervuld zijn om de Wilcoxon rank-sum toets te kunnen toepassen:
* **Onafhankelijke steekproeven:** De twee te vergelijken groepen moeten onafhankelijk van elkaar zijn. Dit betekent dat de selectie van deelnemers in de ene groep geen invloed heeft op de selectie van deelnemers in de andere groep.
* **Niet voldaan aan voorwaarden voor parametrische toetsen:** De assumpties van de t-toets voor twee onafhankelijke steekproeven zijn niet vervuld. Dit houdt in:
* De afhankelijke variabele is niet gemeten op intervalniveau, maar op minimaal ordinaal niveau.
* De afhankelijke variabele is niet normaal verdeeld in de populatie(s), vooral bij kleine steekproeven.
* **Meetniveau van de afhankelijke variabele:** De afhankelijke variabele is minstens van ordinaal niveau.
### 3.3 Hypothesen
De nulhypothese ($H_0$) en de alternatieve hypothese ($H_1$) voor de Wilcoxon rank-sum toets worden als volgt geformuleerd:
* **Tweezijdige toets:**
* $H_0: \text{De verdelingen van de scores in de twee populaties zijn gelijk.}$
* $H_1: \text{De verdelingen van de scores in de twee populaties zijn niet gelijk.}$
Dit kan ook geformuleerd worden in termen van medianen:
* $H_0: \text{Mediaan}_1 = \text{Mediaan}_2$
* $H_1: \text{Mediaan}_1 \neq \text{Mediaan}_2$
* **Eenzijdige toetsen:**
* Linkseenzijdig:
* $H_0: \text{Mediaan}_1 \ge \text{Mediaan}_2$
* $H_1: \text{Mediaan}_1 < \text{Mediaan}_2$
* Rechtseenzijdig:
* $H_0: \text{Mediaan}_1 \le \text{Mediaan}_2$
* $H_1: \text{Mediaan}_1 > \text{Mediaan}_2$
### 3.4 Toetsingsgrootheid
De berekening van de toetsingsgrootheid voor de Wilcoxon rank-sum toets verloopt via de volgende stappen:
1. **Combineren en rangschikken:** Alle waarnemingen uit beide steekproeven worden samengevoegd en van laag naar hoog gerangschikt. Gelijkwaardige waarden krijgen het gemiddelde van hun rangen toegekend.
2. **Som van de rangen per groep:** De rangen worden terug toegewezen aan hun oorspronkelijke groep. Vervolgens worden de sommen van de rangen voor elke groep berekend. Deze sommen worden aangeduid als $W_1$ en $W_2$.
3. **Berekening van de toetsingsgrootheid:** De kleinste van de twee rangensommen wordt gebruikt als basis voor de toetsingsgrootheid. Bij grote steekproeven kan deze rangensom worden omgezet naar een $z$-score.
* Verwachte rangensom onder $H_0$:
$$ E(W) = \frac{n_1 (N+1)}{2} $$
waarbij $n_1$ de steekproefgrootte van groep 1 is en $N$ de totale steekproefgrootte ($N = n_1 + n_2$).
* Standaardfout van de rangensom:
$$ SE(W) = \sqrt{\frac{n_1 n_2 (N+1)}{12}} $$
* $z$-score:
$$ z = \frac{W - E(W)}{SE(W)} $$
waarbij $W$ de geobserveerde, kleinste rangensom is.
Voor kleine steekproeven wordt de $W$-statistiek direct vergeleken met kritieke waarden uit een speciale tabel voor de Wilcoxon rank-sum toets.
### 3.5 Beslissingsregel
De beslissingsregel is analoog aan die van andere toetsen:
* Als de berekende toetsingsgrootheid (bijvoorbeeld de $z$-score) leidt tot een overschrijdingskans ($p$-waarde) die kleiner is dan het vooraf bepaalde significantieniveau $\alpha$, wordt de nulhypothese ($H_0$) verworpen.
* Als de $p$-waarde groter is dan of gelijk is aan $\alpha$, wordt de nulhypothese niet verworpen.
Voor een tweezijdige toets wordt de $p$-waarde vaak berekend als $2 \times P(\text{zscore} < \text{geobserveerde z-score})$.
### 3.6 Effectgrootte
De effectgrootte voor de Wilcoxon rank-sum toets kan worden berekend met behulp van de $z$-score:
$$ r = \frac{z}{\sqrt{N}} $$
waarbij $z$ de berekende $z$-score is en $N$ de totale steekproefgrootte.
### 3.7 Rapporteren van de resultaten
De resultaten van een Wilcoxon rank-sum toets worden gerapporteerd volgens een gestandaardiseerd sjabloon:
1. **Onderzoeksvraag en toets:** Beschrijf de onderzoeksvraag en vermeld welke toets is gebruikt.
2. **Steekproefgegevens:** Geef de beschrijvende statistieken weer voor elke groep, bij voorkeur de medianen ($Mdn$) en de spreiding (bijvoorbeeld interkwartielafstand of gewoon de rangensommen).
3. **Resultaten van de statistische toets:** Vermeld de toetsingsgrootheid ($W_s$ of $z$), de vrijheidsgraden (indien van toepassing voor de $z$-score omzetting), de $p$-waarde en de effectgrootte.
**Voorbeeld van rapportering:**
"Om na te gaan of het subjectief welbevinden van mensen groter is bij het luisteren naar favoriete muziek in tegenstelling tot niet-favoriete muziek werd een Wilcoxon rank-sum toets uitgevoerd. De score voor subjectief welbevinden was hoger in de conditie met favoriete muziek ($Mdn$ = 4) dan in de conditie met niet-favoriete muziek ($Mdn$ = 3). Dit verschil was significant op $\alpha = .05$-niveau, $W_s = 167.5$, $z = -2.7$, $p = .006$, $r = .51$."
> **Tip:** De Wilcoxon rank-sum toets is een krachtig non-parametrisch alternatief wanneer de aannames voor de t-toets niet voldaan zijn. Het is essentieel om de aard van de afhankelijke variabele en de verdeling ervan te beoordelen voordat de keuze voor een toets wordt gemaakt.
> **Voorbeeld:** Evelien wil onderzoeken of mensen zich gelukkiger voelen wanneer ze naar hun favoriete muziek luisteren dan wanneer ze naar andere muziek luisteren. De geluksgevoelens worden gescoord op een vijfpuntenschaal (ordinaal niveau), en de steekproefgroottes zijn klein. In dit geval is de Wilcoxon rank-sum toets de geschikte statistische toets.
---
# Tips voor examen en SPSS-interpretatie
Dit deel biedt praktische adviezen voor het examen, met nadruk op het herkennen van de juiste toets, het begrijpen van de voorwaarden, het gebruik van het formularium en het correct interpreteren van SPSS-output, inclusief de F- en t-significantie.
### 4.1 Algemene examenvoorbereiding
Een goede voorbereiding op het examen vereist dat je de leerdoelen van de cursus helder hebt. Zorg ervoor dat je de volgende aspecten beheerst:
* **Herkenning van toetsen:** Weet wanneer welke toets gebruikt moet worden.
* **Begrip van voorwaarden:** Ken de statistische assumpties waaraan voldaan moet zijn voor elke specifieke toets.
* **Gebruik van het formularium:** Wees in staat om de benodigde berekeningen zelfstandig uit te voeren met behulp van het formularium.
* **Interpretatie van SPSS-output:** Begrijp hoe SPSS-output te lezen en correct te interpreteren, met speciale aandacht voor significantiewaarden.
> **Tip:** Houd de leerdoelen bij de hand tijdens het studeren om je focus te behouden en te weten wat er van je verwacht wordt.
### 4.2 Toetsen voor twee populaties: een overzicht
Waar voorheen toetsen voor één populatie werden behandeld (waarbij een steekproefgemiddelde werd vergeleken met een bekend populatiegemiddelde), richt dit hoofdstuk zich op het vergelijken van **twee populaties** aan de hand van twee onafhankelijke steekproeven. De centrale vraag is of een waargenomen verschil tussen de twee groepen toe te schrijven is aan toeval of aan een systematisch effect (bijvoorbeeld een therapie of interventie).
#### 4.2.1 Keuze van de juiste toets
De keuze voor de juiste statistische toets hangt af van verschillende factoren die je zorgvuldig moet analyseren:
1. **Onderzoeksvraag:** Begrijp de onderzoeksvraag volledig.
2. **Variabelen:** Identificeer de afhankelijke en onafhankelijke variabelen.
3. **Meetniveau afhankelijke variabele (AV):**
* **Intervalniveau:** Hierbij zijn parametrische toetsen zoals de t-toets geschikt.
* **Nominaal/Ordinaal niveau:** Hierbij zijn non-parametrische toetsen zoals de Wilcoxon rank-sum toets aangewezen.
4. **Aantal populaties:** In dit hoofdstuk ligt de focus op twee populaties.
5. **Steekproefafhankelijkheid:**
* **Onafhankelijke steekproeven:** Deelnemers in de ene groep hebben geen relatie met deelnemers in de andere groep. Dit is de focus van dit hoofdstuk.
* **Afhankelijke steekproeven:** Deelnemers zijn herhaaldelijk gemeten (repeated measures) of gematcht op basis van bepaalde kenmerken.
6. **Parametrisch vs. Non-parametrisch:** Dit wordt bepaald door het meetniveau van de AV en de verdelingsassumpties.
7. **Eenzijdig vs. Tweezijdig:** Bepaal of er een specifieke richting van het verwachte verschil is of dat er enkel een verschil wordt verwacht.
#### 4.2.2 Stramien voor het toetsen (het 7-stappenplan)
Elke toetsingssituatie volgt een gestructureerd stramien:
1. **Toetsingssituatie:** Identificeer de concrete situatie en het type onderzoeksvraag dat met de toets beantwoord kan worden.
2. **Voorwaarden:** Controleer of aan de statistische assumpties van de gekozen toets is voldaan.
3. **Hypothesen:** Formuleer de nulhypothese ($H_0$) en de alternatieve hypothese ($H_1$).
4. **Toetsingsgrootheid:** Bereken de waarde van de toetsingsgrootheid en ken de bijbehorende kansverdeling toe.
5. **Beslissingsregel:** Bepaal of $H_0$ wordt verworpen op basis van overschrijdingskansen (p-waarden) of kritieke waarden.
6. **Effectgrootte:** Kwantificeer de omvang van het gevonden effect om de praktische relevantie te beoordelen.
7. **Rapporteren:** Vermeld de resultaten op een correcte en volledige manier.
### 4.3 T-toets voor twee onafhankelijke steekproeven
Deze toets wordt gebruikt wanneer je het gemiddelde van een intervalvariabele tussen twee onafhankelijke groepen wilt vergelijken.
#### 4.3.1 Toetsingssituatie
Vergelijken van de gemiddelden van een intervalvariabele tussen twee onafhankelijke populaties. Bijvoorbeeld: Verschillen jongens van meisjes in het aantal gemiste lessen?
#### 4.3.2 Voorwaarden
* Afhankelijke variabele is intervalniveau.
* De steekproeven zijn onafhankelijk.
* De afhankelijke variabele is bij benadering normaal verdeeld in beide populaties (vooral belangrijk bij kleine steekproeven, $n < 30$).
* De varianties van de twee populaties zijn gelijk (homogeniteit van varianties), of worden als ongelijk beschouwd.
#### 4.3.3 Hypothesen
* Tweezijdig: $H_0: \mu_1 = \mu_2$, $H_1: \mu_1 \neq \mu_2$
* Eenzijdig (links): $H_0: \mu_1 \geq \mu_2$, $H_1: \mu_1 < \mu_2$
* Eenzijdig (rechts): $H_0: \mu_1 \leq \mu_2$, $H_1: \mu_1 > \mu_2$
#### 4.3.4 Toetsingsgrootheid
Er zijn twee varianten, afhankelijk van de homogeniteit van varianties:
* **Variant 1: Gelijkwaardige populatievarianties ($\sigma^2_1 = \sigma^2_2$)**
* Eerst wordt een **F-toets** uitgevoerd om te bepalen of de populatievarianties gelijk zijn. Hierbij worden de varianties van de twee steekproeven vergeleken. Als de $F$-statistiek niet significant is (bij een ingesteld significantieniveau, bv. $\alpha = 0.05$), wordt aangenomen dat de populatievarianties gelijk zijn.
* Indien de varianties gelijk zijn, wordt een **gepoolde variantie** berekend.
* De t-statistiek wordt berekend met de formule:
$$ t = \frac{(\bar{x}_1 - \bar{x}_2) - (\mu_1 - \mu_2)}{\sqrt{s_p^2 \left( \frac{1}{n_1} + \frac{1}{n_2} \right)}} $$
waarbij $s_p^2$ de gepoolde variantie is en $(\mu_1 - \mu_2)$ typisch gelijk is aan 0 onder $H_0$.
* Vrijheidsgraden: $df = n_1 + n_2 - 2$.
* **Variant 2: Ongelijke populatievarianties ($\sigma^2_1 \neq \sigma^2_2$)**
* Dit wordt gebruikt wanneer de F-toets aangeeft dat de varianties significant verschillen.
* De t-statistiek wordt berekend met de formule (ook bekend als de Welch's t-test):
$$ t = \frac{(\bar{x}_1 - \bar{x}_2) - (\mu_1 - \mu_2)}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}} $$
* De berekening van de vrijheidsgraden is complexer en wordt vaak met een specifieke formule (Satterthwaite approximation) of via software (SPSS) bepaald.
#### 4.3.5 Beslissingsregel
* Verwerp $H_0$ als de p-waarde kleiner is dan het gekozen significantieniveau ($\alpha$).
* Of verwerp $H_0$ als de berekende t-waarde buiten het betrouwbaarheidsinterval ligt (d.w.z. groter is dan de kritieke waarde bij een rechtseenzijdige toets, kleiner dan de kritieke waarde bij een linkseenzijdige toets, of de absolute waarde groter is dan de kritieke waarde bij een tweezijdige toets).
#### 4.3.6 Effectgrootte
* De effectgrootte wordt vaak gerapporteerd als $r$ (een correlatiecoëfficiënt) of $d$ (Cohen's $d$).
* Voor de t-toets voor onafhankelijke steekproeven kan $r$ berekend worden als:
$$ r = \sqrt{\frac{t^2}{t^2 + df}} $$
* Interpretatie van $r$:
* $r \approx 0.1$: klein effect
* $r \approx 0.3$: matig effect
* $r \approx 0.5$: groot effect
#### 4.3.7 Rapporteren (voorbeeld)
"Om na te gaan of er een verschil in dopamine-scores was tussen groep 1 (favoriete muziek) en groep 2 (andere muziek), werd een onafhankelijke t-toets uitgevoerd. De gemiddelde dopamine-score in groep 1 was $M = 16.03$ met een standaarddeviatie $SD = 2.66$, en in groep 2 was $M = 13.96$ met $SD = 2.94$. Dit verschil was statistisch significant ($t(58) = 2.86$, $p = .006$). De effectgrootte was matig ($r = .35$)."
### 4.4 Non-parametrische toets: Wilcoxon Rank-Sum (Mann-Whitney U)
Deze toets is een non-parametrisch alternatief voor de t-toets voor twee onafhankelijke steekproeven. Het wordt gebruikt wanneer de aannames voor de t-toets niet voldaan zijn.
#### 4.4.1 Toetsingssituatie
Vergelijken van de verdelingen (of medians) van een variabele tussen twee onafhankelijke groepen, wanneer de afhankelijke variabele ordinaal is, of wanneer de AV niet normaal verdeeld is (vooral bij kleine steekproeven).
#### 4.4.2 Voorwaarden
* De steekproeven zijn onafhankelijk.
* De afhankelijke variabele is minstens van ordinaal niveau.
* De verdelingen van de groepen zijn vergelijkbaar van vorm (hoewel de toets robuuster is dan de t-toets voor afwijkingen hiervan).
#### 4.4.3 Hypothesen
* Tweezijdig: $H_0$: De verdelingen van de twee populaties zijn identiek. $H_1$: De verdelingen van de twee populaties verschillen.
* Eenzijdig: $H_0$: De verdeling in populatie 1 ligt links (of rechts) van de verdeling in populatie 2. $H_1$: Andersom.
#### 4.4.4 Toetsingsgrootheid
1. **Rangen toekennen:** Alle datapunten van beide groepen worden samengevoegd en gerangschikt van laag naar hoog.
2. **Som van de rangen:** De rangen van de data binnen elke groep worden opgeteld. Dit levert de rangensommen ($W_s$ of $U$) op. De kleinste rangensom wordt gebruikt als toetsingsgrootheid.
3. **Omrekenen naar z-score:** De rangensom wordt omgezet naar een z-score met behulp van formules die de verwachte rangensom en de standaardfout berekenen.
* Verwachte rangensom onder $H_0$: $E(W_s) = \frac{n_1(n_1 + n_2 + 1)}{2}$
* Standaardfout: $SE = \sqrt{\frac{n_1 n_2 (n_1 + n_2 + 1)}{12}}$
* z-score: $z = \frac{W_s - E(W_s)}{SE}$
#### 4.4.5 Beslissingsregel
* Verwerp $H_0$ als de berekende p-waarde kleiner is dan het gekozen significantieniveau ($\alpha$). Voor een tweezijdige toets wordt de p-waarde berekend door de kans voor de gevonden z-score te verdubbelen.
#### 4.4.6 Effectgrootte
* De effectgrootte ($r$) wordt berekend met:
$$ r = \frac{|z|}{\sqrt{n_1 + n_2}} $$
* Interpretatie van $r$ is vergelijkbaar met de t-toets (klein, matig, groot).
#### 4.4.7 Rapporteren (voorbeeld)
"Om na te gaan of het subjectief welbevinden (gemeten op een ordinale schaal) verschilde tussen het luisteren naar favoriete muziek en niet-favoriete muziek, werd een Wilcoxon rank-sum toets uitgevoerd. De scores voor subjectief welbevinden waren hoger in de conditie met favoriete muziek (mediaan = 4) dan in de conditie met niet-favoriete muziek (mediaan = 3). Dit verschil was statistisch significant ($z = -2.70$, $p = .006$). De effectgrootte was groot ($r = .51$)."
### 4.5 Interpreteren van SPSS-output
Bij het interpreteren van SPSS-output voor deze toetsen is het cruciaal om nauwkeurig te werk te gaan.
#### 4.5.1 Independent Samples T-test in SPSS
* **Levene's Test for Equality of Variances:** Dit is de F-toets die wordt uitgevoerd om te bepalen of de varianties van de twee groepen gelijk zijn.
* Als de p-waarde van de Levene's test groter is dan $\alpha$ (bv. > .05), worden de varianties als gelijk beschouwd en lees je de resultaten af uit de rij "Equal variances assumed".
* Als de p-waarde van de Levene's test kleiner is dan $\alpha$ (bv. < .05), worden de varianties als ongelijk beschouwd en lees je de resultaten af uit de rij "Variances not assumed".
* **t-statistic:** De berekende t-waarde voor het verschil tussen de groepsgemiddelden.
* **df (degrees of freedom):** De vrijheidsgraden die bij de t-statistiek horen.
* **Sig. (2-tailed):** De overschrijdingskans (p-waarde) voor de toets. Deze gebruik je om $H_0$ te verwerpen of te behouden.
> **Tip:** Let goed op of je de F-significantie (van Levene's test) correct gebruikt om te beslissen welke rij je moet aflezen voor de t-test, en verwar deze niet met de t-significantie.
#### 4.5.2 Wilcoxon Rank-Sum Test in SPSS
* SPSS rapporteert de toetsingsgrootheid vaak als een Z-score.
* **Z Used:** De berekende z-waarde.
* **Asymp. Sig. (2-tailed):** De overschrijdingskans (p-waarde) voor de toets. Ook hier gebruik je deze om $H_0$ te verwerpen of te behouden.
* Vaak wordt ook de mediane score voor elke groep gerapporteerd.
#### 4.5.3 Algemene Interpretatieprincipes
* **Significantie:** Als de p-waarde kleiner is dan het gekozen significantieniveau ($\alpha$), verwerpen we de nulhypothese en concluderen we dat er een statistisch significant verschil is tussen de groepen.
* **Conclusie:** Formuleer de conclusie in de context van de onderzoeksvraag, waarbij je zowel de significantie als de richting van het effect vermeldt.
* **Effectgrootte:** Rapporteer altijd de effectgrootte om de praktische betekenis van het gevonden verschil te duiden.
> **Tip:** Oefen veelvuldig met het interpreteren van SPSS-output van verschillende toetsen. Zorg dat je de tabelopbouw en de betekenis van elke waarde doorgrondt.
### 4.6 Belangrijke aandachtspunten voor het examen
* **Onderscheid tussen toetsen:** Weet exact wanneer je een t-toets voor één steekproef, een t-toets voor twee onafhankelijke steekproeven, of een Wilcoxon rank-sum toets moet gebruiken. Kijk hierbij naar het aantal populaties, het meetniveau van de AV, en de afhankelijkheid van de steekproeven.
* **Voorwaarden:** Maak een checklist van de voorwaarden per toets en controleer deze systematisch.
* **Formularium:** Oefen het gebruik van het formularium voor de berekeningen van de toetsingsgrootheden en de effectgroottes.
* **Rapporteren:** Leer het standaard sjabloon voor het rapporteren van de resultaten van een statistische toets. Dit omvat de onderzoeksvraag, de gebruikte toets, de steekproefgegevens (gemiddelden, standaarddeviaties of medianen), de resultaten van de toets ($t$- of $z$-waarde, $df$, $p$-waarde), en de effectgrootte.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Toets voor twee populaties | Een statistische procedure die wordt gebruikt om de gemiddelden of verdelingen van twee verschillende groepen te vergelijken om te bepalen of er een significant verschil tussen bestaat. |
| Onafhankelijke steekproeven | Twee of meer steekproeven die volledig onafhankelijk van elkaar zijn getrokken, waarbij de selectie van elementen in de ene steekproef geen invloed heeft op de selectie van elementen in de andere. |
| Afhankelijke steekproeven | Steekproeven waarbij de metingen binnen groepen of paren gerelateerd zijn, bijvoorbeeld door herhaalde metingen bij dezelfde personen of door gematchte paren. |
| Parametrische toets | Een statistische toets die veronderstelt dat de data uit een populatie afkomstig zijn met een specifieke verdeling, meestal de normale verdeling, en waarbij parameters zoals het gemiddelde en de standaarddeviatie worden geschat. |
| Non-parametrische toets | Een statistische toets die geen specifieke aannames doet over de verdeling van de populatie, zoals de normale verdeling, en vaak wordt gebruikt bij ordinale of nominale data, of wanneer de voorwaarden voor parametrische toetsen niet voldaan zijn. |
| T-toets voor twee onafhankelijke steekproeven | Een parametrische toets om de gemiddelden van twee onafhankelijke groepen te vergelijken, ervan uitgaande dat de afhankelijke variabele interval- of ratiogegevens is en de populaties normaal verdeeld zijn. |
| Gelijk(e) varianties | Een aanname in statistische toetsen die stelt dat de varianties van de twee populaties die uit de steekproeven worden geschat, gelijk zijn aan elkaar. |
| Ongelijk(e) varianties | Een aanname in statistische toetsen die stelt dat de varianties van de twee populaties die uit de steekproeven worden geschat, niet gelijk zijn aan elkaar. |
| Gepoolde variantie | Een gewogen gemiddelde van de varianties van twee steekproeven, gebruikt in de t-toets wanneer wordt aangenomen dat de populatievarianties gelijk zijn. De formule is: $s_p^2 = \frac{(n_1-1)s_1^2 + (n_2-1)s_2^2}{n_1+n_2-2}$ |
| F-toets | Een statistische toets die wordt gebruikt om de varianties van twee populaties te vergelijken. Het wordt vaak gebruikt als een voorlopige toets om te bepalen of de varianties in een t-toets voor twee onafhankelijke steekproeven gelijk of ongelijk zijn. |
| Vrijheidsgraden | Het aantal onafhankelijke waarden dat vrij kan variëren in een statistische berekening. Bij de t-toets voor twee onafhankelijke steekproeven hangt dit af van de steekproefgroottes en de aanname over gelijke varianties. |
| Toetsingsgrootheid | Een statistische waarde die wordt berekend uit steekproefgegevens om hypothesen te toetsen. Voor de t-toets is dit de t-score, en voor de Wilcoxon toets is dit de Z-score of de rangensom (Ws). |
| Beslissingsregel | Een criterium dat wordt gebruikt om te beslissen of de nulhypothese wordt verworpen of niet verworpen, gebaseerd op de berekende toetsingsgrootheid en het gekozen significantieniveau ($\alpha$). |
| Effectgrootte | Een maat die aangeeft hoe groot het waargenomen verschil of verband is, onafhankelijk van de steekproefgrootte. Het helpt bij het interpreteren van de praktische significantie van de resultaten. |
| Rapportering | De gestructureerde manier waarop statistische resultaten worden gepresenteerd, inclusief de toetsingssituatie, hypothesen, steekproefgegevens, de resultaten van de statistische toets en de conclusie. |
| Wilcoxon rank-sum toets | Een non-parametrische toets die wordt gebruikt om de centrale tendens van twee onafhankelijke groepen te vergelijken, vooral wanneer de data ordinaal zijn of niet voldoen aan de aannames van de t-toets. |
| Rangensom (Ws) | De som van de rangen van de observaties binnen een specifieke groep, gebruikt als toetsingsgrootheid in de Wilcoxon rank-sum toets. |
| Z-score | Een gestandaardiseerde score die aangeeft hoeveel standaarddeviaties een observatie of toetsingsgrootheid verwijderd is van het gemiddelde van de verdeling. Gebruikt in de Wilcoxon toets om de significantie te bepalen. |
| Overige kans | De kans om een toetsingsgrootheid te observeren die minstens zo extreem is als de berekende waarde, ervan uitgaande dat de nulhypothese waar is. Dit wordt ook wel de p-waarde genoemd. |
| SPSS | Statistical Package for the Social Sciences, een softwarepakket dat veel wordt gebruikt voor statistische analyse en data-visualisatie. |
| Significatie | Het proces van het bepalen of de waargenomen resultaten statistisch significant zijn, wat betekent dat ze waarschijnlijk niet zijn ontstaan door toeval. |
| Nominale variabele | Een categorische variabele waarvan de categorieën geen inherente volgorde hebben (bv. geslacht, kleur). |
| Ordinale variabele | Een categorische variabele waarvan de categorieën een inherente volgorde hebben, maar de afstanden tussen de categorieën zijn niet noodzakelijkerwijs gelijk (bv. opleidingsniveau, tevredenheidsschaal). |
| Intervalvariabele | Een variabele waarbij de afstanden tussen opeenvolgende waarden gelijk zijn, maar er is geen absoluut nulpunt (bv. temperatuur in Celsius). |
| Ratiovariabele | Een variabele waarbij de afstanden tussen opeenvolgende waarden gelijk zijn en er is een absoluut nulpunt, waardoor verhoudingen zinvol zijn (bv. lengte, gewicht). |