Cover
Empieza ahora gratis Hoorcollege 14 student.pptx
Summary
# Basisprincipes en structuur van het examen Statistiek II
Dit document biedt een gedetailleerd overzicht van de structuur, inhoud en evaluatiecriteria van het examen Statistiek II, met specifieke aandacht voor de basisprincipes en de te kennen leerdoelen.
## 1. Basisprincipes en structuur van het examen Statistiek II
### 1.1 Algemene opzet van het examen
Het examen Statistiek II wordt afgenomen op campus en maakt gebruik van de toetsomgeving Toets.ap.be. De duur van het examen is twee uur. Formularium en tabellen zijn ter plaatse beschikbaar en hoeven niet zelf meegebracht te worden. Een eenvoudig zakrekenapparaat is toegestaan, maar grafische rekentoestellen zijn niet toegelaten.
### 1.2 Verdeling van kennis/inzicht en vaardigheidstoetsen
Het examen is opgedeeld in twee componenten:
* **Kennis- en inzichtstoets**: Dit deel telt voor 30% mee en is gebaseerd op leerdoelen 2.1 tot en met 2.4.
* **Vaardigheidstoets**: Dit deel telt voor 70% mee en is gebaseerd op leerdoelen 2.5 tot en met 2.13.
### 1.3 Relevante hoofdstukken en te kennen leerstof
De volgende hoofdstukken zijn van belang voor het examen:
* **Hoofdstuk 1**: Inductieve statistiek in onderzoek
* **Hoofdstuk 2**: Kansverdelingen en kansberekening
* **Hoofdstuk 3**: Hypothesetoetsing en betrouwbaarheidsintervallen
* **Hoofdstuk 4**: Toetsen voor één populatie (o.a. t-toets voor het gemiddelde (one sample), chikwadraattoets voor frequenties)
* **Hoofdstuk 5**: Toetsen voor twee populaties (onafhankelijk) (o.a. t-toets voor onafhankelijke populaties (independent samples t-test), Wilcoxon ranksum)
* **Hoofdstuk 6**: Toetsen voor twee populaties (afhankelijk)
* **Wel**: t-toets voor twee afhankelijke steekproeven.
* **Niet**: Wilcoxon signed-rank.
* **Hoofdstuk 7**: Toetsen voor meer dan twee populaties
* **Wel**: Eenwegs variantieanalyse (ANOVA).
* **Niet**: Tweewegs variantieanalyse, Kruskal-Wallis toets.
* **Hoofdstuk 8**: Toetsen voor herhaalde metingen bij meer dan twee populaties (Niet te kennen)
* **Hoofdstuk 9**: Toetsen voor het verband tussen twee variabelen (Pearson correlatietoets, Spearman correlatietoets, chikwadraattoets voor kruistabellen)
* **Hoofdstuk 11**: Tot slot: hoe kies je de juiste toets
Daarnaast zijn de lessen over Statistiek in Wetenschappelijk Onderzoek (slides HC 12) en Kwalitatieve Data-analyse (slides in HC 13) relevant.
### 1.4 Leerdoelen en hun relatie tot de examenonderdelen
De leerdoelen worden opgesplitst in kennis/inzicht en toepassing:
#### 1.4.1 Kennis- en inzichtsvragen (30%)
Deze vragen peilen naar een begrip van de volgende leerdoelen:
* **2.1**: De basisprincipes van de inductieve statistiek in eigen woorden uitleggen.
* **2.2**: Het principe en belang van hypothesetoetsing in eigen woorden uitleggen.
* **2.3**: De basisprincipes van kwalitatieve data-analyse in eigen woorden uitleggen.
* **2.4**: De keuze voor eenzijdig of tweezijdig toetsen verantwoorden.
**Tip**: Kennis- en inzichtsvragen zijn vaak gesloten vragen waarbij je één of meerdere juiste antwoorden moet aanduiden. Een goed begrip van concepten zoals statistische significantie, het interpreteren van een alfa-niveau (kans op een Type-I fout), en het belang van effectgrootte is cruciaal.
> **Voorbeeld Kennis/Inzicht**:
> * Met statistische significantie gaan we na of er een significant verschil is tussen bijvoorbeeld twee condities.
> * Een alfa van .05 betekent dat er 5% kans is op een Type-I fout.
> * De effectgrootte laat zien hoe betekenisvol de relatie tussen variabelen of het verschil tussen groepen is.
#### 1.4.2 Toepassingsvragen (70%)
Deze vragen vereisen het toepassen van statistische kennis op specifieke scenario's, gebaseerd op de volgende leerdoelen:
* **2.5**: De gepaste inductieve statistische techniek selecteren op basis van het type populatie (afhankelijk vs. onafhankelijk), de alternatieve hypothese en nulhypothese, en het meetniveau van de variabelen.
* **2.6**: De resultaten van statistische analyses correct interpreteren in relatie tot de nulhypothese en de resterende onzekerheid (Type I en Type II fouten).
* **2.7**: De resultaten van statistische analyses correct rapporteren in functie van de onderzoeksvraag en hypothesen.
* **2.8**: Een SPSS- of Excel-output correct interpreteren in relatie tot de nulhypothese en de resterende onzekerheid (Type I en Type II fouten).
* **2.9**: Eigenschappen van kansverdelingen en frequentieverdelingen toepassen bij data-analyse.
* **2.10**: In een wetenschappelijke publicatie de statistische analyses correct interpreteren.
* **2.11**: Non-parametrische toetsen (inclusief hun betrouwbaarheidsintervallen) hanteren om de nulhypothese te toetsen.
* **2.12**: Parametrische toetsen (inclusief hun betrouwbaarheidsintervallen) hanteren om de nulhypothese te toetsen.
* **2.13**: Op basis van een onderzoeksvraag de alternatieve hypothese en de nulhypothese formuleren.
**Tip**: Voor toepassingsvragen is het essentieel om systematisch te werk te gaan: identificeer het onderzoeksprobleem, de variabelen (meetniveau, afhankelijk/onafhankelijk), het aantal groepen en hun relatie (afhankelijk/onafhankelijk), en de hypotheses. Dit helpt bij het selecteren van de juiste toets. Het interpreteren van outputs en het rapporteren van resultaten vereist aandacht voor significantie, effectgrootte en de specifieke onderzoeksvraag.
> **Voorbeeld Toepassing (Keuze van toets)**:
> Een onderzoeker wil nagaan of slaap een invloed heeft op de studieprestaties. 50 studenten werden getest onder twee slaapcondities (8 uur slaap vs. 5 uur slaap). De hypothesen zijn H0: Er is geen significant verschil tussen de slaapcondities en de studieprestaties, en H1: Er is een significant verschil. Omdat dezelfde studenten twee keer getest worden, zijn de steekproeven afhankelijk. Met 50 proefpersonen is de steekproefgrootte voldoende voor een parametrische toets. De afhankelijke variabele (studieprestatie) is op intervalniveau. Daarom is een **t-toets voor afhankelijke steekproeven (paired samples t-test)** de gepaste keuze.
> **Voorbeeld Toepassing (Interpretatie van resultaten)**:
> Uit een onderzoek komen volgende resultaten: $\alpha = .05$, $t(10) = 2.564$, $p = 0.046$.
> * **Wordt H nul verworpen of aanvaard?** De nulhypothese wordt verworpen, omdat de p-waarde ($0.046$) kleiner is dan het significantieniveau ($\alpha = 0.05$).
> * **Welke type fout zou je hierbij gemaakt kunnen hebben?** Men zou een Type-I fout gemaakt kunnen hebben.
> * **Wat betekent dit type fout?** Een Type-I fout betekent dat de nulhypothese ten onrechte werd verworpen; er is geconcludeerd dat er een effect is, terwijl dit in werkelijkheid door toeval werd veroorzaakt.
> **Voorbeeld Toepassing (Formuleren van hypothesen voor ANOVA)**:
> We willen nagaan of er een verschil is in het ervaren stressniveau voor een dansoptreden afhankelijk van het aantal gegeten repen chocolade (0, 1, of 2).
> * **H0**: Rekening houdend met de hoeveelheid chocolade is er geen beduidend verschil tussen de groepen wat betreft de totale stressscore voor een optreden.
> * **H1**: Rekening houdend met de hoeveelheid chocolade is er minstens één beduidend verschil tussen de groepen wat betreft de totale stressscore voor een optreden.
> **Voorbeeld Toepassing (Rapporteren van resultaten - Independent Samples T-test)**:
> Om na te gaan of mensen die mindfulness hebben gevolgd verschillen in fysiologische reacties van diegenen die EMDR hebben gevolgd, werd een independent samples t-test uitgevoerd. Gemiddeld werd er meer fysiologische respons gemeten in de conditie met mindfulness ($M = 16.93$, $SD = 2.66$) dan in de conditie met EMDR ($M = 13.96$, $SD = 2.94$). Dit effect was significant op niveau $\alpha = .05$, $t(58) = 2.86$, $p = .006$, met een effectgrootte van $r = .35$.
---
# Studeren op basis van leerdoelen en de keuze van statistische toetsen
Hier is een gedetailleerd overzicht voor het onderwerp "Studeren op basis van leerdoelen en de keuze van statistische toetsen".
## 2. Studeren op basis van leerdoelen en de keuze van statistische toetsen
Dit gedeelte van de studiegids biedt een gestructureerde aanpak voor het studeren door middel van leerdoelen, met speciale aandacht voor de aard van examenvragen en de strategische keuze van statistische toetsen op basis van variabelen en onderzoeksvragen.
### 2.1 Structuur van het examen Statistiek II
Het examen Statistiek II is opgebouwd uit twee componenten:
* **Kennis- en inzichttoets (30%):** Deze toets beoordeelt kennis en inzicht gerelateerd aan leerdoelen 2.1 tot en met 2.4.
* **Vaardigheidstoets (70%):** Deze toets beoordeelt de toepassing van statistische technieken en is gebaseerd op leerdoelen 2.5 tot en met 2.13.
#### 2.1.1 Inhoudelijke afbakening
De te kennen leerstof voor het examen omvat voornamelijk de volgende hoofdstukken:
* Hoofdstuk 1: Inductieve statistiek in onderzoek
* Hoofdstuk 2: Kansverdelingen en kansberekening
* Hoofdstuk 3: Hypothesetoetsing en betrouwbaarheidsintervallen
* Hoofdstuk 4: Toetsen voor één populatie (o.a. one-sample t-toets, chikwadraattoets voor frequenties)
* Hoofdstuk 5: Toetsen voor twee onafhankelijke populaties (o.a. independent samples t-test, Wilcoxon ranksum toets)
* Hoofdstuk 6: Toetsen voor twee afhankelijke populaties (enkel de t-toets voor twee afhankelijke steekproeven)
* Hoofdstuk 7: Toetsen voor meer dan twee populaties (enkel de eenwegsvariantieanalyse - ANOVA)
* Hoofdstuk 9: Toetsen voor het verband tussen twee variabelen (Pearson correlatietoets, Spearman correlatietoets, chikwadraattoets voor kruistabellen)
* Hoofdstuk 11: Kiezen van de juiste toets
* Les Statistiek in Wetenschappelijk Onderzoek (slides HC 12)
* Les kwalitatieve Data-analyse (slides in HC 13)
**Niet te kennen stof:**
* Hoofdstuk 8: Toetsen voor herhaalde metingen bij meer dan twee populaties.
* Specifieke niet-parametrische toetsen zoals Wilcoxon signed-rank, Kruskal-Wallis, en tweewegs variantieanalyse.
### 2.2 Studeren op basis van leerdoelen
Het studeren dient gericht te zijn op de specifieke leerdoelen die het examenonderwerp bepalen. Deze leerdoelen zijn onderverdeeld naar het type vragen dat hieruit kan voortvloeien.
#### 2.2.1 Kennis- en inzichtvragen (30%)
Deze vragen toetsen het begrip van de basisprincipes van statistische concepten en methoden.
* **Leerdoel 2.1:** De basisprincipes van inductieve statistiek in eigen woorden uitleggen.
* **Leerdoel 2.2:** Het principe en belang van hypothesetoetsing in eigen woorden uitleggen.
* **Leerdoel 2.3:** De basisprincipes van kwalitatieve data-analyse in eigen woorden uitleggen.
* **Leerdoel 2.4:** De keuze voor eenzijdig of tweezijdig toetsen verantwoorden.
**Kernconcepten voor kennis- en inzichtvragen:**
* **Statistische significantie:** Nagaan of een waargenomen verschil tussen groepen of een verband tussen variabelen onwaarschijnlijk is om puur door toeval te zijn verklaard.
* **Type I fout (alpha):** De kans dat de nulhypothese ten onrechte wordt verworpen, terwijl deze in werkelijkheid waar is. Een gebruikelijke grenswaarde is $\alpha = 0.05$ (5% kans op een Type I fout).
* **Effectgrootte:** Een maat die de betekenisvolheid van een relatie of verschil aangeeft, onafhankelijk van de steekproefgrootte. Voorbeelden zijn Pearson's $r$ of Cohen's $D$.
* Voor Pearson's $r$:
* Klein effect: $0.1$ tot $0.3$
* Medium effect: $0.3$ tot $0.5$
* Groot effect: $> 0.5$ (zelfde voor negatieve waarden)
* **Nulhypothese ($H_0$):** De hypothese die wordt getoetst. Men vertrekt vanuit de aanname dat deze waar is en probeert deze te weerleggen.
* **Alternatieve hypothese ($H_1$):** De hypothese die men aanneemt als de nulhypothese wordt verworpen.
* **Eenzijdig vs. tweezijdig toetsen:** De keuze hangt af van of men een richting van het effect verwacht (eenzijdig) of enkel een verschil wil aantonen (tweezijdig).
> **Tip:** Kennis- en inzichtvragen zijn vaak gesloten vragen waarbij men meerdere antwoorden moet selecteren of juist beoordelen. Concentreer u op de definitie en implicaties van de kernbegrippen.
#### 2.2.2 Toepassingsvragen (70%)
Deze vragen vereisen de toepassing van statistische technieken op concrete datasets en onderzoeksvragen.
* **Leerdoel 2.5:** De gepaste inductieve statistische techniek selecteren in functie van het type populatie (afhankelijk vs. onafhankelijk), de alternatieve hypothese en nulhypothese, en het meetniveau van de variabelen.
* **Leerdoel 2.6:** De resultaten van de statistische analyse correct interpreteren in functie van de nulhypothese en de resterende onzekerheid (Type I en Type II fouten).
* **Leerdoel 2.7:** De resultaten van de statistische analyse correct rapporteren in functie van de onderzoeksvraag en hypothesen.
* **Leerdoel 2.8:** Een SPSS- of Excel-output correct interpreteren in functie van de nulhypothese en de resterende onzekerheid (Type I en Type II fouten).
* **Leerdoel 2.9:** Eigenschappen van kansverdelingen en frequentieverdelingen toepassen bij data-analyse.
* **Leerdoel 2.10:** In een wetenschappelijke (inter)nationale publicatie in het psychologisch werkveld de statistische analyses correct interpreteren.
* **Leerdoel 2.11:** Non-parametrische toetsen (incl. hun betrouwbaarheidsintervallen) hanteren om de nulhypothese te toetsen (bv. Spearman correlatie, Wilcoxon rangtekentoets).
* **Leerdoel 2.12:** Parametrische toetsen (incl. hun betrouwbaarheidsintervallen) hanteren om de nulhypothese te toetsen (bv. t-toets, ANOVA).
* **Leerdoel 2.13:** Op basis van een onderzoeksvraag de alternatieve hypothese en de nulhypothese formuleren.
### 2.3 De keuze van de juiste statistische toets
Het correct selecteren van een statistische toets is cruciaal en hangt af van verschillende factoren:
1. **Onderzoeksvraag/hypothese:** Wat wil men precies te weten komen? Gaat het om verschillen tussen groepen, verbanden tussen variabelen, of voorspellingen?
2. **Meetniveau van de variabelen:**
* **Nominaal:** Categorieën zonder ordening (bv. geslacht, haarkleur).
* **Ordinaal:** Categorieën met een logische volgorde, maar ongelijke afstanden tussen categorieën (bv. rangordes, Likert-schalen).
* **Interval:** Numerieke waarden met gelijke afstanden, maar geen echt nulpunt (bv. temperatuur in Celsius).
* **Ratio:** Numerieke waarden met gelijke afstanden en een echt nulpunt (bv. lengte, gewicht, inkomen). Parametrische toetsen vereisen meestal minstens intervalniveau.
3. **Aantal populaties/steekproeven:** Worden één, twee, of meer dan twee groepen vergeleken?
4. **Onafhankelijke of afhankelijke steekproeven:**
* **Onafhankelijk:** De metingen in de ene groep hebben geen invloed op de metingen in de andere groep (bv. verschillende groepen respondenten).
* **Afhankelijk (gepaard):** De metingen zijn gerelateerd, bijvoorbeeld doordat dezelfde personen herhaaldelijk gemeten worden, of doordat personen gematcht zijn (bv. voor- en nameting bij dezelfde patiënten).
5. **Aannames van de toets:** Parametrische toetsen hebben specifieke aannames die vervuld moeten zijn (bv. normaliteit van de verdeling, homogeniteit van varianties). Niet-parametrische toetsen zijn minder strikt qua aannames.
#### 2.3.1 Overzicht van veelgebruikte statistische toetsen en hun selectiecriteria
Hieronder een gestructureerd overzicht gebaseerd op de leerdoelen en voorbeelden uit de stof.
##### Toetsen voor één populatie
* **One-sample t-toets (t-toets voor het gemiddelde):**
* **Doel:** Vergelijken van het gemiddelde van één steekproef met een bekend populatiegemiddelde of een theoretisch gemiddelde.
* **Variabelen:** Eén afhankelijke variabele van minimaal intervalniveau.
* **Aannames:** Normaliteit van de steekproefverdeling, bekend populatiegemiddelde.
* **Voorbeeldvraag:** Is het gemiddelde IQ van studenten in een specifieke klas significant anders dan het Vlaamse gemiddelde?
* **Chikwadraattoets voor frequenties:**
* **Doel:** Toetsen of de frequenties van waarnemingen in verschillende categorieën afwijken van een verwachte verdeling.
* **Variabelen:** Eén categorische variabele (nominaal of ordinaal).
* **Aannames:** Verwachte frequenties in de categorieën.
* **Voorbeeldvraag:** Verschillen de aantallen studenten die slagen voor een vak per studierichting zoals verwacht op basis van historische data?
##### Toetsen voor twee populaties
* **T-toets voor onafhankelijke populaties (Independent samples t-test):**
* **Doel:** Vergelijken van de gemiddelden van twee onafhankelijke groepen.
* **Variabelen:** Eén afhankelijke variabele van minimaal intervalniveau, één onafhankelijke variabele met twee niveaus die de groepen definieert.
* **Aannames:** Normaliteit van de afhankelijke variabele in beide groepen, homogeniteit van varianties (kan worden getoetst met Levene's test). Steekproefgrootte $> 30$ is wenselijk, maar met normaal verdeelde data kan het ook met kleinere aantallen.
* **Voorbeeldvraag:** Verschillen de studieresultaten tussen studenten die online les volgen en studenten die fysiek les volgen?
* **T-toets voor afhankelijke steekproeven (Paired samples t-test):**
* **Doel:** Vergelijken van de gemiddelden van twee gerelateerde metingen (bv. voor- en nameting bij dezelfde personen).
* **Variabelen:** Eén afhankelijke variabele van minimaal intervalniveau, waarbij metingen van dezelfde subjecten worden vergeleken.
* **Aannames:** Normaliteit van de verschilscores tussen de gepaarde metingen.
* **Voorbeeldvraag:** Heeft een nieuwe coachingsmethode invloed op de prestaties van dezelfde groep spelers gemeten voor en na de methode?
* **Wilcoxon ranksum toets (ook Mann-Whitney U toets genoemd):**
* **Doel:** Vergelijken van de medianen van twee onafhankelijke groepen wanneer de aannames van de t-toets voor onafhankelijke steekproeven niet voldaan zijn (bv. bij ordinale data of niet-normaal verdeelde intervaldata, vooral bij kleine steekproeven).
* **Variabelen:** Eén afhankelijke variabele (ordinaal of interval) en één onafhankelijke variabele met twee niveaus.
* **Voorbeeldvraag:** Is er een verschil in het ervaren stressniveau tussen twee groepen werknemers, waarbij de data niet normaal verdeeld is?
##### Toetsen voor meer dan twee populaties
* **Eenwegs variantieanalyse (One-way ANOVA):**
* **Doel:** Vergelijken van de gemiddelden van drie of meer onafhankelijke groepen.
* **Variabelen:** Eén afhankelijke variabele van minimaal intervalniveau, één onafhankelijke variabele met drie of meer niveaus.
* **Aannames:** Normaliteit van de afhankelijke variabele binnen elke groep, homogeniteit van varianties.
* **Toetsingsgrootheid:** $F$-waarde, berekend als de ratio van de variantie *tussen* de groepen en de variantie *binnen* de groepen.
* **Formules (schematisch):**
* Sum of Squares Between Groups ($SS_{between}$): $\sum_{i=1}^k n_i (\bar{y}_i - \bar{y}_{\text{grand}})^2$
* Degrees of Freedom Between Groups ($df_{between}$): $k - 1$ (waarbij $k$ het aantal groepen is)
* Mean Square Between Groups ($MS_{between}$): $\frac{SS_{between}}{df_{between}}$
* Sum of Squares Within Groups ($SS_{within}$): $\sum_{i=1}^k \sum_{j=1}^{n_i} (y_{ij} - \bar{y}_i)^2$
* Degrees of Freedom Within Groups ($df_{within}$): $N - k$ (waarbij $N$ het totale aantal deelnemers is)
* Mean Square Within Groups ($MS_{within}$): $\frac{SS_{within}}{df_{within}}$
* $F$-toetsingsgrootheid: $F = \frac{MS_{between}}{MS_{within}}$
* **Onderlinge vergelijking:** Indien de ANOVA significant is, volgt post-hoc analyse (bv. paarsgewijze contrasten met Bonferroni correctie) om specifieke groepsverschillen te identificeren.
* **Voorbeeldvraag:** Verschillen de stressniveaus tussen mensen die 0, 1, of 2 repen chocolade hebben gegeten voor een optreden?
##### Toetsen voor verbanden tussen twee variabelen
* **Pearson correlatietoets:**
* **Doel:** Nagaan van de lineaire relatie tussen twee interval- of rationiveau variabelen.
* **Variabelen:** Twee variabelen van minimaal intervalniveau.
* **Aannames:** Lineariteit van de relatie, normaliteit van beide variabelen, homoscedasticiteit.
* **Correlatiecoëfficiënt:** $r$, variërend van -1 tot +1.
* **Spearman correlatietoets (Rangcorrelatie):**
* **Doel:** Nagaan van de monotone relatie tussen twee ordinaal niveau variabelen, of wanneer de aannames van Pearson's $r$ niet voldaan zijn (bv. niet-normaal verdeelde intervaldata, kleine steekproeven).
* **Variabelen:** Twee variabelen van minimaal ordinaal niveau.
* **Chikwadraattoets voor kruistabellen:**
* **Doel:** Nagaan van de associatie (verband) tussen twee categorische variabelen.
* **Variabelen:** Twee nominale of ordinale variabelen.
* **Voorbeeldvraag:** Bestaat er een verband tussen het geslacht van een student en de keuze voor een bepaalde studierichting?
#### 2.3.2 Interpretatie van resultaten
* **P-waarde:** De kans om het waargenomen onderzoeksresultaat (of extremere resultaten) te verkrijgen, *gegeven dat de nulhypothese waar is*.
* Als $p < \alpha$ (significantieniveau, bv. 0.05), dan wordt de nulhypothese verworpen.
* Als $p \geq \alpha$, dan wordt de nulhypothese niet verworpen.
* **Type I en Type II fouten bij hypothesetoetsing:**
* **Type I fout:** $H_0$ wordt verworpen, terwijl $H_0$ waar is (vals positief). De kans hierop is $\alpha$.
* **Type II fout:** $H_0$ wordt niet verworpen, terwijl $H_0$ onwaar is (vals negatief). De kans hierop wordt aangeduid met $\beta$.
* **Rapportage:** Resultaten moeten correct gerapporteerd worden, inclusief de gebruikte toets, de toetsingsgrootheid (bv. $t$, $F$, $\chi^2$), de vrijheidsgraden, de p-waarde, en de effectgrootte. De interpretatie moet in de context van de onderzoeksvraag worden geplaatst.
> **Tip:** Begin altijd met het identificeren van het meetniveau van de variabelen en het aantal groepen/metingen. Dit leidt u snel naar de mogelijke statistische toetsen. Denk vervolgens na over de aannames.
> **Voorbeeld:** Een onderzoeker wil weten of een nieuwe therapie effectiever is dan de standaardtherapie voor het verminderen van depressieve symptomen. Er zijn twee groepen patiënten: één groep krijgt de nieuwe therapie, de andere de standaardtherapie. De depressiescores worden gemeten met een gevalideerde vragenlijst op intervalniveau (bv. BDI). De groepen zijn onafhankelijk.
>
> * **Onderzoeksvraag:** Verschilt de effectiviteit van de nieuwe therapie van de standaardtherapie?
> * **Variabelen:** Depressiescore (afhankelijk, interval), therapievorm (onafhankelijk, nominaal met 2 niveaus).
> * **Groepen:** Twee onafhankelijke groepen.
> * **Aannames:** Indien de depressiescores normaal verdeeld zijn binnen beide groepen en de varianties ongeveer gelijk zijn, kan een **independent samples t-test** worden gebruikt. Indien de data niet normaal verdeeld is of de steekproefgrootte klein is, zou de **Wilcoxon ranksum toets** een alternatief zijn.
### 2.4 Vragencollege en voorbeeldvragen
De studiegids bevat voorbeelden van zowel kennis- en inzichtvragen als toepassingsvragen om studenten voor te bereiden op het examen. Deze voorbeelden demonstreren de toepassing van de hierboven besproken concepten en statistische toetsen.
* **Voorbeeld Kennis/Inzicht:** Vragen over de definitie van statistische significantie, de betekenis van de $\alpha$-waarde, en het belang van effectgrootte. Ook de correcte formulering van hypothesen en de keuze tussen eenzijdige en tweezijdige toetsen komen aan bod.
* **Voorbeeld Toepassing:** Vragen die vereisen dat men de juiste toets kiest op basis van een beschreven onderzoekssituatie, de resultaten van een analyse (bv. een SPSS-output) interpreteert, of de stappen van een specifieke toets uitvoert (bv. ANOVA).
> **Tip:** Werk de voorbeeldvragen grondig uit. Analyseer waarom een bepaalde toets wordt gekozen en hoe de resultaten geïnterpreteerd moeten worden. Oefen met het herkennen van de verschillende scenario's die leiden tot de selectie van specifieke toetsen.
---
# Toepassing van statistische toetsen met concrete voorbeelden
Deze sectie van de studiehandleiding concentreert zich op de praktische toepassing van diverse statistische toetsen, met concrete voorbeelden om de keuzes en interpretaties te verduidelijken.
## 3. Toepassing van statistische toetsen met concrete voorbeelden
Dit hoofdstuk biedt gedetailleerde voorbeelden van hoe verschillende statistische toetsen worden toegepast in casestudies om onderzoeksvragen te beantwoorden en hypothesen te toetsen.
### 3.1 Kennis- en inzichtvragen in statistiek
Kennis- en inzichtvragen op het examen toetsen het begrip van de basisprincipes van statistiek. Dit omvat het herkennen van de functie van statistische significantie, het correct interpreteren van het significantieniveau ($\alpha$), en het belang van effectgrootte.
#### 3.1.1 Statistische significantie en het belang van p-waarden
* Statistische significantie wordt gebruikt om na te gaan of er een significant verschil is tussen bijvoorbeeld twee groepen of condities.
* Een significant resultaat impliceert dat het onwaarschijnlijk is dat het resultaat puur door toeval is verklaard.
* De p-waarde wordt vergeleken met een vooraf bepaald significantieniveau (vaak $\alpha = 0.05$) om de nulhypothese te verwerpen.
#### 3.1.2 Type I en Type II fouten
* **Type I fout**: De nulhypothese wordt ten onrechte verworpen. Dit betekent dat er een effect wordt geconcludeerd terwijl dit in werkelijkheid puur door toeval wordt veroorzaakt. De kans op deze fout is gelijk aan $\alpha$.
* **Type II fout**: De nulhypothese wordt ten onrechte aanvaard. Dit betekent dat er geen effect wordt geconcludeerd, terwijl er in werkelijkheid wel een effect is.
#### 3.1.3 Effectgrootte (effect size)
* De effectgrootte geeft de betekenisvolheid van een relatie tussen variabelen of een verschil tussen groepen aan. Dit wordt ook wel "praktische significantie" genoemd.
* Het meet in welke mate een variabele de variantie in een andere variabele verklaart.
* Vuistregels voor Pearson's $r$:
* Klein effect: tussen 0.1 en 0.3 (of -0.1 tot -0.3)
* Medium effect: tussen 0.3 en 0.5 (of -0.3 tot -0.5)
* Groot effect: groter dan 0.5 (of kleiner dan -0.5)
#### 3.1.4 Hypothesevorming en toetskeuze
* Onderzoek vertrekt meestal vanuit de alternatieve hypothese ($H_1$) die een verschil of verband suggereert.
* Hypothesetoetsen worden uitgevoerd *onder* de nulhypothese ($H_0$). De nulhypothese wordt verworpen als de kans om het onderzoeksresultaat te observeren, gegeven dat $H_0$ waar is, uitzonderlijk klein is.
* **Eenzijdige toets**: Wordt gebruikt wanneer men specifiek onderzoekt of een groep hoger of lager scoort op een bepaalde variabele dan een andere groep (bv. de ene groep scoort hoger op een examen).
* **Tweezijdige toets**: Wordt gebruikt wanneer men onderzoekt of er *een* significant verschil is, zonder een specifieke richting te specificeren.
### 3.2 Toepassingsvragen: selectie en interpretatie van statistische toetsen
Dit deel behandelt concrete casussen om de keuze en interpretatie van verschillende statistische toetsen te illustreren.
#### 3.2.1 T-toets voor afhankelijke steekproeven (paired samples t-test)
* **Toepassing**: Vergelijken van twee metingen binnen dezelfde groep of bij gematchte paren (bv. meting voor en na een interventie).
* **Voorwaarden**:
* Afhankelijke variabele van minimaal intervalniveau.
* Voldoende aantal proefpersonen (vaak N>30 wordt als richtlijn gegeven, maar bij normaal verdeelde data ook bruikbaar bij kleinere N).
* Afhankelijke steekproeven (dezelfde participanten of gematchte paren).
* **Voorbeeldcasus**: Een onderzoeker wil nagaan of slaap een invloed heeft op studieprestaties. 50 studenten ondergaan twee testen: één na 8 uur slaap en één na 5 uur slaap. De data is van intervalniveau en de metingen zijn afhankelijk.
#### 3.2.2 Interpreteren van t-toets resultaten
* **Hypothese toetsing**: Als de p-waarde kleiner is dan het significantieniveau ($\alpha$), wordt de nulhypothese verworpen.
* **Foutanalyse**: Bij het verwerpen van $H_0$ kan een Type I fout gemaakt zijn.
#### 3.2.3 T-toets voor één populatie (one sample t-test)
* **Toepassing**: Vergelijken van het gemiddelde van één steekproef met een bekend populatiegemiddelde.
* **Voorwaarden**:
* Afhankelijke variabele van minimaal intervalniveau.
* Steekproef is willekeurig getrokken uit de populatie.
* Data is (ongeveer) normaal verdeeld, of de steekproefgrootte is voldoende groot (N>30).
* **Voorbeeldcasus**: Lynn wil onderzoeken of haar 24 leerlingen in het zesde leerjaar beter scoren op IQ dan het Vlaamse gemiddelde. De data is normaal verdeeld. De toets is tweezijdig omdat er geen eerder onderzoek is dat een specifieke richting aangeeft.
#### 3.2.4 T-toets voor onafhankelijke steekproeven (independent samples t-test)
* **Toepassing**: Vergelijken van de gemiddelden van twee onafhankelijke groepen.
* **Voorwaarden**:
* Afhankelijke variabele van minimaal intervalniveau.
* Onafhankelijke steekproeven.
* Data is (ongeveer) normaal verdeeld binnen beide groepen, of de steekproefgroottes zijn voldoende groot (bv. n>19 per groep indien normaal verdeeld wordt aangenomen).
* **Voorbeeldcasus**: Zora wil weten of er een verschil is tussen werknemers met een lage assertiviteitsscore en die met een hoge assertiviteitsscore wat betreft een gemeten kenmerk. Ze heeft twee groepen (lage vs. hoge assertiviteit) en 19 cliënten per groep. De data is normaal verdeeld.
* **Alternatief bij niet-normale verdeling**: Wilcoxon ranksum toets.
#### 3.2.5 T-toets voor het gemiddelde (one sample t-test) met een populatiegemiddelde
* **Berekening van de kans**:
* Bereken eerst de $z$-score met de formule: $z = \frac{\bar{x} - \mu}{\sigma/\sqrt{n}}$, waarbij $\bar{x}$ het steekproefgemiddelde is, $\mu$ het populatiegemiddelde, $\sigma$ de populatiestandaarddeviatie en $n$ de steekproefgrootte.
* De $z$-score wordt vervolgens gebruikt om de kans op dat gemiddelde of hoger/lager te vinden in een standaard normaalverdelingstabel.
* Als de standaarddeviatie van de populatie ($\sigma$) niet bekend is, maar wel de standaarddeviatie van de steekproef ($s$), en de populatie wordt als normaal verdeeld aangenomen, dan wordt de $t$-verdeling gebruikt.
* **Voorbeeldcasus**: Een onderzoeker neemt een SASKO-vragenlijst af bij 105 volwassenen. Het populatiegemiddelde is 68 met $\sigma=15$. De steekproef toont een gemiddelde van 72. De kans om dit steekproefgemiddelde of hoger te observeren, wordt berekend via de $z$-score.
* $z = \frac{72 - 68}{15/\sqrt{105}} \approx 2.74$
* De kans op een $z$-score van 2.74 of hoger is $1 - P(Z \leq 2.74) = 1 - 0.9969 = 0.0031$, wat overeenkomt met 0.31%.
#### 3.2.6 One-way variantieanalyse (ANOVA)
* **Toepassing**: Vergelijken van de gemiddelden van drie of meer onafhankelijke groepen.
* **Hypothesen**:
* $H_0$: Er is geen significant verschil tussen de gemiddelden van de groepen.
* $H_1$: Er is minstens één groep waarvan het gemiddelde significant verschilt van de andere groepen.
* **Voorwaarden**:
* Afhankelijke variabele van minimaal intervalniveau.
* Onafhankelijke groepen.
* Data is (ongeveer) normaal verdeeld binnen elke groep.
* Homogeniteit van varianties (varianties in de groepen zijn ongeveer gelijk).
* **Stappen en berekeningen**:
* **Sum of Squares (SS)**:
* $SS_{between}$ (tussen-groepen variantie): Meet de variatie tussen de groepsgemiddelden en het totaalgemiddelde.
* $SS_{within}$ (binnen-groepen variantie): Meet de variatie binnen elke groep rond het groepsgemiddelde.
* **Vrijheidsgraden (df)**:
* $df_{between} = k-1$, waarbij $k$ het aantal groepen is.
* $df_{within} = N-k$, waarbij $N$ het totale aantal deelnemers is.
* **Mean Sum of Squares (MS)**:
* $MS_{between} = \frac{SS_{between}}{df_{between}}$
* $MS_{within} = \frac{SS_{within}}{df_{within}}$
* **Toetsingsgrootheid (F-statistiek)**: $F = \frac{MS_{between}}{MS_{within}}$
* **Kritieke waarde**: Aflezen uit de F-verdelingstabel op basis van $df_{between}$ en $df_{within}$ en het gekozen significantieniveau ($\alpha$).
* **Conclusie**: Als de berekende F-statistiek groter is dan de kritieke waarde, wordt $H_0$ verworpen.
* **Voorbeeldcasus**: Een onderzoek gaat na of het eten van 0, 1 of 2 repen chocolade een verschil maakt in ervaren stress voor een dansoptreden. Er zijn 102 proefpersonen, 34 per conditie.
* $SS_{between}$ berekenen op basis van groepsgemiddelden en totaalgemiddelde.
* $df_{between} = 3 - 1 = 2$.
* $SS_{within}$ is gegeven als 11277.471.
* $df_{within} = 102 - 3 = 99$.
* $MS_{within} = \frac{11277.471}{99} \approx 113.91$.
* Na berekening van $SS_{between}$ en $MS_{between}$, wordt de F-statistiek berekend. Als deze kleiner is dan de kritieke waarde (bv. 3.83 voor $\alpha=.05$, $df_1=2$, $df_2=99$), wordt $H_0$ aanvaard.
#### 3.2.7 Onafhankelijke t-toets met p-waarde en effectgrootte
* **Rapportage**: Resultaten worden gerapporteerd met het gemiddelde, standaarddeviatie, de t-statistiek, vrijheidsgraden, de p-waarde en de effectgrootte.
* **Voorbeeldcasus**: Een onderzoek vergelijkt fysiologische reacties (huidgeleiding) tussen mindfulness (MF) en EMDR therapie bij PTSS-patiënten.
* Gemiddelde huidgeleiding na MF: $M = 16.03$, $SD = 2.66$.
* Gemiddelde huidgeleiding na EMDR: $M = 13.96$, $SD = 2.94$.
* Resultaten: $t(58) = 2.86$, $p = .006$, effectgrootte $r = .35$.
* Conclusie: Het effect is significant ($p < .05$). De gemiddelde huidgeleiding is hoger na MF dan na EMDR. De effectgrootte ($r=.35$) duidt op een medium effect.
#### 3.2.8 Chikwadraattoets voor kruistabellen
* **Toepassing**: Onderzoeken van het verband tussen twee categorische variabelen (nominaal of ordinaal). Controleert of de geobserveerde frequenties significant afwijken van de verwachte frequenties.
* **Voorwaarden**:
* Twee categorische variabelen.
* Data bestaat uit frequenties.
* De verwachte frequenties in de cellen van de kruistabel moeten over het algemeen niet te klein zijn (bv. de meeste cellen > 5, geen enkele cel < 1).
* **Voorbeeldcasus**: Kilian vraagt zich af of studenten uit verschillende richtingen van het secundair onderwijs even succesvol (geslaagd/niet-geslaagd) zijn in statistiek. Dit betreft twee categorische variabelen: "richting secundair" en "succes in statistiek".
#### 3.2.9 Chikwadraattoets voor frequenties (one-sample)
* **Toepassing**: Vergelijken van geobserveerde frequenties van één categorische variabele met verwachte frequenties (bv. een gelijkmatige verdeling of een theoretische verdeling).
* **Voorwaarden**:
* Eén categorische variabele.
* Data bestaat uit frequenties.
* Kleine aantallen kunnen leiden tot het gebruik van deze toets indien niet normaal verdeeld.
* **Voorbeeldcasus**: Jill onderzoekt of de scores op een sociale gedragsschaal significant afwijken van een nationaal gemiddelde bij 9 mensen in een leefgroep. Als de data niet als normaal verdeeld kan worden beschouwd, kan dit een geschikte toets zijn.
#### 3.2.10 T-toets voor twee afhankelijke populaties (paired samples t-test)
* **Toepassing**: Vergelijken van twee metingen van dezelfde afhankelijke variabele bij dezelfde proefpersonen of bij gematchte paren.
* **Voorwaarden**:
* Afhankelijke variabele van intervalniveau.
* Data is normaal verdeeld.
* Gematchte of afhankelijke steekproeven.
* **Voorbeeldcasus**: Fauve heeft een coachingsmethode ontwikkeld. Ze test deze op 15 personen en vergelijkt de resultaten met 15 gematchte personen die de behandeling niet ondergaan. De data is normaal verdeeld.
#### 3.2.11 T-toets voor één gemiddelde (one sample t-test)
* **Toepassing**: Vergelijken van het gemiddelde van één steekproef met een bekend populatiegemiddelde.
* **Voorwaarden**:
* Afhankelijke variabele van intervalniveau.
* Data is normaal verdeeld of de steekproef is groot genoeg.
* **Voorbeeldcasus**: Lynn wil weten of haar 24 leerlingen beter scoren qua IQ dan het Vlaamse gemiddelde. De data is normaal verdeeld. Een tweezijdige toets is gepast omdat er geen eerdere publicaties zijn die een specifieke richting aangeven.
#### 3.2.12 T-toets voor onafhankelijke populaties
* **Toepassing**: Vergelijken van de gemiddelden van twee onafhankelijke groepen.
* **Voorwaarden**:
* Afhankelijke variabele van intervalniveau.
* Twee onafhankelijke groepen.
* Data is normaal verdeeld in beide groepen of de steekproefgroottes zijn voldoende groot (bv. 19 per groep).
* **Voorbeeldcasus**: Zora vergelijkt twee groepen cliënten met een lage en een hoge assertiviteitsscore. Elke groep bevat 19 cliënten en de data is normaal verdeeld.
* **Alternatief bij niet-normale verdeling**: Wilcoxon ranksum toets.
#### 3.2.13 Wilcoxon ranksum toets
* **Toepassing**: Een non-parametrische toets voor het vergelijken van twee onafhankelijke populaties. Wordt gebruikt wanneer de assumpties van de t-toets voor onafhankelijke steekproeven niet voldaan zijn (kleine aantallen, niet-normaal verdeeld, of ordinale variabelen).
* **Voorbeeldcasus**: Indien de data bij Zora's onderzoek niet normaal verdeeld zou zijn geweest, zou de Wilcoxon ranksum toets een alternatief zijn geweest.
#### 3.2.14 Chikwadraattoets voor frequenties (met ordinale variabele)
* **Toepassing**: Kan gebruikt worden wanneer een variabele ordinaal is en er een vergelijking van frequenties nodig is.
* **Voorbeeldcasus**: Mustafa wil nagaan of een groep met veel autonomie beter scoort op algemeen welbevinden dan het populatiegemiddelde. De eindscore (laag, gemiddeld, hoog welbevinden) is ordinaal. Ondanks een grote steekproefgrootte (40), is de toets non-parametrisch vanwege de ordinale variabele. Een chikwadraattoets voor frequenties is hier gepast.
#### 3.2.15 Rapportage van SPSS-output (Wilcoxon ranksum toets)
* **Interpretatie**: Bij het rapporteren van een Wilcoxon ranksum toets, let op:
* Het betreft een non-parametrische toets.
* Vergelijking van twee onafhankelijke populaties.
* Geschikt voor kleine aantallen, niet-normaal verdeelde data of ordinale variabelen.
* Een significante p-waarde (bv. 0.006) impliceert een significant verschil tussen de groepen.
#### 3.2.16 ANOVA en post-hoc toetsen
* **ANOVA als omnibus test**: De ANOVA test of er *enig* verschil is tussen de groepen.
* **Paarsgewijze contrasten**: Indien de ANOVA significant is, worden post-hoc toetsen (bv. paarsgewijze contrasten met Bonferroni correctie) gebruikt om te bepalen welke specifieke groepen van elkaar verschillen.
* **Voorbeeldcasus**: Mohamed vergelijkt de effectiviteit van drie therapieën (CGT, ACT, psychodynamische therapie) bij angstige patiënten. Elke groep heeft 34 patiënten en de data is van intervalniveau. ANOVA wordt gebruikt, gevolgd door paarsgewijze contrasten om specifieke therapieën te vergelijken.
#### 3.2.17 Pearson correlatie
* **Toepassing**: Onderzoeken van de sterkte en richting van een lineair verband tussen twee interval- of ratio-variabelen.
* **Voorwaarden**:
* Twee interval- of ratio-variabelen.
* Lineair verband tussen de variabelen.
* Data is (ongeveer) normaal verdeeld.
* **Interpretatie**: Een sterretje (*) in een correlatiematrix duidt op significantie op $\alpha = .05$, twee sterretjes (**) op significantie op $\alpha = .01$.
* **Voorbeeldcasus**: Liesbeth onderzoekt het verband tussen sociaal inlevingsvermogen (40 Likert-items, interval) en burn-out (60 Likert-items, interval) bij 42 cliënten. Aangezien N>30, is de normaliteitsassumptie waarschijnlijk voldaan. Een Pearson correlatietoets is geschikt.
#### 3.2.18 Spearman correlatie
* **Toepassing**: Onderzoeken van de sterkte en richting van een verband tussen twee ordinale variabelen, of wanneer de assumpties voor Pearson correlatie niet voldaan zijn (bv. niet-lineair verband, niet-normaal verdeelde data, kleine steekproef).
* **Voorwaarden**:
* Twee ordinale variabelen, of interval/ratio variabelen die als ordinaal behandeld worden.
* Monotoon verband (het verband neemt consistent toe of af).
* **Voorbeeldcasus**: Sandra wil de link nagaan tussen prikkelgevoeligheid (één Likert-item, ordinaal) en pijnklachten (ordinaal geschaald) bij 28 mensen. De variabelen zijn ordinaal en de steekproef is klein ($n < 30$), waardoor een Spearman correlatie de gepaste toets is.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Inductieve statistiek | Een tak van statistiek die zich richt op het trekken van conclusies over een populatie op basis van gegevens uit een steekproef. Het omvat technieken zoals hypothesetoetsing en betrouwbaarheidsintervallen om algemene uitspraken te doen. |
| Kansverdelingen | Wiskundige functies die de waarschijnlijkheid beschrijven dat een continue of discrete willekeurige variabele een bepaalde waarde aanneemt. Bekende voorbeelden zijn de normale verdeling en de binomiale verdeling. |
| Hypothesetoetsing | Een statistische methode om te bepalen of er voldoende bewijs is om een bepaalde hypothese over een populatie te verwerpen, gebaseerd op een steekproef. Dit proces omvat het formuleren van een nulhypothese en een alternatieve hypothese. |
| Betrouwbaarheidsinterval | Een reeks waarden die met een bepaalde mate van zekerheid (het betrouwbaarheidsniveau) de werkelijke populatiewaarde van een parameter, zoals het gemiddelde, bevat. Een 95% betrouwbaarheidsinterval geeft aan dat bij herhaalde steekproeftrekkingen 95% van de intervallen de populatieparameter bevat. |
| T-toets voor het gemiddelde (one sample) | Een statistische toets die wordt gebruikt om te bepalen of het gemiddelde van een enkelvoudige steekproef significant verschilt van een bekende of hypothetische populatiegemiddelde, wanneer de populatiestandaarddeviatie onbekend is. |
| Chikwadraattoets voor frequenties | Een non-parametrische statistische toets die wordt gebruikt om te onderzoeken of er een significant verschil is tussen de geobserveerde frequenties van een categorische variabele en de verwachte frequenties onder de nulhypothese. |
| T-toets voor onafhankelijke populaties (independent samples t-test) | Een parametrische statistische toets die wordt gebruikt om te vergelijken of de gemiddelden van twee onafhankelijke groepen significant van elkaar verschillen. De data wordt verondersteld normaal verdeeld te zijn binnen elke groep en de varianties worden vergeleken. |
| T-toets voor twee afhankelijke steekproeven (paired samples t-test) | Een parametrische statistische toets die wordt gebruikt om te vergelijken of de gemiddelden van twee gerelateerde of afhankelijke metingen significant van elkaar verschillen, zoals metingen voor en na een interventie bij dezelfde personen. |
| Eenwegs variantieanalyse (ANOVA) | Een statistische techniek die wordt gebruikt om de gemiddelden van drie of meer groepen te vergelijken. Het analyseert de variatie binnen en tussen de groepen om te bepalen of er een significant verschil is tussen ten minste twee van de groepsgemiddelden. |
| Pearson correlatietoets | Een statistische maat die de lineaire relatie tussen twee continue variabelen kwantificeert. De correlatiecoëfficiënt (r) varieert van -1 tot +1, waarbij waarden dichter bij de extremen een sterkere lineaire relatie aangeven. |
| Spearman correlatietoets | Een non-parametrische rangcorrelatiemaat die de sterkte en richting van de associatie tussen twee gerangschikte variabelen meet. Het is een alternatief voor de Pearson correlatie wanneer de data niet normaal verdeeld is of wanneer de variabelen ordinaal zijn. |
| Chikwadraattoets voor kruistabellen | Een non-parametrische statistische toets die wordt gebruikt om te onderzoeken of er een significante associatie bestaat tussen twee categorische variabelen, georganiseerd in een kruistabel. |
| Statistisch significant | Een resultaat van een statistische test dat onwaarschijnlijk is om door toeval te zijn ontstaan, meestal gedefinieerd als een p-waarde lager dan een vooraf bepaald significantieniveau (alpha). |
| Alpha (significantieniveau) | Het vooraf bepaalde niveau van significantie (meestal 0.05) dat wordt gebruikt om te beslissen of de nulhypothese wordt verworpen. Het vertegenwoordigt de maximale kans op het maken van een Type I-fout. |
| Type I-fout | Het onterecht verwerpen van de nulhypothese wanneer deze in werkelijkheid waar is. De kans hierop is gelijk aan het alpha-niveau. |
| Type II-fout | Het onterecht aanvaarden van de nulhypothese wanneer deze in werkelijkheid onwaar is. De kans hierop wordt aangeduid met beta ($\beta$). |
| Effectgrootte | Een maat die de omvang van een effect of het verschil tussen groepen kwantificeert, onafhankelijk van de steekproefgrootte. Het helpt bij het beoordelen van de praktische significantie van de resultaten. |
| Pearson r | Een specifieke maat voor effectgrootte die de sterkte van de lineaire relatie tussen twee continue variabelen weergeeft. De interpretatie varieert, maar algemene richtlijnen zijn: 0.1-0.3 (klein), 0.3-0.5 (medium), >0.5 (groot). |
| Cohen’s D | Een veelgebruikte maat voor effectgrootte die het gestandaardiseerde verschil tussen twee gemiddelden weergeeft. |
| Nulhypothese ($H_0$) | Een stelling die stelt dat er geen effect, verschil of relatie is in de populatie. Het is de hypothese die wordt getoetst. |
| Alternatieve hypothese ($H_1$) | Een stelling die stelt dat er wel een effect, verschil of relatie is in de populatie. Het is het tegenovergestelde van de nulhypothese. |
| Een- of tweezijdig toetsen | Bij eenzijdig toetsen wordt de alternatieve hypothese gericht op een specifieke richting van het effect (bijvoorbeeld groter dan of kleiner dan). Bij tweezijdig toetsen wordt gekeken naar een verschil in beide richtingen. |
| Vrijheidsgraden ($df$) | Het aantal onafhankelijke waarden dat vrij kan variëren in een statistische berekening. Het is vaak gerelateerd aan de steekproefgrootte en het aantal groepen of variabelen. |
| p-waarde | De waarschijnlijkheid van het observeren van de steekproefresultaten (of extremere resultaten) als de nulhypothese waar zou zijn. Een lage p-waarde (< alpha) leidt tot het verwerpen van de nulhypothese. |
| Non-parametrische toetsen | Statistische toetsen die geen aannames doen over de verdeling van de populatieparameters, zoals normaliteit. Ze worden vaak gebruikt bij ordinale of nominale data, of wanneer de assumpties van parametrische toetsen geschonden zijn. |
| Parametrische toetsen | Statistische toetsen die aannames doen over de parameters van de populatie, zoals de normale verdeling. Voorbeelden zijn de t-toets en ANOVA. |
| Wilcoxon ranksum toets | Een non-parametrische toets voor twee onafhankelijke groepen, gebruikt als alternatief voor de onafhankelijke t-toets wanneer de data niet normaal verdeeld is. |
| Wilcoxon signed-rank toets | Een non-parametrische toets voor twee gerelateerde metingen, gebruikt als alternatief voor de gepaarde t-toets wanneer de data niet normaal verdeeld is. |
| Kruskal-Wallis toets | Een non-parametrische éénwegs variantieanalyse, gebruikt om de medianen van drie of meer onafhankelijke groepen te vergelijken wanneer de data niet normaal verdeeld is. |
| SASKO-vragenlijst | Een specifieke vragenlijst voor sociale angst, gebruikt in het voorbeeld om het gemiddelde angstniveau te analyseren. |
| Z-waarde | Een gestandaardiseerde score die aangeeft hoeveel standaarddeviaties een bepaald datapunt verwijderd is van het gemiddelde van de populatie. |
| Sum of Squares (SS) | Een statistische maat die de totale variatie in een dataset weergeeft. Het is de som van de gekwadrateerde afwijkingen van elk datapunt ten opzichte van het gemiddelde. |
| Mean Sum of Squares (MS) | De gemiddelde Sum of Squares, berekend door de Sum of Squares te delen door de bijbehorende vrijheidsgraden. Het is een schatter van de variantie. |
| Toetsingsgrootheid | De waarde die wordt berekend tijdens een statistische toets, zoals de t-waarde, F-waarde of chikwadraatwaarde, om de nulhypothese te evalueren. |
| Kritieke waarde | Een drempelwaarde in de verdeling van de toetsingsgrootheid. Als de berekende toetsingsgrootheid deze waarde overschrijdt (of kleiner is, afhankelijk van de richting), wordt de nulhypothese verworpen. |
| Paarsgewijze contrasten | Post-hoc testen die worden uitgevoerd na een significante ANOVA om te bepalen welke specifieke groepen van elkaar verschillen. |
| Bonferroni correctie | Een methode om de significantieniveaus van meerdere vergelijkingen aan te passen om het risico op Type I-fouten te verminderen. |