Cover
Inizia ora gratuitamente Statistiek 2025.docx
Summary
# Interpretatie van regressiecoëfficiënten en schaalverschillen
### Kernideeën
* Inferentiële statistiek maakt uitspraken over een populatie op basis van steekproefdata.
* Steekproevenverdelingen beschrijven de variatie van steekproefstatistieken bij herhaalde steekproeftrekking.
* Betrouwbaarheidsintervallen en significantietoetsen zijn twee benaderingen van inferentie.
### Kernfeiten
* Statistiek I behandelde ordenings-, reductie- en associatietechnieken.
* Statistiek II focuste op kansrekening, steekproevenverdelingen en introductie tot inferentie.
* Inductieve statistiek gaat van steekproef naar populatie; schatten en toetsen zijn de twee visies.
* Betrouwbaarheidsintervallen geven een bereik aan waarbinnen het populatiegemiddelde waarschijnlijk ligt.
* Significantietoetsen beoordelen of waargenomen verschillen groot genoeg zijn om niet aan toeval toe te schrijven.
* De standaardfout van het gemiddelde is de standaardafwijking van de steekproevenverdeling van het gemiddelde.
* Een kleiner betrouwbaarheidsinterval (BI) impliceert hogere betrouwbaarheid door grotere steekproeven of lager betrouwbaarheidsniveau.
* Een grotere steekproefgrootte verkleint het betrouwbaarheidsinterval en verhoogt de nauwkeurigheid.
* Een kleiner betrouwbaarheidsniveau (bv. 90% i.p.v. 95%) leidt tot een smaller BI, maar vergroot het risico op een Type I fout.
* De standaardafwijking van de populatie (sigma, $\sigma$) beïnvloedt de breedte van het BI; kleinere $\sigma$ geeft een smaller BI.
* Het betrouwbaarheidsinterval is van de vorm: steekproefgemiddelde $\pm$ foutenmarge.
* De foutenmarge bevat de kritieke waarde (Z-score), de populatiestandaardafwijking ($\sigma$) en de steekproefgrootte ($n$).
### Sleutelconcepten
* **Betrouwbaarheidsinterval (BI):** Een interval waarbinnen het populatiegemiddelde met een bepaalde waarschijnlijkheid ligt.
* 95% BI: In 95% van de herhalingen bevat het interval de werkelijke populatiewaarde.
* Formule: $\bar{x} \pm Z \cdot \frac{\sigma}{\sqrt{n}}$ (met $\sigma$ bekend)
* **Z-score:** Kritieke waarde die hoort bij het betrouwbaarheidsniveau (bv. 1,96 voor 95%).
* **Significantieniveau ($\alpha$):** Vooraf bepaalde grens (vaak 5%) voor het verwerpen van de nulhypothese.
* **P-waarde:** Kans om een resultaat te verkrijgen dat minstens zo extreem is als waargenomen, aangenomen dat de nulhypothese waar is.
* **Steekproefgrootte ($n$):** Een grotere $n$ leidt tot een smaller BI.
* **Standaardafwijking van de populatie ($\sigma$):** Maat voor spreiding in de populatie; kleinere $\sigma$ geeft een smaller BI.
* **Significantietoets (hypothesetoets):**
- 1
### Implicaties
### Voorbeelden
---
* Statistische inferentie maakt uitspraken over populaties op basis van steekproefgegevens.
* Betrouwbaarheidsintervallen en significantietoetsen zijn cruciale inferentiële technieken.
* De t-verdeling wordt gebruikt wanneer de populatiestandaardafwijking ($\sigma$) onbekend is, vooral bij kleine steekproeven.
### Belangrijke feiten
* Een betrouwbaarheidsinterval (BI) geeft een reeks waarden aan waarbinnen het populatiegemiddelde ($\mu$) waarschijnlijk ligt.
* Een 95% BI betekent dat bij 95% van de herhaalde steekproeven het interval de ware populatiewaarde bevat.
* De breedte van een BI wordt beïnvloed door:
* Steekproefgemiddelde ($\bar{x}$)
* Betrouwbaarheidsniveau (Z-score)
* Significantieniveau ($\alpha$)
* Populatiestandaardafwijking ($\sigma$)
* Steekproefgrootte ($n$)
* Een kleiner BI duidt op een nauwkeurigere schatting en hogere betrouwbaarheid.
* Significanteoetsen beoordelen of waargenomen verschillen verklaard kunnen worden door toeval (nulhypothese).
* De p-waarde is de kans op het waargenomen resultaat (of extremer) als de nulhypothese waar is.
* De nulhypothese (H₀) wordt verworpen als de p-waarde kleiner is dan het significantieniveau ($\alpha$).
* Type I fout: H₀ onterecht verwerpen (vals positief, kans $\alpha$).
* Type II fout: H₀ onterecht niet verwerpen (vals negatief, kans $\beta$).
* Onderscheidingsvermogen (power) is de kans om H₀ correct te verwerpen als de alternatieve hypothese waar is ($1 - \beta$).
### Kernconcepten
* **Steekproevenverdeling**: Een frequentieverdeling van statistische maten uit herhaalde steekproeven.
* **Betrouwbaarheidsinterval formule**:
- $$ \text{BI} = \bar{x} \pm Z \cdot \frac{\sigma}{\sqrt{n}} $$
- waarbij $Z$ de kritieke waarde is voor het gekozen betrouwbaarheidsniveau
* **Significanteoets stappen**:
- Formuleer H₀ en H₁
---
* **Betrouwbaarheidsinterval (BI):** Een bereik van waarden dat met een bepaalde mate van zekerheid (bv. 95%) de werkelijke populatieparameter bevat.
* **Significantieniveau ($\alpha$):** De vooraf bepaalde kritieke grens (meestal 5%) die aangeeft wanneer de nulhypothese verworpen wordt.
* **p-waarde:** De kans om een resultaat te verkrijgen dat minstens zo extreem is als het waargenomen resultaat, aangenomen dat de nulhypothese waar is.
* **Type I fout (vals positief):** De nulhypothese wordt onterecht verworpen (kans is $\alpha$).
* **Type II fout (vals negatief):** De nulhypothese wordt niet verworpen terwijl deze verworpen zou moeten worden (kans is $\beta$).
* **Onderscheidingsvermogen (power):** De kans om een echt verschil op populatieniveau te detecteren wanneer dit verschil relevant is ($1-\beta$).
* **T-verdeling:** Een kansverdeling die lijkt op de normaalverdeling maar dikkere staarten heeft, gebruikt wanneer de populatiestandaardafwijking ($\sigma$) onbekend is en geschat wordt uit de steekproef.
* **Vrijheidsgraden (df):** Een parameter van de t-verdeling, meestal gelijk aan de steekproefgrootte minus 1 ($n-1$), die de vorm van de verdeling bepaalt.
### Betrouwbaarheidsintervallen en Significantietoetsen
* Een 95% BI geeft de grenzen aan waarbinnen het echte populatiegemiddelde naar verwachting zal liggen.
* Een kleiner BI duidt op een hogere betrouwbaarheid en een kleinere foutenmarge.
* Factoren die een BI beïnvloeden: steekproefgemiddelde ($\bar{x}$), Z-score (betrouwbaarheidsniveau), populatiestandaardafwijking ($\sigma$), en steekproefgrootte ($n$).
* Een grotere steekproefgrootte ($n$) verkleint het BI, wat resulteert in een nauwkeurigere schatting.
* Een lager betrouwbaarheidsniveau (bv. 90% i.p.v. 95%) resulteert in een smaller BI, maar met een hoger risico op een Type I fout.
* Significantietoetsen volgen 4 stappen: hypothesen formuleren, toetsingsgrootheid bepalen, overschrijdingskans (p-waarde) bepalen, en conclusie formuleren.
* De nulhypothese ($H_0$) stelt meestal dat er geen verschil is.
### Benaderingen voor Statistische Inferentie
* **Klassieke aanpak:** Gebruikt kansrekening en theoretische verdelingen (binomiaal, normaal) om p-waarden te berekenen.
* **Resampling/Bootstrap:** Simuleert steekproevenverdelingen door herhaaldelijk steekproeven te trekken met teruglegging uit de oorspronkelijke steekproef.
* De p-waarde is de kans om het waargenomen resultaat of extremer te verkrijgen onder de aanname dat $H_0$ waar is.
### Vergelijking van Twee Gemiddelden
* **T-toets voor gekoppelde paren (paired t-test):** Gebruikt voor afhankelijke steekproeven, zoals voor- en nametingen bij dezelfde personen. Vergelijkt de gemiddelde verschillen binnen paren.
* **T-toets voor onafhankelijke steekproeven (independent samples t-test):** Gebruikt voor twee onafhankelijke groepen. Vergelijkt de gemiddelden van de twee groepen.
* Bij de t-toets voor onafhankelijke steekproeven, wanneer $\sigma$ onbekend is en de groepen verschillende standaardafwijkingen hebben, wordt een conservatieve benadering van de vrijheidsgraden toegepast (kleinste van $n_1-1$ en $n_2-1$).
### T-verdelingen versus Z-verdelingen
* De t-verdeling heeft dikkere staarten dan de normaalverdeling (z-verdeling), wat betekent dat er een grotere kans is op extreme waarden, vooral bij kleine steekproeven.
* Dit komt doordat de populatiestandaardafwijking ($\sigma$) geschat wordt uit de steekproefstandaardafwijking ($s$), wat extra onzekerheid introduceert.
* Naarmate het aantal vrijheidsgraden toeneemt, nadert de t-verdeling de normaalverdeling.
### Rapporteren van Toetsresultaten (APA-stijl)
* Vermeld de gebruikte toets, toetsingsgrootheid met waarde (bv. $t = 5,23$), vrijheidsgraden (indien van toepassing, bv. $t(39) = 5,23$), en de p-waarde (bv. $p < 0,001$).
### T-toets voor Gekoppelde Data
### T-toets voor Twee Onafhankelijke Steekproeven
---
### Kernidee
* Regressiecoëfficiënten kwantificeren de relatie tussen predictoren en de uitkomstvariabele, waarbij schaalverschillen cruciaal zijn voor de interpretatie.
* Regressieanalyse is een inductieve techniek die uitspraken over populaties mogelijk maakt op basis van steekproefgegevens.
* Het concept van de steekproevenverdeling is fundamenteel voor inferentiële statistiek.
* Betrouwbaarheidsintervallen bieden een bereik waarbinnen de werkelijke populatiewaarde waarschijnlijk ligt.
* Significantietoetsen evalueren de kans dat een waargenomen resultaat door toeval is ontstaan onder de nulhypothese.
* Type I-fouten (vals positief) en Type II-fouten (vals negatief) zijn mogelijke misclassificaties bij significantietoetsen.
* De t-verdeling, met vrijheidsgraden, wordt gebruikt wanneer de populatiestandaardafwijking onbekend is.
* Gekoppelde t-toetsen vergelijken metingen van dezelfde proefpersonen (bv. voor- en nametingen).
* Onafhankelijke t-toetsen vergelijken metingen van twee distincte, niet-gerelateerde groepen.
### Belangrijke concepten
* **Steekproevenverdeling:** Een frequentieverdeling van statistische maten (bv. gemiddelden) uit herhaaldelijk getrokken steekproeven.
* **Betrouwbaarheidsinterval (BI):** Een intervalschatting voor een populatieparameter, gebaseerd op steekproefgegevens. Een 95% BI geeft aan dat we in 95% van de gevallen verwachten dat het interval de populatiewaarde bevat.
* **Formule BI:** $\bar{x} \pm Z \cdot \frac{\sigma}{\sqrt{n}}$ (indien $\sigma$ bekend is).
* $\bar{x}$: steekproefgemiddelde
* $Z$: Z-score (betrouwbaarheidsniveau)
* $\sigma$: populatiestandaardafwijking
* $n$: steekproefgrootte
* **Foutenmarge:** Het deel van het BI dat varieert, beïnvloed door steekproefgemiddelde, betrouwbaarheidsniveau (Z-score), populatiestandaardafwijking ($\sigma$), en steekproefgrootte ($n$).
* **Significantieniveau ($\alpha$):** De kans op een Type I-fout, typisch vastgesteld op 0,05 (5%).
* **Nullhypothese ($H_0$):** De hypothese die stelt dat er geen verschil of verband is (bv. $\mu_1 = \mu_2$).
* **Alternatieve hypothese ($H_a$):** De hypothese die stelt dat er wel een verschil of verband is.
* **Toetsingsgrootheid:** Een statistische maat die wordt berekend uit de steekproefgegevens om de nulhypothese te toetsen (bv. z-score of t-score).
* **Onderscheidingsvermogen (Power):** De kans om een werkelijk bestaand verschil of verband te detecteren (de nulhypothese te verwerpen wanneer deze vals is).
* **t-verdeling:** Een verdeling die lijkt op de normaalverdeling, maar met dikkere staarten, gebruikt wanneer $\sigma$ onbekend is en geschat wordt met $s$.
* **Vrijheidsgraden (df):** Bepalen de specifieke vorm van de t-verdeling; voor een 1-steekproef t-toets is $df = n - 1$.
### Consequenties van fouten
### Het gebruik van t-verdelingen
---
* Regressiecoëfficiënten kwantificeren de relatie tussen variabelen, waarbij hun interpretatie sterk afhangt van de schaal waarop de variabelen zijn gemeten.
* Schaalverschillen kunnen leiden tot verwarring bij het vergelijken van de relatieve impact van verschillende voorspellers in een regressiemodel.
* Een regressiecoëfficiënt (\(\beta\)) geeft de verwachte verandering in de afhankelijke variabele aan voor een eenheidstoename in de onafhankelijke variabele, *ceteris paribus* (alles overige gelijkblijvend).
* De interpretatie van \(\beta\) is direct wanneer de onafhankelijke variabele een continue schaal heeft met een betekenisvolle eenheid (bv. leeftijd in jaren).
* Voor categorische variabelen (bv. dummyvariabelen) vertegenwoordigt \(\beta\) het verschil in de afhankelijke variabele tussen de categorie die is gecodeerd als 1 en de referentiecategorie (gecodeerd als 0).
* De schaal van de afhankelijke variabele beïnvloedt de directe interpretatie van \(\beta\) als absolute verandering.
* De schaal van de onafhankelijke variabele bepaalt of een eenheidstoename groot of klein is in de praktijk.
- **Gestandaardiseerde regressiecoëfficiënten (\(\beta_{std}\))**: Deze worden verkregen door de variabelen te standaardiseren (gemiddelde 0, standaardafwijking 1) vóór de regressieanalyse. Ze maken het mogelijk om de relatieve sterkte van de effecten van
* **Effectgrootte**: Gestandaardiseerde coëfficiënten dienen als een maat voor de effectgrootte, wat de praktische significantie van een relatie aangeeft.
* **Schaaltransformatie**: Het transformeren van variabelen (bv. logaritme, kwadraat) kan de interpretatie van de regressiecoëfficiënten veranderen, bijvoorbeeld door het weergeven van procentuele veranderingen of niet-lineaire relaties.
- **Interactietermen**: Wanneer de relatie tussen een voorspeller en de afhankelijke variabele afhangt van de waarde van een andere voorspeller, duidt dit op een interactie, en de regressiecoëfficiënt hiervan interpreteert de
* Het negeren van schaalverschillen kan leiden tot verkeerde conclusies over de relatieve belangrijkheid van voorspellers.
* Gestandaardiseerde coëfficiënten zijn nuttig voor het rangschikken van voorspellers op basis van hun invloed op de afhankelijke variabele.
* Het is cruciaal om de oorspronkelijke schalen van de variabelen te behouden voor een volledige contextuele interpretatie, naast gestandaardiseerde maten.
* De interpretatie van een regressiecoëfficiënt moet altijd worden gedaan binnen de context van de specifieke studiepopulatie en de gemeten variabelen.
- > **Tip:** Raadpleeg altijd zowel de ongestandaardiseerde als de gestandaardiseerde regressiecoëfficiënten om een volledig beeld te krijgen van de relaties
- > **Voorbeeld:** Als \(\beta_1\) voor "leeftijd in jaren" 0
- 5 is en \(\beta_2\) voor "aantal uren studie per week" 2 is, zonder standaardisatie, lijkt uren studie belangrijker
- Echter, als de gestandaardiseerde \(\beta_{std,1}\) = 0
- 6 en \(\beta_{std,2}\) = 0
- 3, dan heeft leeftijd (gestandaardiseerd) een grotere relatieve invloed op de afhankelijke variabele, ondanks de lagere ongestandaardiseerde coëfficiënt
---
* Betrouwbaarheidsinterval (BI) geeft een bereik aan waarbinnen het populatiegemiddelde waarschijnlijk ligt met een gespecificeerde kans (bv. 95%).
* Een kleiner BI duidt op een nauwkeurigere schatting van de populatiewaarde en dus hogere betrouwbaarheid.
* Significantietoetsen evalueren of waargenomen verschillen tussen steekproefgegevens en een nulhypothese waarschijnlijk niet door toeval ontstaan.
* De p-waarde is de kans op het observeren van een resultaat minstens zo extreem als het waargenomen resultaat, aangenomen dat de nulhypothese waar is.
* Een t-verdeling wordt gebruikt wanneer de populatiestandaardafwijking (σ) onbekend is en wordt geschat uit de steekproefstandaardafwijking (s).
### Sleutelbegrippen en mechanismen
* **Betrouwbaarheidsinterval (BI)**
* Vorm: Steekproefgemiddelde ± Foutmarge.
* Foutmarge wordt beïnvloed door:
* Steekproefgemiddelde ($\bar{x}$).
* Z-score (betrouwbaarheidsniveau, bv. 1,96 voor 95%).
* Significantieniveau ($\alpha$), de kans op een type I fout (bv. 0,05).
* Populatiestandaardafwijking ($\sigma$).
* Steekproefgrootte ($n$).
* Een grotere $n$ resulteert in een kleiner en dus nauwkeuriger BI.
* Een lager betrouwbaarheidsniveau (bv. 90% i.p.v. 95%) resulteert in een smaller BI, maar met een groter risico op een type I fout.
* **Significantietoetsen (Hypothesetoetsen)**
* Stappenplan:
- Formuleer de nul- ($H_0$) en alternatieve hypothese ($H_a$)
- 2
- Bepaal de waarde van de toetsingsgrootheid (bv
- gemiddelde, t-score)
- 3
- Bepaal de overschrijdingskans (p-waarde)
- 4
### Implicaties en toepassingen
### Tip
---
* De interpretatie van regressiecoëfficiënten hangt cruciaal af van de schaal en meetniveau van de variabelen.
* **Regressiecoëfficiënt ($ \beta $):** Geeft de verwachte verandering in de afhankelijke variabele aan voor één eenheid toename in de onafhankelijke variabele, terwijl andere variabelen constant worden gehouden.
* **Schaalverschillen:** Variabelen kunnen op verschillende schalen gemeten zijn (bv. meters, dollars, aantal jaren), wat directe vergelijking van coëfficiënten bemoeilijkt.
- **Gestandaardiseerde coëfficiënten:** Worden berekend door variabelen te transformeren naar een standaard normaalverdeling (gemiddelde 0, standaardafwijking 1). Deze maken directe vergelijking van de sterkte van verbanden tussen variabelen met verschillende schalen
* **Interpretatie van $ \beta $ bij continue variabelen:** Een toename van één eenheid in de onafhankelijke variabele correspondeert met een verandering van $ \beta $ eenheden in de afhankelijke variabele.
* **Interpretatie van $ \beta $ bij nominale variabelen (dummy variabelen):** De coëfficiënt geeft het verschil in de afhankelijke variabele aan tussen de gecodeerde categorie en de referentiecategorie.
- **Interpretatie van $ \beta $ bij ordinale variabelen:** Kan complex zijn; een eenheidstoename in de onafhankelijke variabele betekent een toename van $ \beta $ in de afhankelijke variabele, maar de betekenis van 'één eenheid'
* **Interpretatie van $ \beta $ bij categorische variabelen (meer dan twee categorieën):** Vereist dummycodering; elke coëfficiënt vergelijkt een specifieke categorie met de referentiecategorie.
* **Effectgrootte:** De gestandaardiseerde coëfficiënt is een maat voor de effectgrootte, waardoor de relatieve sterkte van verschillende predictoren vergeleken kan worden.
* Een positieve coëfficiënt ($ \beta > 0 $) duidt op een positief verband: als de onafhankelijke variabele toeneemt, neemt de afhankelijke variabele toe.
* Een negatieve coëfficiënt ($ \beta < 0 $) duidt op een negatief verband: als de onafhankelijke variabele toeneemt, neemt de afhankelijke variabele af.
* Een coëfficiënt van nul ($ \beta = 0 $) suggereert geen lineair verband tussen de betreffende onafhankelijke en de afhankelijke variabele, gegeven de andere variabelen in het model.
* De statistische significantie (p-waarde) van een coëfficiënt geeft aan of het waargenomen verband waarschijnlijk niet op toeval berust.
* Het betrouwbaarheidsinterval voor een coëfficiënt geeft een bereik aan waarbinnen de ware populatiewaarde van de coëfficiënt waarschijnlijk ligt.
* Het gebruik van gestandaardiseerde coëfficiënten is noodzakelijk om de relatieve importantie van predictoren met verschillende meeteenheden te vergelijken.
* Als een onafhankelijke variabele wordt gemeten in duizendtallen (bv. inkomen in duizenden dollars), moet de coëfficiënt worden vermenigvuldigd met 1000 om de interpretatie per eenheid te krijgen.
* Het kwadrateren van de gestandaardiseerde coëfficiënt ( $ \beta^2 $ ) geeft de proportie verklaarde variantie door die specifieke predictor (in een simpel regressiemodel).
* Zonder standaardisatie kunnen regressiecoëfficiënten misleidend zijn bij het beoordelen van de relatieve bijdrage van verschillende predictoren.
* Schaalverschillen vereisen zorgvuldige overweging bij het formuleren van conclusies over de impact van variabelen.
* Dummycodering is essentieel voor het includeren van categorische variabelen in lineaire regressiemodellen, waarbij de keuze van de referentiecategorie de interpretatie van de andere coëfficiënten beïnvloedt.
* Het interpreteren van coëfficiënten vereist altijd contextuele kennis over de variabelen en de onderzochte populatie.
- De intercept ($ \beta_0 $) vertegenwoordigt de verwachte waarde van de afhankelijke variabele wanneer alle onafhankelijke variabelen gelijk zijn aan nul (of de referentiecategorie bij dummy variabelen). De interpretatie van de intercept
### Veelvoorkomende valkuilen
* Het direct vergelijken van regressiecoëfficiënten van variabelen met verschillende schalen zonder standaardisatie.
* Het verkeerd interpreteren van dummy-variabele coëfficiënten als absolute verschillen in plaats van verschillen ten opzichte van de referentiecategorie.
* Het negeren van de significantie en betrouwbaarheidsintervallen van coëfficiënten, waardoor er te snel conclusies worden getrokken uit willekeurige schommelingen.
---
# Inferentie en de t-verdeling
### Kernidee
* Inferentie is het proces van het trekken van conclusies over een populatie op basis van steekproefgegevens.
* De t-verdeling wordt gebruikt voor inferentie wanneer de populatiestandaardafwijking onbekend is, vooral bij kleine steekproeven.
### Belangrijke feiten
* William Sealy Gosset publiceerde onder de pseudoniem 'Student' (vandaar 'Student's t-toets') vanuit de Guinness brouwerij.
* Bij inferentie met een onbekende populatiestandaardafwijking ($\sigma$) wordt de t-verdeling gebruikt in plaats van de z-verdeling (normaalverdeling).
* De t-verdeling is symmetrisch, heeft een top op nul, maar dikkere staarten dan de normaalverdeling.
* Er is niet één t-verdeling; het aantal vrijheidsgraden ($df$) bepaalt de specifieke vorm van de t-verdeling.
* Vrijheidsgraden ($df$) zijn doorgaans gelijk aan de steekproefgrootte min één ($n-1$).
* Naarmate $df$ toeneemt, benadert de t-verdeling de normaalverdeling.
* Bij het schatten van de populatiestandaardafwijking ($s$) wordt gedeeld door $n-1$ (Bessel's correctie).
### Belangrijke concepten
* **Steekproevenverdeling van het gemiddelde indien $\sigma$ onbekend:** Standaardisatie met de steekproefstandaardafwijking ($s$) leidt tot een t-verdeling.
* **Student's t-verdeling:**
* Vergelijkbaar met de z-verdeling, maar met dikkere staarten om de onzekerheid van het schatten van $\sigma$ te accommoderen.
* De t-waarde indiceert het aantal standaardfouten dat het steekproefgemiddelde afwijkt van het populatiegemiddelde.
* **Vrijheidsgraden ($df$):**
* Het aantal onafhankelijke waarden dat kan variëren nadat parameters (zoals het gemiddelde) zijn geschat.
* Voor een 1-steekproef t-toets is $df = n-1$.
* **Betrouwbaarheidsinterval (BI) met t-verdeling:**
* Formule: $\bar{x} \pm t^{\ast} \frac{s}{\sqrt{n}}$
* $t^{\ast}$ is de kritieke t-waarde voor het gewenste betrouwbaarheidsniveau en $df$.
* **1-steekproef t-toets:**
* Vergelijkt een steekproefgemiddelde ($\bar{x}$) met een bekend of verondersteld populatiegemiddelde ($\mu_0$).
* Toetsingsgrootheid: $t = \frac{\bar{x} - \mu_0}{s / \sqrt{n}}$
* **Voorwaarden voor t-procedures (1-steekproef):**
* Random steekproef.
* Populatie is (ongeveer) normaal verdeeld of $n > 30$ (Centrale limietstelling).
---
* De t-verdeling wordt gebruikt voor inferentie wanneer de populatiestandaardafwijking ($\sigma$) onbekend is en geschat wordt met de steekproefstandaardafwijking ($s$).
* Het centrale concept is het gebruik van de steekproevenverdeling van het gemiddelde wanneer $\sigma$ geschat wordt, wat leidt tot de t-verdeling in plaats van de normaalverdeling.
* De t-verdeling is symmetrisch rond nul en heeft dikkere staarten dan de normaalverdeling, wat het risico op Type I fouten (onterecht verwerpen van H0) vermindert.
* De t-verdeling is vernoemd naar William Sealy Gosset, die onder het pseudoniem 'Student' publiceerde.
* De vorm van de t-verdeling wordt bepaald door de vrijheidsgraden ($df$), die doorgaans gelijk zijn aan de steekproefgrootte minus één ($n-1$).
* Naarmate de vrijheidsgraden toenemen, benadert de t-verdeling de standaard normaalverdeling.
* Voor steekproeven met een grote omvang ($n>30$) kan de t-verdeling vaak benaderd worden door de normaalverdeling, dankzij de centrale limietstelling.
* De t-verdeling heeft dikkere staarten dan de normaalverdeling, wat betekent dat extremere waarden waarschijnlijker zijn.
### Kernconcepten
* **Vrijheidsgraden ($df$):** Het aantal onafhankelijke gegevenspunten dat vrij kan variëren bij het schatten van een populatieparameter. Voor een enkelvoudige steekproef is $df = n-1$.
* **Student's t-toets:** Een statistische toets die gebruikt wordt om gemiddelden te vergelijken wanneer de populatiestandaardafwijking onbekend is.
* **1-steekproef t-betrouwbaarheidsinterval:** Een interval rond het steekproefgemiddelde dat de waarschijnlijke range van het populatiegemiddelde aangeeft, met gebruikmaking van de t-verdeling.
* **1-steekproef t-toets:** Een hypothesetoets om te bepalen of een steekproefgemiddelde significant afwijkt van een bekend populatiegemiddelde (of een hypothetisch gemiddelde) wanneer $\sigma$ onbekend is.
- **Gepaarde t-toets:** Wordt gebruikt om de gemiddelden van twee gerelateerde (gekoppelde) metingen te vergelijken, zoals voor- en nametingen bij dezelfde individuen. Dit wordt behandeld als een 1-steekproef t-toets op de
* **Ongepaarde (onafhankelijke) t-toets:** Wordt gebruikt om de gemiddelden van twee onafhankelijke groepen te vergelijken.
### Implicaties
* Het gebruik van de t-verdeling in plaats van de z-verdeling (normaalverdeling) is cruciaal voor correcte inferentie bij kleine steekproeven of wanneer de populatiestandaardafwijking onbekend is.
* De dikkere staarten van de t-verdeling zorgen ervoor dat statistische beslissingen minder snel leiden tot het verwerpen van de nulhypothese, wat het risico op Type I fouten verkleint.
* Voor ongepaarde t-toetsen wordt vaak een conservatieve schatting van de vrijheidsgraden gebruikt om de dikkere staarten te waarborgen, wat de kans op het detecteren van kleine effecten kan verminderen.
* De robuustheid van t-procedures betekent dat ze relatief ongevoelig zijn voor kleine schendingen van de aanname van normaliteit, vooral bij grotere steekproeven.
### Voorwaarden voor t-procedures
* **Randomisatie:** De steekproef moet representatief zijn voor de populatie, bij voorkeur verkregen via een willekeurig selectieproces.
* **Normaliteit:** De populatie waaruit de steekproef is getrokken, moet bij benadering normaal verdeeld zijn. Dit is met name belangrijk voor kleine steekproeven.
* **Onafhankelijkheid:** Waarnemingen binnen een groep en tussen groepen (bij ongepaarde toetsen) moeten onafhankelijk zijn. Bij gepaarde toetsen zijn de waarnemingen binnen een paar wel afhankelijk.
* De populatiegrootte moet aanzienlijk groter zijn dan de steekproefgrootte (vuistregel: $N \ge 20n$) om onafhankelijkheid te garanderen bij steekproeven zonder teruglegging.
---
* De t-verdeling wordt gebruikt voor inferentie wanneer de populatie standaardafwijking ($\sigma$) onbekend is en geschat moet worden met de steekproefstandaardafwijking ($s$).
* De t-verdeling wijkt af van de normaalverdeling door dikkere staarten, wat essentieel is voor betrouwbaarheidsintervallen en significantietoetsen, vooral bij kleine steekproeven.
* Er is niet één t-verdeling; deze wordt gespecificeerd door vrijheidsgraden ($df$), die meestal gelijk zijn aan de steekproefgrootte min één ($n-1$).
* De t-verdeling is conceptueel vergelijkbaar met de z-verdeling (normaalverdeling), waarbij t-waarden ook het aantal standaardfouten aangeven.
* De t-verdeling is symmetrisch met een top op $x=0$.
- Dikkere staarten van de t-verdeling (vergeleken met de normale verdeling) zorgen ervoor dat meer kans in de staarten terechtkomt, wat het risico op een Type I-fout (onterecht verwerpen van de
* Naarmate de steekproefgrootte toeneemt (en dus de vrijheidsgraden), benadert de t-verdeling de normale verdeling.
* Vrijheidsgraden ($df$) vertegenwoordigen het aantal onafhankelijke gegevenspunten dat kan variëren na het vaststellen van een bepaald gemiddelde. Bij een steekproefgrootte $n$ is dit $n-1$.
* De populatiestandaardafwijking ($\sigma$) wordt bij de t-procedures geschat met de steekproefstandaardafwijking ($s$).
* De t-toetsen zijn robuust, wat betekent dat ze redelijk accuraat blijven, zelfs als niet perfect aan de aanname van normaliteit is voldaan, vooral bij grotere steekproeven.
* **Geschatte populatiestandaardafwijking ($s$):** De standaardafwijking berekend op basis van steekproefdata, gebruikt als schatter voor $\sigma$.
* **Vrijheidsgraden ($df$):** Cruciaal voor het bepalen van de specifieke t-verdeling; meestal $df = n-1$ voor één steekproef.
* **t-verdeling versus z-verdeling:** De t-verdeling heeft dikkere staarten dan de z-verdeling, wat een gevolg is van het schatten van $\sigma$ met $s$.
* **Robuustheid:** T-procedures zijn relatief ongevoelig voor schendingen van de aanname van normaliteit, met name bij voldoende grote steekproeven.
* **Betrouwbaarheidsinterval (BI) met t-verdeling:** Berekend met de t-waarde (in plaats van z-waarde) als schatter voor $\mu$ wanneer $\sigma$ onbekend is. De formule is: $\bar{x} \pm t^{\ast} \times \frac{s}{\sqrt{n}}$.
* **1-steekproef t-toets:** Gebruikt om te toetsen of een populatiegemiddelde ($\mu$) afwijkt van een specifieke waarde, wanneer $\sigma$ onbekend is. De toetsingsgrootheid is $t = \frac{\bar{x} - \mu_0}{s/\sqrt{n}}$.
* **Voorwaarden voor t-procedures:**
* Populatie is (bij benadering) normaal verdeeld of de steekproefgrootte is voldoende groot ($n > 30$).
* Onafhankelijkheid van waarnemingen binnen de steekproef.
* Het gebruik van de t-verdeling is essentieel voor nauwkeurige inferentie wanneer de populatiestandaardafwijking onbekend is, wat in de praktijk zeer vaak voorkomt.
* Lagere vrijheidsgraden (kleine steekproeven) leiden tot bredere t-verdelingen, wat resulteert in bredere betrouwbaarheidsintervallen en minder onderscheidingsvermogen van toetsen.
* Bij het interpreteren van resultaten van t-toetsen is het cruciaal om rekening te houden met de vrijheidsgraden en de bijbehorende t-verdeling.
* De robuustheid van t-procedures biedt flexibiliteit bij het toepassen ervan, maar bewuste controle op schendingen van aannames blijft belangrijk.
### Voorbeelden
* **1-steekproef t-betrouwbaarheidsinterval:** Het schatten van het gemiddelde aantal uren dat studenten studeren per week, met onbekende populatiestandaardafwijking.
---
* Inferentie stelt onderzoekers in staat om uitspraken te doen over een populatie op basis van steekproefgegevens.
* De t-verdeling wordt gebruikt bij inferentie wanneer de populatiestandaardafwijking ($\sigma$) onbekend is en geschat moet worden uit de steekproefstandaardafwijking ($s$).
* De t-verdeling is conceptueel vergelijkbaar met de z-verdeling (normaalverdeling), maar heeft dikkere staarten.
* Dikkere staarten betekenen een hogere kans op extremere waarden, wat essentieel is bij het bepalen van significantie.
* De t-verdeling is afhankelijk van het aantal vrijheidsgraden ($df$), dat meestal gelijk is aan de steekproefgrootte minus één ($n-1$).
* Naarmate het aantal vrijheidsgraden toeneemt, benadert de t-verdeling de standaardnormaalverdeling.
* De t-verdeling wordt gebruikt wanneer $\sigma$ onbekend is, terwijl de z-verdeling wordt gebruikt wanneer $\sigma$ bekend is.
* **William Sealy Gosset ('Student'):** Ontwikkelaar van de t-verdeling, die publiceerde onder het pseudoniem 'Student' vanwege vertrouwelijkheid bij de Guinness brouwerij.
* **Steekproevenverdeling van het gemiddelde indien $\sigma$ onbekend:** Bij het standaardiseren van het steekproefgemiddelde met $s$ in plaats van $\sigma$, resulteert dit in een t-verdeling.
* **Vrijheidsgraden ($df$):** Het aantal onafhankelijke gegevenspunten die vrij kunnen variëren in een berekening. Voor een steekproefgemiddelde is dit $n-1$.
* **Tabel D (kritieke t-waarden):** Tabel die kritieke t-waarden ($t^{\ast}$) weergeeft voor verschillende niveaus van vrijheidsgraden en betrouwbaarheidsniveaus.
* **Robuustheid van t-procedures:** T-procedures zijn redelijk robuust tegen schendingen van de normaliteitsaanname, vooral bij grotere steekproeven.
* **Betrouwbaarheidsinterval (BI) voor $\mu$ met onbekende $\sigma$:** Berekend als $\bar{x} \pm t^{\ast} \times SE$, waarbij $SE = s / \sqrt{n}$.
* **1-steekproef t-toets:** Gebruikt om te testen of een steekproefgemiddelde significant afwijkt van een hypothetische populatiewaarde wanneer $\sigma$ onbekend is. De toetsingsgrootheid is $t = (\bar{x} - \mu_0) / (s / \sqrt{n})$.
* **T-toets voor gekoppelde paren (Paired samples t-test):** Vergelijkt de gemiddelde verschillen tussen gepaarde waarnemingen (bv. voor- en nametingen). Dit wordt gereduceerd tot een 1-steekproef t-toets op de verschilscores.
* **T-toets voor onafhankelijke steekproeven (Independent samples t-test):** Vergelijkt de gemiddelden van twee onafhankelijke groepen. Wanneer $\sigma$ onbekend is, wordt een benadering gebruikt waarbij de vrijheidsgraden conservatief worden bepaald.
* Het gebruik van de t-verdeling zorgt voor nauwkeurigere inferentie wanneer de populatiestandaardafwijking onbekend is, met name bij kleinere steekproeven.
* De t-verdeling erkent de extra onzekerheid die voortkomt uit het schatten van $\sigma$ uit de steekproefdata.
* De keuze tussen een eenzijdige of tweezijdige t-toets is cruciaal en beïnvloedt de kritieke waarde en conclusie.
- > **Tip:** Bij het rapporteren van t-toetsen in APA-stijl is het essentieel om de toetsingsgrootheid ($t$), de vrijheidsgraden ($df$), de p-waarde, en indien relevant, het betrouwbaarheidsinterval en de effectgrootte te
- vermelden
- > **Voorbeeld:** Een 1-steekproef t-toets voor de gemiddelde bloeddruk van een groep patiënten wordt uitgevoerd
- De steekproef laat een gemiddelde bloeddruk zien van 130 mmHg met een standaardafwijking van 10 mmHg uit een steekproef van 25 patiënten
- Als de hypothetische populatiegemiddelde bloeddruk 120 mmHg is, wordt de t-toetsingsgrootheid berekend als $t = (130 - 120) / (10 / \sqrt{25}) = 10 / (10 / 5) = 10 / 2 = 5$
- Met $df = 24$ en een tweezijdige test, wordt de p-waarde bepaald om te zien of dit verschil significant is
---
* De t-verdeling is een theoretische kansverdeling die wordt gebruikt voor inferentie over populatiegemiddelden wanneer de populatiestandaardafwijking onbekend is.
* Deze verdeling is conceptueel vergelijkbaar met de normaalverdeling (z-verdeling), maar heeft dikkere staarten, wat het gevolg is van het schatten van de populatiestandaardafwijking uit de steekproefgegevens.
* De t-verdeling is ontwikkeld door William Sealy Gosset, die onder het pseudoniem 'Student' publiceerde.
* De vorm van de t-verdeling wordt bepaald door het aantal vrijheidsgraden ($df$), wat meestal gelijk is aan de steekproefgrootte min één ($df = n - 1$).
* Bij kleine steekproeven is de t-verdeling essentieel om de kans op fouten (type I en type II) correct te evalueren.
- Zonder de t-verdeling, bij het schatten van $\sigma$ met $s$, zouden de berekende overschrijdingskansen te laag zijn, wat leidt tot een verhoogd risico op het onterecht verwerpen van de nulhypothese
* **Vrijheidsgraden ($df$)**: Het aantal onafhankelijke waarden die vrij kunnen variëren in een steekproefberekening. Voor een 1-steekproef t-test is dit $n-1$.
* **T-statistiek**: Een gestandaardiseerde maat die aangeeft hoeveel standaardfouten het steekproefgemiddelde ($\bar{x}$) verwijderd is van het hypothetische populatiegemiddelde ($\mu$).
- $$t = \frac{\bar{x} - \mu}{s / \sqrt{n}}$$
- waarbij $s$ de steekproefstandaardafwijking is
* **T-verdeling vs. Z-verdeling**: De t-verdeling heeft dikkere staarten dan de normaalverdeling, wat betekent dat extremere waarden waarschijnlijker zijn bij kleinere steekproeven.
* **Robuustheid van t-procedures**: T-procedures zijn redelijk robuust voor schendingen van de normaliteitsaanname, vooral bij grotere steekproeven, hoewel extreme scheefheid of uitschieters problematisch kunnen zijn.
* **1-steekproef t-betrouwbaarheidsinterval**: Een intervalschatting voor het populatiegemiddelde $\mu$ wanneer $\sigma$ onbekend is. De algemene vorm is $\bar{x} \pm t^{\ast} \times \frac{s}{\sqrt{n}}$.
* **1-steekproef t-toets**: Een hypothesetoets om te bepalen of een populatiegemiddelde significant verschilt van een hypothetische waarde. De toetsingsgrootheid is de t-statistiek.
- **Gepaarde t-toets**: Wordt gebruikt om het gemiddelde verschil tussen twee gerelateerde metingen (bv. voor- en nameting) te vergelijken. De data wordt getransformeerd naar verschilscores, en hierop wordt een 1-steekproef t-toets
* **Onafhankelijke t-toets**: Wordt gebruikt om de gemiddelden van twee onafhankelijke groepen te vergelijken. De berekening van de toetsingsgrootheid kan complexer zijn wanneer de populatiestandaardafwijkingen ongelijk zijn.
- Bij inferentie met kleine steekproeven is het cruciaal om de t-verdeling te gebruiken in plaats van de z-verdeling, omdat deze de grotere onzekerheid door het schatten van de standaardafwijking correct
* Het aantal vrijheidsgraden speelt een belangrijke rol in de nauwkeurigheid van de inferentie; meer vrijheidsgraden leiden tot een t-verdeling die dichter bij de normaalverdeling ligt.
* De t-procedures vereisen dat de steekproef willekeurig is en dat de populatie (ongeveer) normaal verdeeld is, of dat de steekproefgrootte voldoende groot is (centrale limietstelling).
* Het correct rapporteren van t-toetsresultaten omvat de toetsingsgrootheid, vrijheidsgraden, p-waarde, betrouwbaarheidsinterval en indien relevant, de effectgrootte.
### Tips
* **Tip:** Controleer altijd de aannames van de t-toetsen (randomisatie, normaliteit/grote steekproefgrootte, onafhankelijkheid) voordat je de resultaten interpreteert.
* **Tip:** Bij kleine steekproeven is de robuustheid van de t-toets ten aanzien van de normaliteitsaanname beperkter; wees voorzichtig met de interpretatie als de data sterk afwijkt van normaal verdeeld.
- **Tip:** Onthoud dat bij het vergelijken van twee populatiegemiddelden met de t-toets, je ofwel de t-verdeling gebruikt (indien populatie-varianties ongelijk of onbekend zijn) of, bij bekende en gelijke populatie-varianties, de
---
* De t-verdeling wordt gebruikt voor inferentie over populatiegemiddelden wanneer de populatiestandaardafwijking $(\sigma)$ onbekend is en geschat moet worden met de steekproefstandaardafwijking $(s)$.
* De t-verdeling heeft dikkere staarten dan de normaalverdeling, wat resulteert in grotere kritieke waarden en een grotere kans op Type I fouten bij gebruik van dezelfde significantieniveaus.
* Het aantal vrijheidsgraden $(df)$, gerelateerd aan de steekproefgrootte $(n)$, bepaalt de specifieke vorm van de t-verdeling; grotere $df$ benaderen de normaalverdeling.
* **Student's t-verdeling**: Een reeks verdelingen die de steekproevenverdeling van het gemiddelde weergeven wanneer $\sigma$ onbekend is en geschat wordt met $s$.
* **Vrijheidsgraden (df)**: Het aantal onafhankelijke gegevenspunten dat vrij kan variëren bij het schatten van een parameter. Voor een 1-steekproef t-toets is $df = n - 1$.
* **t-waarde**: Een gestandaardiseerde score die aangeeft hoeveel standaardfouten het steekproefgemiddelde $(\bar{x})$ afwijkt van het populatiegemiddelde $(\mu)$, berekend met $s$ in plaats van $\sigma$.
* **1-steekproef t-betrouwbaarheidsinterval**: Een interval rond $\bar{x}$ dat met een bepaald betrouwbaarheidsniveau $(\text{bv. } 95\%)$ het populatiegemiddelde $(\mu)$ bevat. Het wordt berekend met een kritieke t-waarde $(t^*)$ afhankelijk van $df$ en het betrouwbaarheidsniveau.
- $$\text{BI} = \bar{x} \pm t^* \left( \frac{s}{\sqrt{n}} \right)$$
* **1-steekproef t-toets**: Een hypothesetoets om te bepalen of een steekproefgemiddelde significant afwijkt van een hypothetisch populatiegemiddelde $(\mu_0)$, waarbij de t-verdeling wordt gebruikt.
* **t-toets voor gekoppelde paren**: Vergelijkt de gemiddelden van twee gerelateerde metingen (bv. voor/na-meting) door het gemiddelde van de verschilscores te toetsen met een 1-steekproef t-toets.
* **t-toets voor onafhankelijke steekproeven**: Vergelijkt de gemiddelden van twee onafhankelijke groepen. Vereist een pooling van varianties of een aanpassing van de vrijheidsgraden als de populatievarianties ongelijk zijn.
### Key facts
* William Sealy Gosset publiceerde onder het pseudoniem 'Student', vandaar de term 'Student's t-verdeling'.
* De t-verdeling heeft dikkere staarten dan de z-verdeling, wat betekent dat er meer kans is om extreme waarden te observeren door toeval.
* Hoe groter de steekproef $(n)$, hoe kleiner de standaardfout en hoe meer de t-verdeling de normaalverdeling benadert.
* De voorwaarden voor t-procedures omvatten willekeurige steekproeven, (bij benadering) normale populatieverdeling, en onafhankelijkheid van waarnemingen.
* Bij het schatten van de populatiestandaardafwijking $(s)$ voor de standaardfout, wordt gedeeld door $n-1$ (vrijheidsgraden).
* Rapportering in APA-stijl voor t-toetsen omvat de toetsingsgrootheid, vrijheidsgraden, p-waarde, betrouwbaarheidsinterval, en effectgrootte (bv. Cohen's d).
* Het gebruik van $s$ in plaats van $\sigma$ introduceert extra onzekerheid, wat leidt tot een bredere t-verdeling en grotere betrouwbaarheidsintervallen of hogere drempels voor significantie.
* Kleinere steekproeven vereisen zorgvuldige controle van de normaliteitsaanname, aangezien de t-verdeling minder robuust is bij scheve verdelingen.
* Het onderscheidingsvermogen (power) van een t-toets wordt beïnvloed door de effectgrootte, de steekproefgrootte, en het significantieniveau $(\alpha)$.
* Gekoppelde paren ontwerpen verhogen de power door het elimineren van individuele verschillen tussen metingen.
* Bij het vergelijken van meerdere groepen, leidt herhaaldelijk testen met t-toetsen tot inflatie van de Type I foutkans $(\alpha)$; hiervoor worden ANOVA of andere methoden gebruikt.
---
# Variantieanalyse (ANOVA) voor het vergelijken van groepsgemiddelden
### Kernconcepten
* Inferentiële statistiek stelt ons in staat conclusies te trekken over populaties op basis van steekproefgegevens.
* Steekproevenverdelingen beschrijven de variabiliteit van steekproefmaten (zoals het gemiddelde) als gevolg van steekproeftoeval.
* Betrouwbaarheidsintervallen bieden een bereik waarbinnen het populatiegemiddelde waarschijnlijk ligt.
* Significantietoetsen evalueren de kans dat waargenomen resultaten verklaard kunnen worden door toeval (nulhypothese).
### Kernfeiten
* Een betrouwbaarheidsinterval (BI) voor het populatiegemiddelde $\mu$ wordt berekend met de formule: $\bar{x} \pm Z \cdot \frac{\sigma}{\sqrt{n}}$.
* De foutenmarge van een BI omvat de steekproefgemiddelde ($\bar{x}$), het betrouwbaarheidsniveau (via $Z$), de populatiestandaardafwijking ($\sigma$), en de steekproefgrootte ($n$).
* Een kleiner BI wordt verkregen door een grotere steekproefgrootte, een lager betrouwbaarheidsniveau, of een kleinere populatiestandaardafwijking.
* Een significantietoets volgt vier stappen: hypothesen formuleren, toetsingsgrootheid bepalen, overschrijdingskans ($p$) bepalen, en conclusie trekken.
* De nulhypothese ($H_0$) stelt meestal dat er geen verschil is tussen groepen of condities.
* De alternatieve hypothese ($H_a$) stelt dat er wel een verschil is.
* De $p$-waarde is de kans op het waargenomen resultaat (of extremer), aangenomen dat $H_0$ waar is.
* Als $p < \alpha$ (het significantieniveau), wordt $H_0$ verworpen.
* **Klassieke aanpak**: Gebruikt kansrekening en theoretische verdelingen (zoals binomiaal of normaal) om de $p$-waarde te berekenen.
* **Resampling (bootstrap)**: Simuleert vele steekproeven uit de data om empirisch de steekproevenverdeling te verkrijgen.
* Type I fout (vals positief): $H_0$ wordt onterecht verworpen ($\alpha$).
* Type II fout (vals negatief): $H_0$ wordt onterecht niet verworpen ($\beta$).
* Onderscheidingsvermogen (power) is de kans om $H_0$ correct te verwerpen wanneer $H_a$ waar is ($1 - \beta$).
### Belangrijke concepten en methoden
* **Z-toets**: Gebruikt wanneer de populatiestandaardafwijking ($\sigma$) bekend is. De toetsingsgrootheid is gestandaardiseerd naar een standaard normaalverdeling.
* **Student's t-verdeling**: Gebruikt wanneer $\sigma$ geschat wordt op basis van de steekproefstandaardafwijking ($s$). De t-verdeling heeft dikkere staarten dan de normaalverdeling, wat meer voorzichtigheid bij beslissingen vereist.
* Vrijheidsgraden ($df$) specificeren de vorm van de t-verdeling ($df = n - 1$ voor een 1-steekproef t-toets).
* Naarmate $df$ toeneemt, benadert de t-verdeling de normaalverdeling.
* **1-steekproef t-betrouwbaarheidsinterval**: Berekent een interval voor $\mu$ met $s$ in plaats van $\sigma$, met behulp van de t-verdeling.
* Formule: $\bar{x} \pm t^* \cdot \frac{s}{\sqrt{n}}$, waarbij $t^*$ de kritieke t-waarde is.
* **1-steekproef t-toets**: Toetst of een populatiegemiddelde $\mu$ significant verschilt van een hypothetische waarde (vaak 0).
* Toetsingsgrootheid: $t = \frac{\bar{x} - \mu_0}{s / \sqrt{n}}$.
---
### Kernidee
* Variatieanalyse (ANOVA) is een statistische techniek om te bepalen of er significante verschillen zijn tussen de gemiddelden van drie of meer groepen.
- Het hoofddoel is om de totale variatie in de data op te splitsen in delen die verklaard kunnen worden door verschillen tussen groepen en delen die verklaard kunnen worden door
### Belangrijke concepten
* **Totale Variantie**: De algehele spreiding van alle observaties rond het algemene gemiddelde.
* **Tussen-groep Variantie (Sum of Squares Between, SSB)**: De variatie tussen de groepen, gemeten als de gekwadrateerde verschillen tussen elk groepsgemiddelde en het algemene gemiddelde, gewogen door de groepsgroottes.
- **Binnen-groep Variantie (Sum of Squares Within, SSW)**: De variatie binnen elke groep, gemeten als de gekwadrateerde verschillen tussen elke observatie en het gemiddelde van zijn eigen groep. Dit vertegenwoordigt de
* **Vrijheidsgraden (df)**:
* df tussen groepen: $k - 1$, waarbij $k$ het aantal groepen is.
* df binnen groepen: $N - k$, waarbij $N$ het totale aantal observaties is.
* **Gemiddelde Kwadraten (Mean Squares, MS)**:
* $MSB = \frac{SSB}{df_{tussen}}$. Dit is een schatting van de populatievariantie als de groepsgemiddelden gelijk zijn.
* $MSW = \frac{SSW}{df_{binnen}}$. Dit is een schatting van de populatievariantie, ongeacht of de groepsgemiddelden gelijk zijn.
* **F-statistiek**: De ratio van de tussen-groep variantie tot de binnen-groep variantie: $F = \frac{MSB}{MSW}$. Een grotere F-statistiek duidt op grotere verschillen tussen de groepsgemiddelden ten opzichte van de variatie binnen de groepen.
### Sleutelpunten
* ANOVA veronderstelt:
* Onafhankelijke observaties binnen en tussen groepen.
* Normaliteit van de residuen (binnen-groep fouten) voor elke groep.
* Homogeniteit van varianties (gelijke varianties tussen de groepen).
* De F-statistiek volgt een F-verdeling met $df_{tussen}$ en $df_{binnen}$ vrijheidsgraden.
* Als de F-statistiek groter is dan de kritische waarde uit de F-tabel (voor een bepaald significantieniveau $\alpha$), wordt de nulhypothese verworpen.
* De nulhypothese ($H_0$) stelt dat alle groepsgemiddelden gelijk zijn ($\mu_1 = \mu_2 = \dots = \mu_k$).
* De alternatieve hypothese ($H_a$) stelt dat ten minste één groepsgemiddelde verschilt van de anderen.
### Toepassing en Interpretatie
* Een significant resultaat van de ANOVA test niet *welke* groepen verschillen, maar alleen *dat* er een verschil is.
* Post-hoc toetsen (zoals Tukey's HSD, Bonferroni) zijn nodig om te bepalen welke specifieke groepen significant van elkaar verschillen na een significante ANOVA.
* De effectgrootte (bv. $\eta^2$ - eta-squared) kwantificeert het proportionele deel van de totale variantie in de afhankelijke variabele dat verklaard wordt door de groepsverschillen.
* $\eta^2 = \frac{SSB}{SSTotale}$, waarbij $SSTotale = SSB + SSW$.
### Voorbeeld
* Onderzoek naar de effectiviteit van drie verschillende leerstrategieën op examenresultaten.
### Rapporteren
---
* Een betrouwbaarheidsinterval (BI) geeft de grenzen aan waarbinnen het echte populatiegemiddelde waarschijnlijk ligt.
* Bij een 95% BI verwacht men dat 95% van de herhaalde steekproeven een interval oplevert dat de ware populatiewaarde bevat.
* Significante toetsen helpen bij het bepalen of waargenomen verschillen in steekproeven waarschijnlijk ook in de populatie bestaan.
* De nulhypothese ($H_0$) stelt dat er geen verschil is tussen de groepen of populaties, terwijl de alternatieve hypothese ($H_a$) wel een verschil postuleert.
### Sleutelbegrippen en formules
* **Betrouwbaarheidsinterval (BI) voor het populatiegemiddelde ($\mu$)**:
- $$ \bar{x} \pm z \cdot \frac{\sigma}{\sqrt{n}} $$
* $\bar{x}$: Steekproefgemiddelde
* $z$: Z-waarde voor het gekozen betrouwbaarheidsniveau (bv. 1,96 voor 95%)
* $\sigma$: Populatie standaardafwijking
* $n$: Steekproefgrootte
* **Factoren die de breedte van een BI beïnvloeden**:
* Steekproefgemiddelde ($\bar{x}$)
* Z-score (betrouwbaarheidsniveau)
* Significatieniveau ($\alpha$)
* Populatie standaardafwijking ($\sigma$)
* Steekproefgrootte ($n$)
* **Gedrag van betrouwbaarheidsintervallen**:
* Een kleiner BI impliceert een hogere betrouwbaarheid (kleinere foutenmarge).
* Een kleiner BI wordt verkregen door:
* Een grotere steekproefgrootte ($n$).
* Een lager betrouwbaarheidsniveau (lagere $z$-waarde).
* Een kleinere populatie standaardafwijking ($\sigma$).
* **Significantietoets in vier stappen**:
- 1
- Formuleer de nul- en alternatieve hypothesen ($H_0$ en $H_a$)
### Cruciale vragen bij significantietoetsen
### Fouten bij significantietoetsen
### Onderscheidingsvermogen (Power)
### T-verdelingen
### T-betrouwbaarheidsinterval en T-toetsen
### Vergelijkingen van twee gemiddelden
---
* Betrouwbaarheidsintervallen (BI) schatten het bereik waarin een populatieparameter waarschijnlijk ligt.
* Significante toetsen evalueren de waarschijnlijkheid dat een waargenomen resultaat door toeval is ontstaan, gegeven de nulhypothese.
* Power (onderscheidingsvermogen) is de kans om een echt verschil te detecteren wanneer dit aanwezig is.
* T-toetsen worden gebruikt wanneer de populatie standaardafwijking onbekend is en geschat moet worden.
* **Betrouwbaarheidsinterval (BI):** Geeft een reeks waarden aan waarbinnen het populatiegemiddelde waarschijnlijk valt met een bepaalde mate van zekerheid (bv. 95%).
* **Formule BI:** $\bar{x} \pm Z \cdot \frac{\sigma}{\sqrt{n}}$ (conceptueel, met vervanging door t-verdeling indien $\sigma$ onbekend is).
* $\bar{x}$: Steekproefgemiddelde.
* $Z$: Kritieke waarde voor het betrouwbaarheidsniveau.
* $\sigma$: Populatie standaardafwijking.
* $n$: Steekproefgrootte.
* **Significantieniveau ($\alpha$):** De kans op een Type I-fout (onterecht verwerpen van de nulhypothese), meestal ingesteld op 0,05.
* **P-waarde:** De kans op het observeren van de resultaten (of extremere resultaten) als de nulhypothese waar is.
* **Nulhypothese ($H_0$):** Stelt dat er geen verschil is tussen groepen of variabelen.
* **Alternatieve hypothese ($H_1$):** Stelt dat er wel een verschil is.
* **Type I fout (vals positief):** $H_0$ wordt verworpen terwijl deze waar is ($\alpha$).
* **Type II fout (vals negatief):** $H_0$ wordt niet verworpen terwijl deze onwaar is ($\beta$).
* **Power ($1 - \beta$):** De kans om een echt verschil te detecteren wanneer de alternatieve hypothese waar is.
### Factoren die BI en Power beïnvloeden
* **Steekproefgrootte ($n$):** Grotere $n$ leidt tot kleinere BI en hogere power.
* **Betrouwbaarheidsniveau (Z):** Hoger niveau leidt tot breder BI.
* **Standaardafwijking ($\sigma$):** Kleinere $\sigma$ leidt tot smaller BI en hogere power.
* **Effectgrootte:** Het werkelijke verschil tussen populatiegemiddelden; grotere effectgrootte leidt tot hogere power.
### T-verdelingen en inferentie wanneer $\sigma$ onbekend is
* **Student's t-verdeling:** Een familie van symmetrische verdelingen met dikkere staarten dan de normaalverdeling, afhankelijk van vrijheidsgraden ($df$).
* **Vrijheidsgraden ($df$):** Meestal $n-1$ voor een steekproef. Meer $df$ benadert de normale verdeling.
* **Reden voor t-verdeling:** De populatie standaardafwijking ($\sigma$) wordt geschat met de steekproefstandaardafwijking ($s$), wat onzekerheid introduceert.
### Toepassingen van t-toetsen
* **1-steekproef t-betrouwbaarheidsinterval:** Schat het populatiegemiddelde wanneer $\sigma$ onbekend is.
### Rapporteren van resultaten in APA-stijl
---
* Een betrouwbaarheidsinterval (BI) geeft een bereik aan waarbinnen het werkelijke populatiegemiddelde waarschijnlijk ligt, met een vooraf bepaald betrouwbaarheidsniveau.
* Een 95% BI betekent dat bij 95% van de herhaalde steekproeven het interval de werkelijke populatiewaarde bevat.
* De foutenmarge van een BI wordt beïnvloed door het steekproefgemiddelde ($\bar{x}$), het betrouwbaarheidsniveau (Z-score), het significantieniveau ($\alpha$), de populatiestandaardafwijking ($\sigma$) en de steekproefgrootte ($n$).
* Een kleiner BI suggereert een nauwkeurigere schatting en wordt verkregen door een grotere steekproefgrootte of een lager betrouwbaarheidsniveau.
* Een kleiner BI impliceert een hogere betrouwbaarheid, wat betekent dat de foutenmarge kleiner is.
### Belangrijke feiten
* Een kleiner BI kan worden verkregen door een grotere steekproef, een lager betrouwbaarheidsniveau, of een kleinere standaardafwijking van de populatie.
* Een hogere kostprijs, meer tijd en betere organisatie zijn vaak nodig voor een grotere steekproef.
* Een lager betrouwbaarheidsniveau (bv. 90% i.p.v. 95%) verhoogt het risico op foutieve beslissingen.
* Het verminderen van meetfouten en variabiliteit binnen groepen leidt tot een kleinere standaardafwijking, wat het BI smaller maakt.
* Significante toetsen volgen vier stappen: formuleren van hypothesen, bepalen van de toetsingsgrootheid, bepalen van de overschrijdingskans (p-waarde), en formuleren van de conclusie.
* De nulhypothese ($H_0$) stelt dat er geen verschil is tussen groepen.
* De alternatieve hypothese ($H_1$) stelt dat er wel een verschil is.
* Een p-waarde is de kans op het waargenomen resultaat of extremer, aangenomen dat de nulhypothese waar is.
* Als de p-waarde kleiner is dan het significantieniveau ($\alpha$), wordt de nulhypothese verworpen.
* De binomiaalverdeling benadert de normaalverdeling wanneer $n \times p \ge 10$.
### Sleutelconcepten
* **Betrouwbaarheidsinterval (BI):** Een interval rond een steekproefstatistiek dat met een bepaalde kans de populatieparameter bevat.
* Formule: $\bar{x} \pm Z \cdot \frac{\sigma}{\sqrt{n}}$ (wanneer $\sigma$ bekend is)
* **Significantieniveau ($\alpha$):** De drempelwaarde voor het verwerpen van de nulhypothese (typisch 0,05).
* **Type I fout (vals positief):** De nulhypothese wordt verworpen terwijl deze waar is ($\alpha$).
* **Type II fout (vals negatief):** De nulhypothese wordt niet verworpen terwijl deze onwaar is ($\beta$).
* **Onderscheidingsvermogen (Power, $1 - \beta$):** De kans dat de toets een significant verschil detecteert wanneer de alternatieve hypothese waar is.
* **Steekproevenverdeling van het verschil tussen twee gemiddelden:** Een verdeling die de mogelijke verschillen tussen steekproefgemiddelden weergeeft onder de nulhypothese.
* **Student's t-verdeling:** Een kansverdeling die gebruikt wordt wanneer de populatiestandaardafwijking onbekend is en geschat wordt uit de steekproef.
* Kenmerken: symmetrisch rond 0, dikkere staarten dan de normaalverdeling.
* Vrijheidsgraden (df): bepaalt de vorm van de t-verdeling; $df = n - 1$ voor een één-steekproef t-toets.
### Implicaties
### Tip
---
* ANOVA wordt gebruikt om gemiddelden van drie of meer groepen te vergelijken, wat een uitbreiding is op het vergelijken van twee groepen met een t-toets.
* Het vergelijken van meerdere groepen met afzonderlijke t-toetsen verhoogt het risico op een type I fout (onterecht H0 verwerpen) aanzienlijk.
* **Total Sum of Squares (SST):** Meet de totale variatie in de data rond het algehele gemiddelde.
* **Between-Groups Sum of Squares (SSB):** Meet de variatie tussen de groepsgemiddelden en het algehele gemiddelde. Dit vertegenwoordigt de variatie die door de groepsindeling wordt verklaard.
* **Within-Groups Sum of Squares (SSW):** Meet de variatie binnen elke groep rond het groepsgemiddelde. Dit vertegenwoordigt de resterende, niet-verklaarde variatie (foutvariatie).
* **Formule:** $SST = SSB + SSW$.
* **Variantie schatten:**
* Gemiddelde kwadraat tussen groepen ($MSB$): Gedeeltelijke verklaarde variantie.
- $$MSB = \frac{SSB}{df_{between}}$$
* Gemiddelde kwadraat binnen groepen ($MSW$): Gedeeltelijke onverklaarde variantie (foutvariantie).
- $$MSW = \frac{SSW}{df_{within}}$$
* **Vrijheidsgraden:**
* $df_{between}$: Aantal groepen - 1 ($k - 1$).
* $df_{within}$: Totaal aantal observaties - Aantal groepen ($N - k$).
* **F-toetsingsgrootheid:** De ratio van de tussen-groepen variantie tot de binnen-groepen variantie.
- $$F = \frac{MSB}{MSW}$$
* **F-verdeling:** De theoretische verdeling van de F-toetsingsgrootheid onder de nulhypothese, gekarakteriseerd door twee vrijheidsgraden ($df_{between}$ en $df_{within}$).
* Een hoge F-waarde (veel grotere tussen-groepsvariatie dan binnen-groepsvariatie) suggereert dat de groepsgemiddelden significant van elkaar verschillen.
* Een lage F-waarde suggereert dat de groepsgemiddelden waarschijnlijk niet significant van elkaar verschillen.
* ANOVA bepaalt of er *een* significant verschil is tussen *enkele* groepsgemiddelden, maar niet welke specifieke groepen van elkaar verschillen.
* Post-hoc toetsen zijn nodig om te bepalen welke specifieke groepen van elkaar verschillen na een significante ANOVA.
### Belangrijke overwegingen
* **Voorwaarden voor ANOVA:**
* Onafhankelijke steekproeven.
* Normaliteit van de residuen (binnen-groepsvariabiliteit).
* Homogeniteit van varianties (gelijke binnen-groepsvarianties, $MSW$).
---
* Variantieanalyse (ANOVA) is een statistische methode om de gemiddelden van drie of meer groepen te vergelijken.
* ANOVA analyseert de variantie binnen en tussen groepen om te bepalen of er een statistisch significant verschil is tussen de groepsgemiddelden.
* ANOVA is nuttig wanneer er meer dan twee groepen vergeleken moeten worden, om het probleem van cumulatieve Type I-fouten te vermijden dat optreedt bij meervoudige t-toetsen.
* De hoofdvraag bij ANOVA is of de waargenomen verschillen tussen groepsgemiddelden groter zijn dan wat op basis van willekeurige steekproeftoeval te verwachten is.
* ANOVA deelt de totale variantie in de data op in componenten die toe te schrijven zijn aan specifieke bronnen (factoren of groepen) en aan willekeurige fouten.
* De F-statistiek is de kern van ANOVA en wordt berekend als de verhouding van de variantie tussen de groepen tot de variantie binnen de groepen.
- $$ F = \frac{\text{Variantie tussen groepen}}{\text{Variantie binnen groepen}} $$
* Een hoge F-waarde suggereert dat de verschillen tussen de groepsgemiddelden significant zijn.
* De variantie tussen groepen (Mean Square Between, MSB) wordt geschat op basis van de verschillen tussen de groepsgemiddelden en het algemene gemiddelde.
* De variantie binnen groepen (Mean Square Within, MSW) wordt geschat op basis van de variantie binnen elke individuele groep (gemiddelde van de varianties binnen de groepen).
* De vrijheidsgraden (degrees of freedom, df) zijn cruciaal voor het interpreteren van de F-statistiek en worden berekend op basis van het aantal groepen en de steekproefgrootte per groep.
* df\_tussen = (aantal groepen) - 1
* df\_binnen = (totale steekproefgrootte) - (aantal groepen)
* De F-statistiek wordt vergeleken met kritieke waarden uit de F-verdeling (afhankelijk van df\_tussen en df\_binnen) om een p-waarde te bepalen.
* Als de p-waarde kleiner is dan het significantieniveau (α), wordt de nulhypothese (dat alle groepsgemiddelden gelijk zijn) verworpen.
* **Nulhypothese (H₀):** Alle groepsgemiddelden zijn gelijk (µ₁ = µ₂ = µ₃ = ...).
* **Alternatieve hypothese (H₁):** Ten minste één groepsgemiddelde verschilt van de anderen.
* **Sum of Squares (SS):** De som van de gekwadrateerde afwijkingen van de gemiddelden.
* **Total Sum of Squares (SST):** De totale gekwadrateerde afwijking van elk datapunt ten opzichte van het algemene gemiddelde.
* **Sum of Squares Between (SSB):** De gekwadrateerde afwijking die toe te schrijven is aan de verschillen tussen de groepsgemiddelden en het algemene gemiddelde.
* **Sum of Squares Within (SSW):** De gekwadrateerde afwijking die toe te schrijven is aan de willekeurige variatie binnen elke groep.
* $ \text{SST} = \text{SSB} + \text{SSW} $
* **Mean Square (MS):** De variantie, berekend als Sum of Squares gedeeld door de bijbehorende vrijheidsgraden.
* $ \text{MSB} = \frac{\text{SSB}}{\text{df}_{\text{tussen}}} $
* $ \text{MSW} = \frac{\text{SSW}}{\text{df}_{\text{binnen}}} $
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Term | Definitie |
| Inferentie | Het proces van het trekken van conclusies of het maken van algemene uitspraken over een populatie op basis van gegevens die zijn verzameld uit een steekproef van die populatie. |
| Steekproevenverdeling | Een frequentieverdeling van de resultaten van verschillende steekproeven, die beschrijft wat er gebeurt met een bepaalde karakteristieke maat (zoals het gemiddelde of de standaardafwijking) wanneer een onderzoek wordt herhaald. |
| Betrouwbaarheidsinterval (BI) | Een interval rond een steekproefstatistiek waarbinnen de werkelijke populatieparameter met een bepaalde mate van zekerheid wordt verwacht te liggen. Een 95% betrouwbaarheidsinterval geeft bijvoorbeeld de grenzen aan waarbinnen het echte populatiegemiddelde in 95% van de gevallen zal liggen. |
| Significantieniveau ($\alpha$) | Een vooraf vastgestelde kritische grens, meestal 5%, die aangeeft wanneer de nulhypothese wordt verworpen. Het vertegenwoordigt het risico op een Type I-fout. |
| P-waarde | De kans om een resultaat te verkrijgen dat minstens zo extreem is als het waargenomen resultaat, onder de aanname dat de nulhypothese waar is. Een lage p-waarde (typisch lager dan $\alpha$) leidt tot het verwerpen van de nulhypothese. |
| Nulhypothese ($H_0$) | Een statistische hypothese die stelt dat er geen effect, geen verschil of geen verband is tussen de onderzochte variabelen of groepen. |
| Alternatieve hypothese ($H_A$) | Een statistische hypothese die stelt dat er wel een effect, een verschil of een verband is tussen de onderzochte variabelen of groepen. |
| Type I-fout (vals positief) | De fout waarbij de nulhypothese ten onrechte wordt verworpen, terwijl deze in werkelijkheid waar is. De kans hierop is gelijk aan het significantieniveau ($\alpha$). |
| Type II-fout (vals negatief) | De fout waarbij de nulhypothese niet wordt verworpen, terwijl deze in werkelijkheid onwaar is. De kans hierop wordt aangeduid met $\beta$. |
| Onderscheidingsvermogen (Power) | De kans dat een statistische toets een werkelijk bestaand effect of verschil (wanneer de alternatieve hypothese waar is) correct detecteert en de nulhypothese verwerpt. Het is gelijk aan $1 - \beta$. |
| t-verdeling | Een kansverdeling die lijkt op de normaalverdeling, maar dikkere staarten heeft. Deze verdeling wordt gebruikt bij inferentie wanneer de populatiestandaardafwijking ($\sigma$) onbekend is en wordt geschat met de steekproefstandaardafwijking ($s$). |
| Vrijheidsgraden (df) | Een parameter die de vorm van de t-verdeling bepaalt. Voor veel t-toetsen is dit gelijk aan de steekproefgrootte minus 1 ($n-1$). Hoe groter het aantal vrijheidsgraden, hoe dichter de t-verdeling de normaalverdeling benadert. |
| Type I fout (vals positief) | De fout waarbij de nulhypothese onterecht wordt verworpen, terwijl deze in werkelijkheid waar is. De kans hierop is gelijk aan het significantieniveau ($\alpha$). |
| Type II fout (vals negatief) | De fout waarbij de nulhypothese niet wordt verworpen, terwijl deze in werkelijkheid onjuist is. De kans hierop wordt aangeduid met $\beta$. |
| t-toets | Een statistische toets die wordt gebruikt om gemiddelden van één of twee groepen te vergelijken wanneer de populatiestandaardafwijking onbekend is. Er zijn verschillende soorten t-toetsen, zoals de 1-steekproef t-toets, de t-toets voor gekoppelde paren en de t-toets voor onafhankelijke steekproeven. |
| Toetsingsgrootheid | Een statistische waarde die wordt berekend uit steekproefgegevens en die wordt gebruikt om de nulhypothese te toetsen. Voorbeelden zijn de z-score of de t-score. |
| Steekproefgrootte ($n$) | Het aantal observaties of eenheden in een steekproef. Een grotere steekproefgrootte leidt over het algemeen tot een kleiner betrouwbaarheidsinterval en een groter onderscheidingsvermogen. |
| Standaardfout (SE) | De standaardafwijking van de steekproevenverdeling van een statistiek. Het meet de variabiliteit van de steekproefstatistiek rond de populatieparameter. |
| Significantieniveau (α) | Een vooraf vastgestelde kritische grens, meestal 5%, die aangeeft wanneer de nulhypothese wordt verworpen. Het vertegenwoordigt het risico op een foutieve beslissing (Type I-fout) bij het verwerpen van de nulhypothese. |
| Nulhypothese (H0) | Een stelling die stelt dat er geen verschil of verband bestaat tussen de onderzochte groepen of variabelen. Het is de hypothese die getoetst wordt en die, indien verworpen, leidt tot acceptatie van de alternatieve hypothese. |
| Alternatieve hypothese (HA) | Een stelling die stelt dat er wel een verschil of verband bestaat tussen de onderzochte groepen of variabelen. Deze hypothese wordt geaccepteerd als de nulhypothese wordt verworpen. |
| Overschrijdingskans (p-waarde) | De kans om een resultaat te verkrijgen dat minstens zo extreem is als het waargenomen resultaat, onder de aanname dat de nulhypothese waar is. Een lage p-waarde suggereert dat de waargenomen data onwaarschijnlijk zijn onder de nulhypothese. |
| Standaardfout | De standaardafwijking van de steekproevenverdeling. Het geeft een indicatie van de spreiding van steekproefstatistieken rondom de populatieparameter. |
| Z-toets | Een statistische toets die wordt gebruikt wanneer de populatiestandaardafwijking ($\sigma$) bekend is. Het standaardiseert de steekproefstatistiek om deze te kunnen vergelijken met een standaard normaalverdeling. |
| Analyse van variantie (ANOVA) | Een statistische methode die wordt gebruikt om de verschillen tussen de gemiddelden van drie of meer groepen te analyseren. Het deelt de totale variatie in de gegevens op in verschillende componenten die aan verschillende bronnen van variatie worden toegeschreven. |
| Binomiaalverdeling | Een discrete kansverdeling die de kans beschrijft op een bepaald aantal successen in een vast aantal onafhankelijke experimenten, waarbij elk experiment slechts twee mogelijke uitkomsten heeft (succes of mislukking). |
| Effectgrootte | De mate waarin een fenomeen aanwezig is in een populatie, of de mate waarin een nulhypothese onjuist is. Het is de afstand tussen de gemiddelden van de nulhypothese en de alternatieve hypothese. |
| Kritieke waarde | Een drempelwaarde die wordt gebruikt in statistische toetsen om te bepalen of een resultaat statistisch significant is. Als de toetsingsgrootheid groter is dan de kritieke waarde, wordt de nulhypothese verworpen. |
| Post-hoc toetsen | Statistische toetsen die worden uitgevoerd na een significante ANOVA om te bepalen welke specifieke groepen significant van elkaar verschillen. |
| Resampling (Bootstrap) | Een methode waarbij herhaaldelijk steekproeven met teruglegging worden getrokken uit de oorspronkelijke steekproef om een empirische steekproevenverdeling te creëren. |
| Significantietoets | Een statistische procedure om te bepalen of de waargenomen resultaten van een steekproef voldoende bewijs leveren om de nulhypothese te verwerpen ten gunste van een alternatieve hypothese. |
| Inferentiële statistiek | Het proces van het trekken van conclusies of het maken van algemene uitspraken over een populatie op basis van gegevens die zijn verzameld uit een steekproef van die populatie. |
| Significantietoets (Hypothesetoets) | Een statistische procedure om te bepalen of er voldoende bewijs is in de steekproefgegevens om de nulhypothese te verwerpen ten gunste van een alternatieve hypothese. |
| Z-verdeling (Standaard normaalverdeling) | Een symmetrische, klokvormige kansverdeling met een gemiddelde van 0 en een standaardafwijking van 1, die gebruikt wordt wanneer de populatiestandaardafwijking bekend is. |
| Hypothesetoets | Een statistische procedure om te bepalen of er voldoende bewijs is om een nulhypothese te verwerpen ten gunste van een alternatieve hypothese, gebaseerd op steekproefgegevens. |
| Z-score | Een gestandaardiseerde score die aangeeft hoeveel standaardafwijkingen een bepaalde waarde afwijkt van het gemiddelde. Wordt gebruikt bij z-toetsen wanneer de populatiestandaardafwijking bekend is. |
| Z-verdeling | Een standaard normaalverdeling met een gemiddelde van 0 en een standaardafwijking van 1. Deze wordt gebruikt bij statistische toetsen wanneer de populatiestandaardafwijking (σ) bekend is. |
| Nulhypothese (H₀) | Een stelling die stelt dat er geen effect, geen verschil of geen verband is tussen variabelen. Het doel van statistische toetsen is vaak om deze hypothese te verwerpen. |
| Alternatieve hypothese (H₁) | Een stelling die het tegenovergestelde beweert van de nulhypothese; er is wel een effect, een verschil of een verband. |