Cover
Zacznij teraz za darmo Set 5 H9 Niet Parametrisch Kruistabellen.pptx
Summary
# Chi-kwadraat goodness-of-fit toets
Deze toets onderzoekt in hoeverre de proporties van categorieën in een steekproef overeenkomen met de verwachte proporties, en is een een-steekproef toets.
### 1.1 Doel en principe van de chi-kwadraat goodness-of-fit toets
Het hoofddoel van de chi-kwadraat goodness-of-fit toets is het nagaan in welke mate de proporties waarin categorieën voorkomen in een steekproef overeenstemmen met de verwachtte proporties, gebaseerd op een referentieverdeling. Het is een een-steekproef toets die toegepast kan worden op data met een nominaal of hoger meetniveau.
Het basisprincipe is het vergelijken van de omvang van de waargenomen frequenties in de verschillende categorieën met de theoretisch verwachte omvang van die categorieën.
**Voorbeelden:**
* Is er een gelijke verdeling van mannen en vrouwen in de steekproef?
* Is de verdeling van leiderschapsstijlen bij arbeiders dezelfde als bij een referentiegroep (bijvoorbeeld democratisch, laissez-faire, autoritair, consulterend)?
### 1.2 De nulhypothese
De nulhypothese ($H_0$) voor de chi-kwadraat goodness-of-fit toets stelt dat er geen significant verschil is tussen de waargenomen proporties in de klassen en de referentieverdeling, anders dan wat verwacht mag worden door toevalssteekproeven.
### 1.3 De toetsingsgrootheid
De toetsingsgrootheid voor de chi-kwadraat goodness-of-fit toets wordt berekend met de volgende formule:
$$ \chi^2 = \sum_{i=1}^{k} \frac{(O_i - E_i)^2}{E_i} $$
Waar:
* $\chi^2$ is de chi-kwadraat toetsingsgrootheid.
* $O_i$ staat voor de waargenomen frequentie in categorie $i$.
* $E_i$ staat voor de verwachte frequentie in categorie $i$.
* $k$ is het aantal categorieën.
Als de waargenomen frequenties sterk afwijken van de verwachte frequenties, zal de waarde van $\chi^2$ hoog zijn. Dit pleit tegen de nulhypothese.
### 1.4 De chi-kwadraat verdeling en vrijheidsgraden
De steekproevenverdeling van de $\chi^2$ toetsingsgrootheid volgt een chi-kwadraat verdeling. Het aantal vrijheidsgraden ($df$) voor de goodness-of-fit toets wordt berekend als:
$$ df = k - 1 $$
Waar $k$ het aantal categorieën is. De p-waarde van de toets wordt bepaald door de berekende waarde van de $\chi^2$ statistiek te vergelijken met de kritieke waarde van de overeenkomstige chi-kwadraat verdeling met het berekende aantal vrijheidsgraden.
### 1.5 Beperkingen en vereisten
De chi-kwadraat goodness-of-fit toets is een benaderende methode en vereist dat de celfrequenties voldoende groot zijn voor betrouwbare p-waarden.
* **Minimale celfrequenties:**
* Indien $df = 1$ (dus 2 categorieën), moet elke verwachte celfrequentie groter zijn dan 5.
* Indien $df > 1$, mogen niet meer dan 20% van de verwachte celfrequenties kleiner zijn dan 5. Alle verwachte celfrequenties moeten groter zijn dan of gelijk zijn aan 1.
* Voor een $2 \times 2$ tabel moeten alle verwachte celfrequenties groter zijn dan of gelijk zijn aan 5.
> **Tip:** Als de verwachte celfrequenties te klein zijn, kan dit probleem soms worden opgelost door categorieën samen te voegen.
* **Rangorde:** De chi-kwadraat toets houdt geen rekening met de rangorde van categorieën. Als de data ordinaal is en rangorde belangrijk is, zijn andere toetsen wellicht geschikter.
### 1.6 Berekening van verwachte celfrequenties
De verwachte celfrequentie ($E_i$) voor elke categorie $i$ wordt bepaald op basis van de totale steekproefgrootte ($N$) en de verwachte proportie ($\pi_i$) voor die categorie:
$$ E_i = N \times \pi_i $$
De verwachte proporties ($\pi_i$) komen uit de referentieverdeling die wordt getoetst onder de nulhypothese.
### 1.7 Interpretatie van de resultaten
Een hoge $\chi^2$-waarde, gecombineerd met een lage p-waarde (typisch $p < 0.05$), leidt tot het verwerpen van de nulhypothese. Dit suggereert dat de waargenomen proporties significant afwijken van de verwachte proporties. Een lage $\chi^2$-waarde en een hoge p-waarde wijzen erop dat er onvoldoende bewijs is om de nulhypothese te verwerpen, en de waargenomen proporties dus in lijn zijn met de verwachting.
> **Voorbeeld:** Stel we toetsen of een dobbelsteen eerlijk is (uniforme verdeling). We gooien 600 keer. Onder de nulhypothese verwachten we dat elke zijde 100 keer voorkomt ($E_i = 100$). Als we waarnemen dat zijde 1 bijvoorbeeld 130 keer voorkomt, en andere zijden minder, berekenen we de $\chi^2$-waarde om te zien of deze afwijking groter is dan wat toeval verwacht. Als de p-waarde < 0.05 is, concluderen we dat de dobbelsteen waarschijnlijk niet eerlijk is.
---
# Chi-kwadraat toets voor onafhankelijkheid
Deze toets wordt toegepast om de nulhypothese te toetsen dat de rij- en kolomvariabelen in een kruistabel (contingentietabel) niet gerelateerd zijn aan elkaar. Het vergelijkt geobserveerde celfrequenties met verwachte celfrequenties.
### 2.1 Overzicht van de chi-kwadraat toets voor onafhankelijkheid
De chi-kwadraat toets voor onafhankelijkheid, ook wel de afhankelijkheidstoets genoemd, is een niet-parametrische statistische toets die wordt gebruikt om te onderzoeken of er een verband bestaat tussen twee categorische variabelen die in een kruistabel (contingentietabel) zijn weergegeven. Het hoofddoel is het toetsen van de nulhypothese dat de twee variabelen statistisch onafhankelijk zijn van elkaar.
### 2.2 Toepassing en principe
De toets wordt toegepast om de nulhypothese te toetsen dat de rij- en kolomvariabelen in een kruistabel niet gerelateerd zijn aan elkaar. Het onderliggende principe is de vergelijking tussen de **geobserveerde celfrequenties** (de werkelijke aantallen in de cellen van de tabel) en de **verwachte celfrequenties** (de aantallen die we zouden verwachten als de twee variabelen onafhankelijk zouden zijn).
Als de geobserveerde frequenties sterk afwijken van de verwachte frequenties, suggereert dit dat er een verband bestaat tussen de variabelen, wat leidt tot het verwerpen van de nulhypothese.
### 2.3 De berekening van de chi-kwadraat toetsingsgrootheid
De toetsingsgrootheid voor de chi-kwadraat toets voor onafhankelijkheid wordt berekend met de volgende formule:
$$ \chi^2 = \sum_{i=1}^{r} \sum_{j=1}^{k} \frac{(O_{ij} - E_{ij})^2}{E_{ij}} $$
Waarbij:
* $ \chi^2 $ staat voor de chi-kwadraat toetsingsgrootheid.
* $ O_{ij} $ is de geobserveerde frequentie in cel $ (i,j) $ (rij $ i $, kolom $ j $).
* $ E_{ij} $ is de verwachte frequentie in cel $ (i,j) $.
* $ r $ is het aantal rijen in de kruistabel.
* $ k $ is het aantal kolommen in de kruistabel.
De term $ (O_{ij} - E_{ij})^2 $ zorgt ervoor dat zowel positieve als negatieve afwijkingen tussen geobserveerde en verwachte waarden worden gekwadrateerd, waardoor ze bijdragen aan de totale toetsingsgrootheid. Het delen door $ E_{ij} $ maakt de afwijking relatief ten opzichte van de verwachte grootte.
#### 2.3.1 Berekenen van verwachte celfrequenties
De verwachte celfrequenties $ E_{ij} $ worden berekend op basis van de marginale verdelingen (de totalen van de rijen en kolommen) in de aanname van statistische onafhankelijkheid. Voor een kruistabel met $ r $ rijen en $ k $ kolommen, wordt de verwachte frequentie voor cel $ (i,j) $ berekend als:
$$ E_{ij} = \frac{(\text{Som van rij } i) \times (\text{Som van kolom } j)}{\text{Totaal aantal waarnemingen}} $$
Als de geobserveerde proporties tussen de rijen en kolommen op dezelfde manier zouden zijn verdeeld, zouden de verwachtte en geobserveerde waarden gelijk zijn, wat resulteert in een $ \chi^2 $-waarde van 0. Een hogere $ \chi^2 $-waarde indiceert een grotere afwijking van de onafhankelijkheid.
#### 2.3.2 Vrijheidsgraden
Het aantal vrijheidsgraden ($ df $) voor de chi-kwadraat toets voor onafhankelijkheid wordt berekend als:
$$ df = (k - 1) \times (r - 1) $$
Dit aantal vrijheidsgraden wordt gebruikt om de kritieke waarde te bepalen uit de chi-kwadraat verdeling om de p-waarde te berekenen.
### 2.4 Interpretatie van de resultaten
#### 2.4.1 Statistische afhankelijkheid
* Als de berekende $ \chi^2 $-waarde hoog is, wijst dit op een aanzienlijke afwijking van de verwachte verdeling, wat pleit tégen de nulhypothese van onafhankelijkheid. Dit betekent dat de rij- en kolomvariabelen statistisch afhankelijk zijn.
* Als de berekende $ \chi^2 $-waarde laag is (dicht bij nul), suggereert dit dat de geobserveerde frequenties dicht bij de verwachte frequenties liggen, wat de nulhypothese van onafhankelijkheid ondersteunt.
De significantie van de toets wordt bepaald door de p-waarde te vergelijken met een vooraf bepaald significantieniveau (meestal $ \alpha = 0.05 $). Als $ p < \alpha $, wordt de nulhypothese verworpen.
#### 2.4.2 Beperkingen en voorwaarden
De chi-kwadraat toets is een benaderende methode en de betrouwbaarheid van de p-waarde hangt af van de grootte van de celfrequenties. Er gelden specifieke voorwaarden:
* **Minimale celfrequenties:**
* Voor een $ 2 \times 2 $ tabel moeten alle verwachte celfrequenties minimaal 5 zijn.
* Voor tabellen met meer dan 2 rijen of kolommen (df > 1), mogen niet meer dan 20% van de verwachte celfrequenties kleiner zijn dan 5, en geen enkele verwachte celfrequentie mag kleiner zijn dan 1.
* Als deze voorwaarden niet voldaan zijn, kunnen categorieën samengenomen worden om de verwachte celfrequenties te verhogen, of er kunnen alternatieve toetsen zoals de Fisher's exact test (voor $ 2 \times 2 $ tabellen) overwogen worden.
* **Geen rekening met rangorde:** De chi-kwadraat toets houdt geen rekening met de rangorde van de categorieën in ordinale variabelen. Als rangorde relevant is, kunnen andere niet-parametrische toetsen geschikter zijn.
#### 2.4.3 Verdere analyse bij significant resultaat
Wanneer de chi-kwadraat toets significant is, wat aangeeft dat er een verband is, kan de aard van dit verband verder worden geanalyseerd door:
* **Celpercentages te vergelijken:** Nagaan welke cellen een afwijkend percentage vertonen ten opzichte van de verwachte proporties.
* **Geobserveerde en verwachte celfrequenties te vergelijken:** Identificeren welke cellen over- of ondervertegenwoordigd zijn ten opzichte van de nulhypothese.
* **Bijdragen aan de toetsingsgrootheid te bekijken:** Analyseren welke cellen het meest bijdragen aan de totale $ \chi^2 $-waarde.
### 2.5 Voorbeeld
Stel we onderzoeken of er een verband is tussen geslacht (jongens/meisjes) en het blijven zitten (ja/nee) in een klas.
**Geobserveerde celfrequenties:**
| | Zitten blijven (Ja) | Niet blijven zitten (Nee) | Totaal |
| :--------- | :------------------ | :------------------------ | :----- |
| Jongens | 80 | 120 | 200 |
| Meisjes | 70 | 130 | 200 |
| **Totaal** | **150** | **250** | **400** |
**Berekening van verwachte celfrequenties:**
* Verwacht voor jongens die blijven zitten: $ E_{jj} = \frac{200 \times 150}{400} = 75 $
* Verwacht voor jongens die niet blijven zitten: $ E_{jn} = \frac{200 \times 250}{400} = 125 $
* Verwacht voor meisjes die blijven zitten: $ E_{mj} = \frac{200 \times 150}{400} = 75 $
* Verwacht voor meisjes die niet blijven zitten: $ E_{mn} = \frac{200 \times 250}{400} = 125 $
**Berekening van de chi-kwadraat toetsingsgrootheid:**
$$ \chi^2 = \frac{(80-75)^2}{75} + \frac{(120-125)^2}{125} + \frac{(70-75)^2}{75} + \frac{(130-125)^2}{125} $$
$$ \chi^2 = \frac{25}{75} + \frac{25}{125} + \frac{25}{75} + \frac{25}{125} $$
$$ \chi^2 \approx 0.333 + 0.200 + 0.333 + 0.200 = 1.066 $$
**Vrijheidsgraden:**
$ df = (2 - 1) \times (2 - 1) = 1 \times 1 = 1 $
Stel dat de kritieke waarde voor $ df=1 $ en $ p=0.05 $ gelijk is aan 3.841. Aangezien onze berekende $ \chi^2 $-waarde van 1.066 kleiner is dan de kritieke waarde, en de bijbehorende p-waarde groter is dan 0.05, zouden we de nulhypothese van onafhankelijkheid niet verwerpen. Er is onvoldoende bewijs om te concluderen dat geslacht en blijven zitten statistisch afhankelijk zijn in deze steekproef.
> **Tip:** Altijd eerst de verwachte celfrequenties controleren op hun grootte voordat de chi-kwadraat waarde berekend wordt, om te beoordelen of de toets betrouwbaar is.
### 2.6 Vergelijking met Goodness of Fit test
Het is belangrijk de chi-kwadraat toets voor onafhankelijkheid te onderscheiden van de chi-kwadraat goodness-of-fit test.
* De **chi-kwadraat goodness-of-fit test** (ook wel aanpassingstoets genoemd) wordt gebruikt voor één categorische variabele om na te gaan in hoeverre de proporties van categorieën in een steekproef overeenkomen met een theoretisch verwachte verdeling (bv. is de verdeling van leiderschapsstijlen gelijk aan een bekende referentieverdeling).
* De **chi-kwadraat toets voor onafhankelijkheid** wordt gebruikt voor twee categorische variabelen om te toetsen of deze twee variabelen gerelateerd zijn of onafhankelijk van elkaar.
Beide toetsen maken gebruik van de chi-kwadraat verdeling, maar de toepassing en de berekening van de vrijheidsgraden verschillen. Voor de goodness-of-fit test is $ df = k - 1 $ (waarbij $ k $ het aantal categorieën is), terwijl voor de onafhankelijkheidstoets $ df = (r - 1) \times (k - 1) $ is.
---
# Kolmogorov-Smirnov toets
Hieronder volgt een samenvatting voor het onderwerp "Kolmogorov-Smirnov toets", opgesteld als een studiehandleiding.
## 3. Kolmogorov-Smirnov toets
De Kolmogorov-Smirnov (K-S) toets is een statistische methode die wordt gebruikt om te bepalen of een steekproef afkomstig is uit een specifieke theoretische verdeling, waarbij de meest voorkomende toepassing is om na te gaan of een populatie normaal verdeeld is.
### 3.1 Doel en basisprincipe
#### 3.1.1 Doel van de toets
Het hoofddoel van de Kolmogorov-Smirnov toets is het nagaan in welke mate de proporties waarin categorieën voorkomen in een waargenomen steekproef overeenkomen met de theoretisch verwachte proporties van een specifieke referentieverdeling. Het is een type "goodness-of-fit" (aanpassingstoets) voor één steekproef.
#### 3.1.2 Basisprincipe
De toets vergelijkt de cumulatieve frequentieverdeling van de waargenomen steekproef met de cumulatieve frequentieverdeling van de theoretisch verwachte verdeling. Het verschil tussen deze twee cumulatieve verdelingen wordt geanalyseerd om te bepalen of de waargenomen steekproef significant afwijkt van de hypothetische verdeling.
### 3.2 Kenmerken van de Kolmogorov-Smirnov toets
* **Meetniveau:** De toets kan worden toegepast op data met een ordinaal meetniveau of hoger.
* **Hypotheses:**
* **Nulhypothese ($H_0$):** De waargenomen verdeling wijkt niet significant af van de referentieverdeling, waarbij eventuele verschillen verklaard kunnen worden door toevalssteekproeven.
* **Alternatieve hypothese ($H_1$):** De waargenomen verdeling wijkt significant af van de referentieverdeling.
* **Toetsingsgrootheid:** De toetsingsgrootheid is de maximale absolute afwijking tussen de geobserveerde cumulatieve verdeling ($F_{obs}(x)$) en de verwachte cumulatieve verdeling ($F_{exp}(x)$). Deze wordt aangeduid als $D = \max_x |F_{obs}(x) - F_{exp}(x)|$.
* **P-waarden:** P-waarden worden doorgaans voor een tweezijdige toets gerapporteerd.
### 3.3 Toepassingen en voorbeelden
#### 3.3.1 Normale verdeling controleren
De meest voorkomende toepassing van de K-S toets is het controleren of een steekproef afkomstig is uit een normaal verdeelde populatie. Dit is een belangrijke aanname voor veel parametrische statistische toetsen.
> **Voorbeeld 1:** Je hebt 100 keer een dobbelsteen gegooid. De K-S toets kan worden gebruikt om te bepalen of de dobbelsteen "eerlijk" is, wat betekent of de waarnemingen afkomstig zijn uit een uniforme verdeling.
De kritieke waarde voor de K-S toets, in relatie tot de steekproefgrootte $n$, wordt vaak bepaald door een drempelwaarde. Als de maximale afwijking $D$ groter is dan deze kritieke waarde (bijvoorbeeld $1.36 / \sqrt{n}$ voor een specifieke significantieniveau), wordt de nulhypothese verworpen.
> **Voorbeeld 2:** Een onderzoeker verzamelt gegevens over de levenskwaliteit (QOL) van 201 kankerpatiënten, gemeten op een schaal van 0 tot 10. De K-S toets wordt toegepast om te onderzoeken of deze gegevens afkomstig zijn uit een normaal verdeelde populatie.
De resultaten kunnen worden vergeleken met de cumulatieve verdeling van een theoretische normale verdeling met de geschatte gemiddelde ($\mu$) en standaarddeviatie ($\sigma$) van de steekproef.
#### 3.3.2 Andere verdelingen controleren
Naast de normale verdeling kan de K-S toets ook worden gebruikt om andere verdelingen te toetsen, zoals de uniforme verdeling.
### 3.4 Beperkingen en correcties
#### 3.4.1 Gevoeligheid en de oorspronkelijke K-S toets
De oorspronkelijke versie van de Kolmogorov-Smirnov toets is in het verleden bekritiseerd omdat deze de nulhypothese te gemakkelijk accepteert, met name wanneer de populatieparameters (zoals gemiddelde en standaarddeviatie) uit de data zelf worden geschat. Dit kan leiden tot te weinig conservatieve p-waarden.
#### 3.4.2 De Lilliefors correctie
Om dit probleem aan te pakken, is de **Lilliefors correctie** ontwikkeld. Deze correctie houdt rekening met het feit dat de populatieparameters zijn geschat uit de steekproef. Het resultaat is dat er meer conservatieve p-waarden worden gebruikt, wat betekent dat de toets strenger wordt. Statistische softwarepakketten passen deze correctie vaak automatisch toe wanneer de K-S toets wordt uitgevoerd voor normaliteit.
#### 3.4.3 Interpretatie van software resultaten
Wanneer statistische software, zoals R met de `lillie.test` functie, wordt gebruikt voor een K-S toets, is het belangrijk op te merken dat de resultaten (zoals de $D$-statistiek en de p-waarde) de Lilliefors correctie kunnen bevatten. Handmatige berekeningen met klassenmiddens kunnen afwijken van de resultaten van software die individuele waarnemingen analyseert.
### 3.5 Vergelijking met andere toetsen
Hoewel de K-S toets nuttig is, is het een "omnibus" toets, wat betekent dat het weliswaar een verband of afwijking detecteert, maar niet specifiek de aard ervan aangeeft. Als een significante afwijking wordt gevonden, zijn verdere analyses nodig om de specifieke cellen of categorieën te identificeren die het meest bijdragen aan dit verschil.
### 3.6 K-S toets voor twee steekproeven
De Kolmogorov-Smirnov toets kan ook worden uitgebreid om te toetsen of twee steekproeven afkomstig zijn uit dezelfde populatie. Dit wordt gedaan door de cumulatieve verdelingen van beide steekproeven te vergelijken.
> **Tip:** De K-S toets kan als een snelle eerste screening worden gebruikt om te controleren of data voldoen aan bepaalde distributieaannames. Echter, vanwege de beperkingen (met name de gevoeligheid van de oorspronkelijke versie), is het vaak aan te raden om bij twijfel aanvullende of meer specifieke toetsen te gebruiken.
---
# Beperkingen en interpretatie van chi-kwadraat toetsen
Hier volgt een gedetailleerde samenvatting over de beperkingen en interpretatie van chi-kwadraat toetsen, opgesteld in het Nederlands en conform de gestelde formatteerregels.
## 4. Beperkingen en interpretatie van chi-kwadraat toetsen
Dit onderwerp behandelt de noodzakelijke voorwaarden voor het correct toepassen van chi-kwadraat toetsen, zoals minimale verwachte celfrequenties, en hoe de resultaten geïnterpreteerd moeten worden, inclusief de analyse van afwijkende celpercentages en bijdragen aan de toetsgrootheid.
### 4.1 Chi-kwadraat goodness-of-fit test: beperkingen
De chi-kwadraat (𝜒²) goodness-of-fit test is een benaderende methode. De betrouwbaarheid van de p-waarde is afhankelijk van de grootte van de celfrequenties. Er zijn specifieke vereisten om ervoor te zorgen dat de toets nauwkeurig blijft.
#### 4.1.1 Minimale verwachte celfrequenties
Om te waarborgen dat de kritieke waarden voor de chi-kwadraat toets betrouwbaar zijn, gelden de volgende regels voor verwachte celfrequenties:
* **Algemene regel:** Gemiddeld moeten de verwachte celfrequenties minstens 5 zijn.
* **Specifieke regel:** Alle verwachte celfrequenties moeten groter zijn dan of gelijk aan 1.
* **Voor 2x2 tabellen:** Alle verwachte celfrequenties moeten 5 of meer zijn.
> **Tip:** Als de verwachte celfrequenties te laag zijn, wordt de chi-kwadraat toets te instabiel, wat kan leiden tot onjuiste resultaten. Het kan soms nodig zijn om categorieën samen te voegen om aan deze voorwaarden te voldoen, hoewel dit de interpretatie kan bemoeilijken.
#### 4.1.2 Gevoeligheid voor rangorde
De chi-kwadraat toets houdt geen rekening met de rangorde van de categorieën. Dit betekent dat als de variabelen een ordinaal meetniveau hebben, de informatie over de ordening van de categorieën verloren gaat bij het toepassen van deze toets.
> **Tip:** Voor ordinale data kan een alternatieve toets zoals de Kruskal-Wallis toets (voor meerdere groepen) of de Mann-Whitney U toets (voor twee groepen) geschikter zijn, aangezien deze wel rekening houden met rangordes.
### 4.2 Interpretatie van chi-kwadraat toets resultaten
Wanneer een chi-kwadraat toets significant is, geeft dit aan dat er een verband bestaat tussen de variabelen. De aard van dit verband kan verder geanalyseerd worden door verschillende invalshoeken te bekijken. De chi-kwadraat toets is een zogenaamde "omnibus test", wat betekent dat het een algemeen verband detecteert zonder specifiek aan te geven waar dit verband zit.
#### 4.2.1 Vergelijken van specifieke celpercentages
Een manier om een significant resultaat verder te duiden is door de percentages in specifieke cellen van de kruistabel te vergelijken. Hierbij wordt gekeken welke cellen een afwijkend percentage vertonen ten opzichte van wat verwacht zou worden.
#### 4.2.2 Vergelijken van waargenomen en verwachte celfrequenties
Een andere interpretatiemethode is het direct vergelijken van de waargenomen celfrequenties ($O$) met de verwachte celfrequenties ($E$) onder de nulhypothese van onafhankelijkheid. Dit helpt te identificeren welke cellen over- of ondervertegenwoordigd zijn in vergelijking met de verwachtingen.
#### 4.2.3 Analyse van bijdragen aan de chi-kwadraat toetsingsgrootheid
De chi-kwadraat toetsingsgrootheid wordt berekend met de formule:
$$ \chi^2 = \sum \frac{(O_i - E_i)^2}{E_i} $$
waarbij $O_i$ de waargenomen frequentie is en $E_i$ de verwachte frequentie voor cel $i$. Door de term $\frac{(O_i - E_i)^2}{E_i}$ voor elke cel te berekenen, kan men zien welke cellen het meest bijdragen aan de totale chi-kwadraat waarde. Cellen met een grote bijdrage wijzen op een sterke afwijking van de nulhypothese in die specifieke cel.
> **Tip:** Een hoge bijdrage aan de 𝜒² waarde duidt op een aanzienlijk verschil tussen de waargenomen en verwachte frequentie in die specifieke cel, wat bijdraagt aan de algehele significantie van de toets.
### 4.3 Toepassing en berekening van verwachte celfrequenties
Bij het toetsen van de onafhankelijkheid van variabelen in een kruistabel (contingentietabel), is het cruciaal om de verwachte celfrequenties correct te berekenen.
#### 4.3.1 Berekenen van verwachte celfrequenties
Voor een $r \times k$ kruistabel (met $r$ rijen en $k$ kolommen), wordt de verwachte celfrequentie voor de cel in rij $i$ en kolom $j$ berekend met de volgende formule, onder de aanname van statistische onafhankelijkheid:
$$ E_{ij} = \frac{\text{(Som van rij } i) \times \text{(Som van kolom } j)}{\text{Totaal aantal observaties}} $$
Als de waargenomen frequenties sterk verschillen van de verwachte frequenties, resulteert dit in een hoge chi-kwadraat waarde, wat zou pleiten tegen de nulhypothese.
#### 4.3.2 Vrijheidsgraden voor afhankelijkheidstoetsen
Voor $r \times k$ kruistabellen is het aantal vrijheidsgraden ($df$) voor de chi-kwadraat afhankelijkheidstoets:
$$ df = (k - 1) \times (r - 1) $$
Een hogere chi-kwadraat waarde, gecombineerd met een lager aantal vrijheidsgraden, leidt tot een kleinere p-waarde, wat sterker bewijs levert tegen de nulhypothese van onafhankelijkheid.
#### 4.3.3 Voorbeeld: jongens blijven vaker zitten dan meisjes
Beschouw een 2x2 kruistabel met de variabelen "geslacht" (jongens/meisjes) en "uitkomst" (blijven zitten/geslaagd).
Stel we observeren de volgende frequenties:
| | Blijven zitten | Geslaagd | Totaal |
| :-------- | :------------ | :------- | :----- |
| Jongens | 80 | 70 | 150 |
| Meisjes | 42 | 78 | 120 |
| Totaal | 122 | 148 | 270 |
De verwachte celfrequenties worden berekend als volgt:
* Verwacht (Jongens, Blijven zitten) = $\frac{150 \times 122}{270} \approx 67.78$
* Verwacht (Jongens, Geslaagd) = $\frac{150 \times 148}{270} \approx 82.22$
* Verwacht (Meisjes, Blijven zitten) = $\frac{120 \times 122}{270} \approx 54.22$
* Verwacht (Meisjes, Geslaagd) = $\frac{120 \times 148}{270} \approx 65.78$
De chi-kwadraat toetsingsgrootheid wordt dan berekend door voor elke cel de bijdrage $\frac{(O - E)^2}{E}$ op te tellen.
Met deze waarden zou de toets resulteren in een significante afwijking, wat impliceert dat jongens vaker blijven zitten dan meisjes.
> **Voorbeeld:** Stel de berekende chi-kwadraat waarde is 93.7 met 1 vrijheidsgraad. Dit is zeer significant (p < .001), wat leidt tot de conclusie dat geslacht en de uitkomst (blijven zitten/geslaagd) statistisch afhankelijk zijn.
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Niet-Parametrische Statistiek | Een tak van statistiek die zich bezighoudt met toetsen en methoden die geen aannames doen over de verdeling van de populatie waaruit de steekproef is getrokken. |
| Kruistabel (contingentietabel) | Een tabel die de frequentieverdeling van twee of meer categorische variabelen weergeeft, waarbij de cellen de gezamenlijke frequenties van combinaties van categorieën bevatten. |
| Kwadraat van een normaalverdeling | De verdeling die ontstaat wanneer de waarden van een normaal verdeelde variabele worden gekwadrateerd. Dit leidt tot een scheve verdeling die positief georiënteerd is. |
| Som van kwadraten van normaalverdelingen | De verdeling die ontstaat wanneer de kwadraten van meerdere onafhankelijke normaal verdeelde variabelen worden opgeteld. De vorm van deze verdeling hangt af van het aantal variabelen. |
| Chi-kwadraat verdeling ($\chi^2$) | Een continue waarschijnlijkheidsverdeling die vaak wordt gebruikt bij het toetsen van hypothesen, met name bij analyses van categorische data. De vorm van de verdeling wordt bepaald door het aantal vrijheidsgraden. |
| Vrijheidsgraden (df) | Het aantal waarden in de laatste berekening van een statistische analyse dat vrij kan variëren. Bij chi-kwadraat toetsen is dit gerelateerd aan het aantal categorieën of cellen in de tabel. |
| Goodness of Fit test (Aanpassingstoets/Verdelingstoets) | Een statistische toets die nagaat in hoeverre de geobserveerde frequenties van categorieën in een steekproef overeenkomen met de theoretisch verwachte frequenties. |
| Geobserveerde frequentie (o) | Het daadwerkelijke aantal waarnemingen in een specifieke categorie of cel van een dataset. |
| Verwachte frequentie (e) | Het theoretisch aantal waarnemingen dat men zou verwachten in een specifieke categorie of cel, gebaseerd op de nulhypothese of marginale verdelingen. |
| Nulhypothese ($H_0$) | Een stelling die een effect, verschil of verband veronderstelt dat er niet is, en die men probeert te weerleggen met statistische toetsing. |
| Alternatieve hypothese ($H_1$) | Een stelling die stelt dat er wel een effect, verschil of verband is, tegengesteld aan de nulhypothese. |
| p-waarde | De waarschijnlijkheid om een teststatistiek te verkrijgen die minstens zo extreem is als de waargenomen teststatistiek, ervan uitgaande dat de nulhypothese waar is. |
| Kritieke waarde | De grens op de schaal van de teststatistiek waarboven of waaronder de nulhypothese wordt verworpen, gebaseerd op een vooraf bepaald significantieniveau ($\alpha$). |
| Onafhankelijke steekproeven | Steekproeven waarbij de uitkomsten in de ene steekproef geen invloed hebben op de uitkomsten in de andere steekproef. |
| Afhankelijke steekproeven | Steekproeven waarbij de uitkomsten in de ene groep gerelateerd zijn aan de uitkomsten in de andere groep (bv. metingen voor en na een interventie bij dezelfde personen). |
| Celfrequentie | Het aantal waarnemingen in een individuele cel van een kruistabel of contingency tabel. |
| Marginale verdelingen | De totalen van de rijen en kolommen in een kruistabel, die de verdeling van elke afzonderlijke variabele weergeven. |
| Kolmogorov-Smirnov goodness-of-fit toets | Een non-parametrische toets die de cumulatieve verdelingsfunctie van een steekproef vergelijkt met de cumulatieve verdelingsfunctie van een theoretische verdeling. |
| Cumulatieve frequentieverdeling | Een functie die de som van de frequenties van alle waarden tot en met een bepaalde waarde weergeeft. |
| Lillieforscorrectie | Een correctie toegepast op de Kolmogorov-Smirnov toets wanneer de populatieparameters (gemiddelde en standaarddeviatie) geschat worden uit de data. Deze correctie maakt de toets conservatiever. |