Aannames bij statistische toetsen

Bij het uitvoeren van statistische toetsen zoals een regressieanalyse, t-toets of ANOVA worden vaak verschillende statistische aannames gedaan. Het is belangrijk om deze aannames te testen, want pas als deze kloppen kun je de juiste conclusies trekken.

In dit artikel leggen we de betekenis van de meest voorkomende aannames uit en laten we zien hoe je deze kunt testen.

Aanname 1: normale verdeling

De aanname van een normale verdeling wordt bij veel statistische toetsen gemaakt. Bij het uitvoeren van een t-toets of anova is de aanname dat de data normaal verdeeld zijn. Bij een regressieanalyse nemen we aan dat fouttermen normaal verdeeld zijn.

De aanname van een normale verdeling is vooral belangrijk bij steekproeven kleiner dan 30 observaties. Bevat jouw steekproef meer dan 30 observaties dan kun je volgens de Centrale Limietstelling aannemen dat aan de aanname van normaliteit wordt voldaan.

Wat betekent normale verdeling?

De normale verdeling is een kansverdeling die beschrijft hoe data verspreid zijn. Er zijn twee parameters die bepalen hoe de normale verdeling eruitziet: het gemiddelde en de standaarddeviatie.

Observaties rond het gemiddelde zijn het waarschijnlijkst. Hoe verder waardes van het gemiddelde af liggen, hoe onwaarschijnlijker het is deze waarden te observeren. Daarnaast is het belangrijk dat waardes boven en onder het gemiddelde even waarschijnlijk zijn.

Het onderstaande figuur laat zien wat de waarschijnlijkheid is voor observaties binnen drie standaarddeviaties van het gemiddelde in de normale verdeling.

Binnen één standaarddeviatie liggen 68.2% van de observaties (34.1% + 34.1%) , binnen twee standaarddeviaties 95.2% en binnen drie standaarddeviaties 99,6%.

Normale verdeling

Voorbeeld van een normaal verdeelde variabele:
Stel dat de variabele SAT-score normaal verdeeld is met een gemiddelde van 1075 en een standaarddeviatie van 200. Een SAT-score van 200 punten boven het gemiddelde (1275) is dan even waarschijnlijk als het observeren van een score 200 punten onder het gemiddelde (875). De verwachting is dat 68% van de respondenten in steekproef tussen de 875 en 1275 scoort.

Testen voor normale verdeling met SPSS

Download het SPSS-bestand om met de data uit het voorbeeld te oefenen.

Om te onderzoeken of je variabele normaal verdeeld is, kun je in SPSS verschillende plots maken of statistische toetsen uitvoeren. Klik in de menubalk op:

  • Analyze
  • Descriptive Statistics
  • Explore

In het scherm dat nu verschijnt, voeg je de variabele lengte toe aan de ‘dependent list’ en de variabele geslacht aan de ‘factor list’. Bij ‘Plots…’ vink je ‘Normality Plots with tests’ aan. Klik op Continue en vervolgens op OK om de normaliteitstoets uit te voeren.

In de output vind je de resultaten van de algemene Kolmogorov-Smirnov en de voor normaliteit specifieke Shapiro-Wilk-toets. De nulhypothese is dat de data normaal verdeeld zijn. Een significantie kleiner dan 0,05 duidt er dus op dat het onwaarschijnlijk is dat de data normaal verdeeld zijn. De Shapiro-Wilk-toets is over het algemeen strenger en kan dus het beste worden aangehouden.

Output normaliteit

Niet normaal verdeeld, wat nu?

Als je variabele niet normaal verdeeld is, kun je kijken of je de data kunt transformeren. Het kan namelijk zijn dat een variabele zelf niet normaal verdeeld is, maar het logaritme of het kwadraat wel. Wanneer ook dit niet het geval is, kun je niet-parametrische toetsen gebruiken zoals de Wilcoxon- of Mann-Whitney-toets in plaats van de t-toets.

Aanname 2: Lineair verband tussen variabelen

Bij het uitvoeren van een lineaire regressie is het belangrijk dat het verband tussen de verklarende variabele en de afhankelijke variabele lineair is. Dit betekent dat voor zowel lage als hoge waardes van de verklarende variabele de invloed gelijk is.

Voorbeeld:
De verklarende variabele lengte beïnvloedt de afhankelijke variabele gewicht. Een lineair verband betekent dat het gewicht net zoveel toeneemt als iemand van 150 cm naar 160 cm lengte groeit als van 180 cm naar 190 cm.

Testen voor een lineair verband

Je kunt het beste een spreidingsdiagram gebruiken om te analyseren of twee variabelen een lineair verband hebben. Als er een rechte lijn te trekken is door de punten, dan is er sprake van een lineair verband.

In SPSS maak je een spreidingsdiagram door te klikken op ‘Graphs’ → ‘Chart Builder’ en vervolgens ‘scatterplot’ te selecteren.

Lineair verband

In het spreidingsdiagram aan de linkerkant is een rechte lijn door de puntenwolk te trekken: de invloed van lengte op gewicht is constant en er is dus sprake van een lineair verband.

In het spreidingsdiagram aan de rechterkant is er geen lineair verband. De invloed van gemiddeld inkomen op levensverwachting lijkt af te nemen naarmate het gemiddeld inkomen groter wordt.

Wat moet je doen als er geen lineair verband is?

Wanneer er geen lineair verband is, kun je het kwadraat of het logaritme van een variabele opnemen in de regressie. Dit doe je door de variabele te transformeren.

Het voordeel hiervan is dat het effect van de verklarende op de afhankelijke variabele beter geschat zal worden, maar de interpretatie van de regressiecoëfficiënten is wel wat lastiger.

Voorbeeld:
In het diagram aan de linkerkant is duidelijk dat het verband tussen inkomen en levensverwachting niet lineair is. Door een log-transformatie toe te passen op de inkomensdata, is te zien dat er wel een lineair effect is van verdubbeling van het inkomen op de levensverwachting.

Log transformed lineair verband

Ontvang feedback op taal, structuur, lay-out en bronvermelding

Professionele Scribbr-editors kijken je scriptie na op:

  • Academisch taalgebruik
  • Onduidelijke zinnen
  • Grammaticale fouten
  • Interpunctie
  • Verboden woorden

Bekijk het voorbeeld

Aanname 3: willekeurige steekproef

Bij het uitvoeren van onderzoek is het gebruikelijk om door middel van een steekproef data te verzamelen. De resultaten uit de steekproef wil je dan generaliseren naar de hele populatie.

Om dit te kunnen doen is het belangrijk dat je steekproef willekeurig is en dezelfde kenmerken heeft als de populatie.

Voorbeeld:
Je wil uitspraken doen over de lengte van de gemiddelde Nederlander. Wanneer je steekproef alleen uit basketballers bestaat dan zal dit een verkeerd beeld geven.

Onafhankelijke observaties

Naast het feit dat de respondenten willekeurig gekozen zijn, is het ook belangrijk dat de observaties onafhankelijk van elkaar zijn. Dit betekent dat de ene observatie de andere niet mag beïnvloeden.

Voorbeeld:
Je hebt respondenten die familie van elkaar zijn. Hun lengte hangt met elkaar samen waardoor ze dus niet onafhankelijk zijn.

In tegenstelling tot de andere aannames in dit artikel is de aanname van een willekeurige steekproef niet te testen. In plaats daarvan moet je kritisch kijken naar hoe je je steekproef hebt uitgevoerd.

Aanname 4: multicollineariteit

Wanneer er een sterk lineair verband is tussen verklarende variabelen, spreekt men van multicollineariteit.

Multicollineariteit kan ertoe leiden dat de regressiecoëfficiënten in je regressiemodel slechter worden geschat. De verklarende variabelen voorspellen elkaar dan en daardoor wordt er geen extra variantie verklaard in het regressiemodel.

Voorbeeld:
Je voegt zowel lengte in centimeters als lengte in inches toe als verklarende variabelen aan je regressievergelijking. Deze twee variabelen voorspellen elkaar, aangezien lengte in centimeters 2,54 maal de lengte in inches is, en zijn dus perfect lineair gecorreleerd. Er kunnen dan geen twee regressiecoëfficiënten worden berekend.

Ook een combinatie van verschillende variabelen mag niet hetzelfde zijn als een andere variabele. Dit is bijvoorbeeld het geval voor eindexamen-, schoolexamen-, en eindcijfers op de middelbare school, aangezien het eindcijfer het gemiddelde is van de andere twee.

Testen voor multicollineariteit

Bij het uitvoeren van regressieanalyse in SPSS kun je onder Statistics ‘Collinearity diagnostics’ aanvinken. In de output verschijnt dan de VIF (Variance Inflation Factor).

Een vuistregel is dat er vanaf een VIF van vijf een probleem is voor het schatten van de regressiecoëfficiënt van de betreffende variabele. De VIF-waarde is alleen belangrijk voor de verklarende variabelen in je model. Bij controlevariabelen is een hoge VIF geen probleem.

Wat moet je doen bij multicollineariteit?

Wanneer er sprake is van multicollineariteit kan het verstandig zijn om de gecorreleerde variabelen te combineren tot één overkoepelend begrip. Je kunt hiervoor Cronbach’s alpha gebruiken of een factoranalyse uitvoeren.

Aanname 5: exogeniteit

Exogeniteit betekent dat de afhankelijke variabele afhangt van de verklarende variabele en de foutterm. Het tegenovergestelde is endogeniteit en dat moet worden voorkomen wanneer je uitspraken wilt doen over het effect van variabele A op variabele B (causaliteit).

Het effect van de verklarende variabele op je afhankelijke variabele wordt geschat met de regressiecoëfficiënt. Wanneer er sprake is van endogeniteit, wordt de regressiecoëfficiënt verkeerd geschat.

Oorzaken van endogeniteit

Er bestaan drie oorzaken voor endogeniteit.

1. Weggelaten variabele

Er is een andere variabele die gecorreleerd is met de verklarende variabele en die ook invloed heeft op de afhankelijke variabele. Dit kan worden opgelost door deze variabele ook op te nemen in de regressievergelijking.

Voorbeeld:
Stel je probeert het aantal drenkelingen te verklaren met ijsverkoop, dan is temperatuur een weggelaten variabele. Een hogere temperatuur zorgt immers voor meer zwemmers en dus ook drenkelingen, maar is ook een voorspeller voor de ijsverkoop.

Wanneer het aantal drenkelingen voorspeld kan worden door alleen ijsverkoop, is de geschatte regressiecoëfficiënt hoger dan de werkelijke regressiecoëfficiënt.

2. Omgekeerde causaliteit

Wanneer de afhankelijke variabele ook de verklarende variabele beïnvloedt, dan is er sprake van omgekeerde causaliteit. Dit kan worden opgelost door zogenaamde instrumentele variabelen te gebruiken.

Voorbeeld:
Stel dat je criminaliteit probeert te verklaren met politie-inzet, dan is er duidelijk sprake van omgekeerde causaliteit, aangezien meer criminaliteit juist zorgt voor meer politie-inzet. Het effect van politie-inzet op criminaliteit wordt onderschat in een regressie zonder instrumentele variabelen.

3. Meetfouten in verklarende variabele

Wanneer een verklarende variabele niet betrouwbaar gemeten is, wordt de regressiecoëfficiënt dichter bij nul geschat dan die daadwerkelijk is. Het is belangrijk dat je betrouwbare data gebruikt.

Endogeniteit voorkomen

De beste manier om endogeniteit te voorkomen is door experimenteel onderzoek te doen, waarbij je zelf de verklarende variabele manipuleert.

Of er mogelijk sprake is van endogeniteit, kun je niet op basis van je data zeggen. Wel kun je kritisch kijken naar je conceptueel model. Ga na of de pijlen de juiste richting op wijzen en of er geen variabelen ontbreken die invloed hebben op zowel de verklarende als de afhankelijke variabele.

Aanname 6: homoscedasticiteit

Homoscedasticiteit houdt in dat de variantie van een variabele gelijk is voor meerdere groepen of dat de variantie van de foutterm gelijk is.

Bij het uitvoeren van een t-toets of ANOVA analyseer je de variantie tussen de meerdere groepen. Dit kan getoetst kan worden met Levene’s test.

Bij regressie moet de variantie van de foutterm gelijk zijn voor alle waarden van de verklarende variabele. Er mag dus niet meer of minder spreiding in de foutterm zijn voor grotere of lagere waarden van de verklarende variabele.

Bij heteroskedasticiteit wordt de regressiecoëfficiënt zuiver geschat, maar de significantie is onbetrouwbaar. Deze kan zowel over- als onderschat worden. De kans bestaat dus dat je de verkeerde conclusie trekt.

Heteroscedasticiteit in regressie

Het is verstandig een spreidingsdiagram te generen om te kijken of de variantie van de foutterm gelijk is. In SPSS klik je hiervoor bij het uitvoeren van je regressie op ‘Save’ en vink je onder ‘Predicted Values’ en ‘Residuals’ Unstandardized aan.

Dit creëert de nieuwe variabelen voorspelde waarde en foutterm. In een spreidingsdiagram plot je de foutterm op de y-as en de voorspelde waarde op de x-as.

In de onderstaande spreidingsdiagrammen is te zien dat de observaties ongeveer even ver van de regressielijn liggen voor elke waarde van lengte, dus van heteroscedasticiteit lijkt geen sprake.

Homoscedasticiteit regressie

Wat moet je doen als er geen homoscedasticiteit is?

Wanneer er sprake is van heteroscedasticiteit kun je verschillende dingen proberen:

1. Transformeren van je variabele(n)

Het is mogelijk dat een transformatie van variabele(n) zorgt dat de heteroscedasticiteit verdwijnt. Heteroskedasticiteit kan namelijk ontstaan doordat er niet-lineaire verbanden zijn tussen de verklarende en afhankelijke variabele.

In dit geval is het noodzakelijk om de verklarende variabele te transformeren zodat er een lineair verband ontstaat waarbij de foutterm niet verandert voor hogere of lagere waarden van de verklarende variabele.

2. Gebruik een andere regressie

Naast de normale regressieanalyse is het ook mogelijk een gewogen (weighted) of gegeneraliseerde (generalized) regressie te gebruiken. Dit soort regressies veronderstellen geen homoscedasticiteit.

Bij een variabele die niet gemeten is op een interval- of ratioschaal, zoals het wél of niet slagen voor een tentamen, is logistische regressie een optie.

Wat vind jij van dit artikel?
Lars van Heijst

Lars schrijft artikelen over statistiek. Hij heeft psychologie en economie gestudeerd en is dus goed op de hoogte van de vele statistiek die binnen deze disciplines wordt gebruikt.

1 reactie

Lars van Heijst
Lars van Heijst (Scribbr-team)
14 december 2018 09:20

Bedankt voor het lezen! Ik hoop dat je er iets aan hebt gehad. Zit je nog met een vraag? Laat een reactie achter en ik kom zo snel mogelijk bij je terug.

Stel een vraag of reageer.