Willkommen bei Stats by Randolph. Hier geht es zur Hauptseite mit weiteren Informationen und Inhalten.

Autor:innen dieser Seite: An den Inhalten dieser Seite haben mitgearbeitet: Valentin Koob, Eva Röttger und Markus Janczyk. Der Inhalt dieser Seite wird in der Lehre in den Studiengängen Psychologie von der AG Forschungsmethoden und Kognitive Psychologie an der Universität Bremen verwendet, steht aber allen Interessierten zur Verfügung. Rückmeldungen/Fehler/Vorschläge können gesendet werden an .

Versionshistory:

  • v1.0: erste online-gestellte Version (14.9.2023)

15 Non-parametrische Tests

15.1 Grundprinzip und Unterschied zu parametrischen Tests

Wir haben uns bisher in Teil 12 mit dem \(t\)-Test beschäftigt, der ein Beispiel sog. parametrischer Test ist. Diese Bezeichnung rührt daher, dass Annahmen über die Verteilung der Daten gemacht werden, insbesondere wird ja angenommen, die Daten seien in der Population normalverteilt.

Bei sog. non-parametrischen Tests werden i.W. die gleichen Fragestellungen untersucht, aber es werden keine Annahmen über die Verteilung der Daten an den Anfang gestellt. Der dadurch eingekaufte Nachteil ist eine i.d.R. (etwas) geringere Power. Für die Situationen, die wir bisher kennegelernt haben, bieten sich non-parametrische Alternativen also für nicht-normalverteilte Daten an, aber auch dann, wenn die Variablen nicht intervallskaliert, sondern nur ordinalskaliert sind. Daher beruhen non-parametrische Tests i.W. auf Rangreihen, statt auf den Messwerten an sich, wie wir gleich am Beispiel von Zusammenhangshypothesen sehen werden. Im Anschluss betrachten wir Unterschiedshypothesen (oder präziser: die non-parametrischen Äquivalente zum \(t\)-Test aus Teil 12) und kommen dann noch einmal zum \(\chi^2\)-Koeffizienten aus Teil 5 zurück.

15.2 Zusammenhangshypothesen

15.2.1 Spearman Korrelation

In Teil 5 hatten wir mit Pearson’s Korrelationskoeffizienten \(r\) ein Maß für lineare Zusammenhänge intervallskalierter Variablen hergeleitet. Spearman’s Korrelationskoeffizient \(\rho\) ist ein solches Maß für ordinalskalierte Variablen, wobei hier nur erfasst wird, inwieweit ein Zusammenhang monoton steigend oder fallend ist. Die dabei wesentliche Idee ist, dass die Daten zunächst in eine Rangreihe gebracht werden und mit den Rängen dann eine Pearson-Korrelation berechnet wird.

Zur Illustration betrachten wir ein Beispiel mit 6 Datenpunkten, welche einen monoton steigenden Zusammenhang auf den Variablen \(X\) und \(Y\) bilden. Der Plot auf der linken Seite zeigt diese perfekte Monotonie. Der Plot auf der rechten Seite zeigt die gleichen Daten, aber für den Fall, dass man versuchen würde einen linearen Zusammenhang zu quantifizieren.