Willkommen bei Stats by Randolph. Hier geht es zur Hauptseite mit weiteren Informationen und Inhalten.

Autor:innen dieser Seite: An den Inhalten dieser Seite haben mitgearbeitet: Markus Janczyk und Valentin Koob. Der Inhalt dieser Seite wird in der Lehre in den Studiengängen Psychologie von der AG Forschungsmethoden und Kognitive Psychologie an der Universität Bremen verwendet, steht aber allen Interessierten zur Verfügung. Rückmeldungen/Fehler/Vorschläge können gesendet werden an .

Versionshistory:

  • v1.0: erste online-gestellte Version (03.03.2024)

1 Höhen- und Konturenlinien bei der multivariaten Normalverteilung

Im Haupttext zur multivariaten Statistik (Teil 12 von Statistik II) haben wir die multivariate Normalverteilung kennengelernt. Für den zweidimensionalen Fall kann diese examplarisch wie folgt gezeichnet werden:

In der gezeichneten Verteilung sind die beiden Variablen, für die die gemeinsame Dichte betrachtet wird, negativ korreliert. Das heißt, höhere Realisierungen auf der einen Variable gehen tendenziell mit niedrigeren Realisierungen auf der anderen Variable einher. Die multivariate Normalverteilung ähnelt dann ein wenig einer “Haifischflosse”. Sind die beiden Variablen unkorreliert mit der gleichen Varianz, bildet sich eine Art “Maulwurfhügel”.

In manchen Fällen ist man nun an den sog. Konturen bzw. Niveaulinien interessiert. Im zweidimensionalen Fall meint dies die Ellipse, welche sich ergibt, wenn man horizontal durch die “zwei-variate” (bivariate) Normalverteilung schneidet. Dabei können die Konturen (oder Niveaulinien) der multivariaten Normalverteilung bestimmt werden bei (1) gegebener Dichte (wenn also die ‘’Höhe’’ des Schnittes gegeben ist, das heißt für \(f(\mathbf{x}=c\)) oder bei (2) gegebener Wahrscheinlichkeit (also wenn das Volumen ist gegeben).

1.1 Bestimmung von Konturen zu einer gegebenen Dichte

Wenn \(f(\mathbf{x})=c\) (\(c\) vorgegeben) sein soll, heißt das \[\begin{equation*} \begin{split} &\frac{1}{\sqrt{(2\pi)^p \det\Sigma}}e^{{-\frac{1}{2}} (\mathbf{x}-\mathbf{\mu})'\Sigma^{-1}(\mathbf{x}-\mathbf{\mu})}=c\\ \Leftrightarrow& e^{{-\frac{1}{2}}(\mathbf{x}-\mathbf{\mu})^T\Sigma^{-1}(\mathbf{x}-\mathbf{\mu})}=c\cdot \sqrt{(2\pi)^p \det\Sigma}\\ \Leftrightarrow& \underset{\text{Mahalanobis-Distanz}}{\underbrace{(\mathbf{x}-\mathbf{\mu})' \Sigma^{-1}(\mathbf{x}- \mathbf{\mu})}}=\underset{:=k}{\underbrace{-2\ln(c\sqrt{(2\pi)^p \det\Sigma}}} \end{split} \end{equation*}\] Alle \(\mathbf{x}\) die den Mahalanobis-Abstand \(k\) von \(\mathbf{\mu}\) haben liegen also auf dem Rand der Ellipse um \(\mathbf{\mu}\) mit dem Mahalanobis-Radius \(\sqrt{k}\), also \(\mathbf{x}\in\varepsilon(\mathbf{\mu},\mathbf{\Sigma},k)\). Will man diesen Ellipsoiden zeichnen, werden – wie gehabt – die Hauptachsen durch die Eigenvektoren von \(\Sigma\) dargestellt. Der halbe Durchmesser in Richtung jeder Hauptachse ist gegeben durch \(\sqrt{k}\sqrt{\lambda_i}\).

1.2 Bestimmung von Konturen zu einer gegebenen Wahrscheinlichkeit

Ist eine bestimmte Wahrscheinlichkeit vorgegeben, so ist die Wahrscheinlichkeit ‘’innerhalb des herausgeschnittenen Zylinders’’ \(1-\alpha\) (dies, da man sich darauf einigt, nur aus der Mitte herauszuschneiden) und \(\alpha\) ist die Wahrscheinlichkeit dessen, was sich um den Zylinder herum befindet. Gesucht ist nun die Skalierung \(k\) des Ellipsoiden (da Lage und Form bereits vorgegeben sind).

Gesucht ist also eine Skalierung des Radius \(k\) eines Ellipsoiden, sodass gilt \[ P(\varepsilon(\mathbf{\mu},\mathbf{\Sigma},k))=1-\alpha \] also (wegen der Definition des Ellipsoiden) \[ P((\mathbf{X}-\mathbf{\mu})'\mathbf{\Sigma}^{-1}(\mathbf{X}-\mathbf{\mu})\leq k) = 1-\alpha \] Man kann nun zeigen, dass wenn \(\mathbf{X}\sim N_p(\mathbf{\mu},\mathbf{\Sigma})\) ist, \((\mathbf{X}-\mathbf{\mu})'\mathbf{\Sigma}^{-1}(\mathbf{X}-\mathbf{\mu})\sim \chi^2_p\) gilt, die Mahalanobis-Distanz multivariat-normalverteilter Zufallsvektoren also \(\chi^2\)-verteilt ist. Damit ist klar, dass \(k=\chi^2_{p;1-\alpha}\) ist. Die halben Durchmesser entlang der Hauptachsen sind dann wieder \(\sqrt{k}\sqrt{\lambda_i}\).