Willkommen bei Stats by Randolph. Hier geht es zur Hauptseite mit weiteren Informationen und Inhalten.
Autor:innen dieser Seite: An den Inhalten dieser Seite haben mitgearbeitet: Valentin Koob, Eva Röttger und Markus Janczyk. Der Inhalt dieser Seite wird in der Lehre in den Studiengängen Psychologie von der AG Forschungsmethoden und Kognitive Psychologie an der Universität Bremen verwendet, steht aber allen Interessierten zur Verfügung. Rückmeldungen/Fehler/Vorschläge können gesendet werden an randolph@uni-bremen.
Versionshistory:
In Teil 10 von Statistik 1 haben wir festgestellt, dass \(S_X^2\) kein erwartungstreuer Schätzer der Populationsvarianz \(\sigma_X^2\) ist. Um dies zu zeigen, bestimmen wir zunächst den Erwartungswert von \(\mathbf{S}_X^2\) und im Anschluss den von \(\mathbf{\hat{S}_X^2}\).
Der besseren Lesbarkeit halber schreiben wir die Varianz von \(\mathbf{X}\) als \(V(\mathbf{X}\)) anstelle von \(\sigma^2_{\mathbf{X}}\). Zunächst formen wir \(E(\mathbf{S}_X^2)\) etwas um, wobei wir uns einer anderen Schreibweise von \(S_X^2\) bedienen: \[\begin{equation} \begin{split} S_X^2&=\frac{1}{n}\sum_{i^=1}^n(x_i-\bar{X})^2=\frac{1}{n}\sum_{i=1}^n [x_i^2+(\bar{X})^2-2\cdot\bar{X}\cdot x_i]\\ &=\frac{1}{n}\sum_{i=1}^nx_i^2+\frac{1}{n}\sum_{i=1}^n(\bar{X})^2- 2\cdot\bar{X}\cdot\frac{1}{n}\sum_{i=1}^nx_i\\ &=\bar{X^2}+(\bar{X})^2-2\bar{X}\bar{X}=\bar{X^2}+(\bar{X})^2-2\cdot(\bar{X})^2\\ &=\bar{X^2}-(\bar{X})^2\text{ .} \end{split} \end{equation}\]
Diese Schreibweise nutzen wir nun um \(E(\mathbf{S}_X^2)\) umzuformen:
\[\begin{align}\label{part1} E(\mathbf{S}_X^2)&=E[\bar{\mathbf{X}^2}-(\bar{\mathbf{X}})^2] =E\left[\frac{\sum_{i=1}^n(\mathbf{x}_i^2)}{n}-(\bar{\mathbf{X}})^2\right]\\ &=\frac{\sum_{i=1}^nE(\mathbf{x}_i^2)}{n}-E[(\bar{\mathbf{X}})^2] =\frac{n\cdot E(\mathbf{x}_i^2)}{n}-E[(\bar{\mathbf{X}})^2]\\ &=E(\mathbf{X}^2)-E[(\bar{\mathbf{X}})^2]\text{ .} \tag{1.1} \end{align}\]
Darüber hinaus kann man – aus der Definition folgend – die Varianz von \(\mathbf{X}\) schreiben als:
\[\begin{equation}\begin{split}\label{part2} V(\mathbf{X})&=E(\mathbf{X}^2)-[E(\mathbf{X})]^2\\ \Leftrightarrow E(\mathbf{X}^2)&=V(\mathbf{X})+[E(\mathbf{X})]^2\text{ .} \end{split} \tag{1.2} \end{equation}\]
Nun setzen wir Formel (1.2) in Formel (1.1) ein und erhalten: \[\begin{equation}\begin{split}\label{part3} E(\mathbf{S}_X^2)=&E(\mathbf{X}^2)-E[(\bar{\mathbf{X}})^2]\\ =&V(\mathbf{X})+[E(\mathbf{X})]^2-E[(\bar{\mathbf{X}})^2]\text{ .} \end{split} \tag{1.3} \end{equation}\]
Machen wir zusätzlich noch Gebrauch davon, dass wir die Varianz von \(\bar{\mathbf{X}}\) kennen, ergibt sich: \[\begin{equation}\begin{split}\label{part4} \frac{V(\mathbf{X})}{n}&=V(\bar{\mathbf{X}})=E[(\bar{\mathbf{X}})^2]-[E(\bar{\mathbf{X}})]^2\\ &= E[(\bar{\mathbf{X}})^2]-[E(\mathbf{X})]^2\\ \Leftrightarrow \frac{V(\mathbf{X})}{n}+[E(\mathbf{X})]^2&=E[(\bar{\mathbf{X}})^2]\text{ .} \end{split} \tag{1.4} \end{equation}\]
Nun setzen wir Formel (1.4) in Formel (1.3) ein: \[\begin{equation*}\begin{split} E(\mathbf{S}_X^2)=&V(\mathbf{X})+[E(\mathbf{X})]^2-E[(\bar{\mathbf{X}})^2]\\ =&V(\mathbf{X})+[E(\mathbf{X})]^2-\left(\frac{V(\mathbf{X})}{n}+[E(\mathbf{X})]^2\right)\\ =&V(\mathbf{X})+[E(\mathbf{X})]^2-\frac{V(\mathbf{X})}{n}-[E(\mathbf{X})]^2\\ =&V(\mathbf{X})-\frac{V(\mathbf{X})}{n}=V(\mathbf{X}) \left(1-\frac{1}{n}\right)\\ =&V(\mathbf{X})\frac{n-1}{n}\text{ .} \end{split} \end{equation*}\] In der üblicheren Schreibweise folgt also insgesamt: \[E(\mathbf{S}_X^2)=\frac{n-1}{n}\sigma_X^2\text{ .}\] \(S_X^2\) ist also kein erwartungstreuer Schätzer von \(\sigma_X^2\).
Wie steht es nun um die korrigierte Stichprobenvarianz \(\hat{S}_X^2 = \frac{n}{n-1} S_X^2\)? \[\begin{equation*}\begin{split} E(\hat{\mathbf{S}}_X^2)=&E\left(\frac{n}{n-1}\mathbf{S}_X^2\right)= \frac{n}{n-1} E(\mathbf{S}_X^2)\\ =&\frac{n}{n-1}\left(\frac{n-1}{n}\sigma_X^2\right)=\sigma_X^2\text{ .} \end{split} \end{equation*}\] Die korrigierte Stichprobenvarianz ist also in der Tat ein erwartungstreuer Schätzer für \(\sigma_X^2\).