Willkommen bei Stats by Randolph. Hier geht es zur Hauptseite mit weiteren Informationen und Inhalten.

Autor:innen dieser Seite: An den Inhalten dieser Seite haben mitgearbeitet: Valentin Koob, Eva Röttger und Markus Janczyk. Der Inhalt dieser Seite wird in der Lehre in den Studiengängen Psychologie von der AG Forschungsmethoden und Kognitive Psychologie an der Universität Bremen verwendet, steht aber allen Interessierten zur Verfügung. Rückmeldungen/Fehler/Vorschläge können gesendet werden an .

Versionshistory:

  • v1.0: erste online-gestellte Version (14.9.2023)

13 Intervallschätzung

In Teil 10 haben wir uns mit der Punktschätzung befasst und die Frage gestellt: Welche Stichprobenstatistik ist am besten geeignet, um “möglichst gut” einen Populationsparameter zu schätzen? In diesem Zuge haben wir auch Kriterien herausgearbeitet, was wir unter “möglichst gut” verstehen (z.B. Erwartungstreue und Konsistenz) und bspw. festgehalten, dass der Mittelwert \(M\) ein guter Schätzer für \(\mu\) ist, und die korrigierte Stichprobenvarianz \(\hat{S}^2\) ein guter Schätzer für \(\sigma^2\) ist.

Bei der Intervallschätzung fragen wir nun: In welchem Bereich liegen plausible Werte eines Populationsparameters, die eine berechnete Stichprobenstatistik “erzeugen” würden? Die Wertebereiche, die am Ende unserer Überlegungen stehen, werden als Vertrauens- oder Konfidenzintervalle bezeichnet.

Die folgende Abbildung visualisiert beide Varianten der Schätzung und offenbart auch den Trade-off, der hier existiert.

  • Bei der Punktschätzung erhalten wir einen einzelnen Wert, also eine präzise Schätzung. Es ist aber gleichzeitig sehr unklar, wie nahe am wahren Parameter dieser einzelne Wert wirklich ist.
  • Bei der Intervallschätzung hingegen resultiert ein Intervall als Ergebnis. Damit erhalten wir natürlich eine weniger präzise Schätzung, bekommen dafür aber eine gewisse “Sicherheit” der Überlappung dieses Intervalls mit dem wahren Parameter. (Zur korrekten Interpretation der “Sicherheit” kommen wir weiter unten noch ausführlich.)

Prinzipiell können Konfidenzintervalle für viele Parameter berechnet werden. Wir beginnen hier mit dem Konfidenzintervall für den Mittelwert, bevor wir auch solche Intervalle für Mittelwertunterschiede und schließlich für Varianzen kurz betrachten. Mehr Informationen gibt es auch im frei verfügbaren Artikel Pfister und Janczyk (2013).

13.1 Konfidenzintervall des Mittelwerts

13.1.1 Berechnung bei unbekannter Populationsvarianz

Das Konfidenzintervall für den Mittelwert1 ist wahrscheinlich das am häufigsten berechnete Konfidenzintervall. Wir betrachten hier, ganz ähnlich wie beim t Test, direkt wieder den Fall, dass die Populationsvarianz \(\sigma^2\) unbekannt ist und durch \(\hat{S}^2\) geschätzt werden muss.

Aus Teil 12 (t Test für eine Stichprobe) kennen wir bereits folgende Verteilungsform (der Zufallsvariablen \(\mathbf{t}\)) : \[\mathbf{t}=\frac{\boldsymbol{M}-\mu}{\boldsymbol{SE_M} }={\frac{\boldsymbol{M}-\mu}{\frac{\boldsymbol{\hat{S}}}{\sqrt{n}}}} \sim t_{n-1}\] Wir betrachten nun diejenigen Quantile, die an beiden Enden der \(t\)-Verteilung mit \(n-1\) Freiheitsgraden einen Anteil von \(\frac{\alpha}{2}\) abschneiden, also \(\pm t_{n-1;1-\frac{\alpha}{2}}\), und können damit für diese Variable einen Bereich angeben, in welchem die Variable mit einer Wahrscheinlichkeit von insgesamt \(1-\alpha\) liegt: \[\begin{equation*} \begin{aligned} P\left(-t_{n-1;1-\frac{\alpha}{2}} \leq \frac{M-\mu}{\frac{\hat{S}}{\sqrt{n}}} \leq t_{n-1;1-\frac{\alpha}{2}}\right) = 1-\alpha \end{aligned} \end{equation*}\]

Nun formen wir den Teil in Klammer hinter \(P\) ein wenig um, wobei wir der Einfachheit halber für \(t_{n-1;1-\frac{\alpha}{2}}\) kurz nur \(t\) schreiben: \[\begin{equation*} \begin{aligned} &P\left(-t \leq \frac{M-\mu}{\frac{\hat{S}}{\sqrt{n}}} \leq t\right) = 1-\alpha\\ \Leftrightarrow &P\left(-t \cdot \frac{\hat{S}}{\sqrt{n}} \leq M-\mu \leq t \cdot \frac{\hat{S}}{\sqrt{n}}\right) = 1-\alpha\\ \Leftrightarrow &P\left(t \cdot \frac{\hat{S}}{\sqrt{n}} \geq -M+\mu \geq -t \cdot \frac{\hat{S}}{\sqrt{n}}\right) = 1-\alpha\\ \Leftrightarrow &P\left(-t \cdot \frac{\hat{S}}{\sqrt{n}} \leq -M+\mu \leq +t \cdot \frac{\hat{S}}{\sqrt{n}}\right) = 1-\alpha\\ \Leftrightarrow &P\left(M-t \cdot \frac{\hat{S}}{\sqrt{n}} \leq \mu \leq M+t \cdot \frac{\hat{S}}{\sqrt{n}}\right) = 1-\alpha\\ \end{aligned} \end{equation*}\]

Damit haben wir ein Intervall hergeleitet, welches von \(M-t \cdot \frac{\hat{S}}{\sqrt{n}}\) bis \(M+t \cdot \frac{\hat{S}}{\sqrt{n}}\) geht, also symmetrisch um \(M\) liegt, und in welchem der Parameter \(\mu\) mit einer Wahrscheinlichkeit von \(1-\alpha\) liegt (zur Interpretation, siehe unten). Schreiben wir nun \(t\) wieder aus, dann wird das Intervall \[ \left[ M-t_{n-1;1-\frac{\alpha}{2}} \cdot \frac{\hat{S}}{\sqrt{n}} ; M+t_{n-1;1-\frac{\alpha}{2}} \cdot \frac{\hat{S}}{\sqrt{n}}\right] \] das \((1-\alpha)\cdot 100\)% Konfidenzintervall für den Mittelwert (bzw. \(\mu\)) genannt. Da es symmetrisch um \(M\) herum liegt, wird oft auch eine abkürzende Schreibweise \[\left[ M\pm t_{n-1;1-\frac{\alpha}{2}} \cdot \frac{\hat{S}}{\sqrt{n}}\right]\] verwendet.

Die Differenz obere Grenze \(-\) untere Grenze wird auch die Breite des Intervalls genannt.

Beispiel: An einer Stichprobe von \(n=11\) Personen wurde eine Variable erhoben. Der Mittelwert sei \(M=55\) und die Varianz \(S^2=32.72727\). Wie lautet das 95% Konfidenzintervall für \(M\) bzw. \(\mu\)?

n <- 11
M <- 55
S2 <- 32.72727
S2.korr <- (n/(n-1)) * S2    # korrigierte Varianz
SD.korr <- sqrt(S2.korr)     # korrigierte Standardabweichung
SD.korr
## [1] 6
SE_M <- SD.korr / sqrt(11)   # Standardfehler
SE_M
## [1] 1.809068
t <- qt(0.975, df = 10)      # (1-alpha/2)-Quantil:

# Berechnung der unteren und oberen Grenze des Intervalls:
untere_grenze <- M - t*SE_M
obere_grenze <- M + t*SE_M
paste("unten:", round(untere_grenze,2)," // oben:", round(obere_grenze,2))
## [1] "unten: 50.97  // oben: 59.03"

Das 95%-Konfidenzintervall geht also von von \(50.97\) bis \(59.03\) bzw. lautet kurz \([50.97;59.03]\).

13.1.2 Einflussfaktoren

Es gibt vier Größen, die in der Formel für das Konfidenzintervall vorkommen. Wie wirken diese sich auf das Intervall aus?

  • Mittelwert \(M\): Der Mittelwert bildet hier das Zentrum des Konfidenzintervalls und bei einem anderen zugrunde liegenden Mittelwert würde das Intervall verschoben werden. Seine Breite ändert sich hierdurch allerdings nicht.
  • “Ausmaß der Konfidenz”: Wollen wir beispielsweise ein 99%-Konfidenzintervall statt des 95%-Konfidenzintervalls berechnen, so wird der Betrag von \(t_{n-1;1-\frac{\alpha}{2}}\) größer, da an beiden Enden der \(t\)-Verteilung ein geringerer Anteil abgeschnitten wird. Als Konsequenz dessen wird der zweite Term des Konfidenzintervalls größer und damit nimmt auch die Breite des Intervalls zu. Die Intervallschätzung wird somit ungenauer, da wir einen breiteren Wertebereich für plausible Parameter erhalten.
  • Populationsvarianz \(\sigma^2\): Wird die Populationsvarianz kleiner, erhalten wir tendenziell auch kleinere Varianzen in der Stichprobe und damit auch kleinere berechnete Standardabweichungen. Da \(\hat{S}\) im Zähler des Bruchs steht, wird der Bruch (und damit die Breite des Intervalls) kleiner, wenn \(\sigma^2\), und als Folge \(\hat{S}\), kleiner wird.
  • Stichprobengröße \(n\): Die Stichprobengröße hat zwei Auswirkungen. Zum einen steht \(n\) im Nenner des Bruchs und damit wird der Bruch (und damit die Breite des Intervalls) kleiner, wenn \(n\) größer wird. Zum anderen wird bei größerem \(n\) auch eine \(t\)-Verteilung mit mehr Freiheitsgraden benötigt und als Konsequenz wird das verwendete \(t\)-Quantil kleiner (und damit auch die Breite des Intervalls).
qt(0.975, df = 10)     # n = 11
## [1] 2.228139
qt(0.975, df = 20)     # n = 21
## [1] 2.085963

Diese Auswirkungen können auch anhand einer ShinyApp exploriert werden, auf die wir später im Kontext der Interpretation noch einmal zurückkommen werden.

13.2 Allgemeine Form von Konfidenzintervallen

Derartige (symmetrische) Konfidenzintervalle können im Prinzip für alle Populationsparameter berechnet werden. Wir haben hier erst einmal \(\mu\) betrachtet, aber es gibt auch für andere Populationsparameter Konfidenzintervalle, z.B. für

  • Differenzen von Mittelwerten \(\mu_A - \mu_B\) (mit unabhängigen und mit abhängigen Stichproben)
  • Varianz \(\sigma^2\)
  • (Korrelation \(\rho\))

Die Voraussetzung ist immer, dass wir die Verteilung der relevanten Zufallsvariablen kennen. Ist diese bekannt, dann können wir auf eine ganz allgemeine Form zur Konstruktion von Konfidenzintervallen zurückgreifen. Im Allgemeinen hat ein (zweiseitiges) symmetrisches Konfidenzintervall für einen Parameter \(\tau\) nämlich die Form: \[[T-c\cdot SE_T ; T+c\cdot SE_T] = [T\pm c\cdot SE_T]\] Dabei bedeuten:

  • \(T\) ist ein Schätzer für den Parameter \(\tau\)
  • \(SE_T\) ist der geschätzte Standardfehler des Schätzers \(T\)
  • \(c\) ist der “Sicherheitsparameter”, der sich aus der Verteilung der relevanten Zufallsvariablen ergibt

Die Breite des Konfidenzintervalls ist dann: \[\text{Breite}=2\cdot c\cdot SE_T\]

13.3 Konfidenzintervall von Mittelwertunterschieden

Wir wenden diese allgemeine Form nun an und wollen ein Konfidenzintervall für Mittelwertunterschiede berechnen, d.h. ein Konfidenzintervall für \(\mu_A-\mu_B\), ganz ähnlich wie wir es beim \(t\)-Test bereits kennengelernt haben. Wir beginnen dabei mit dem Fall unabhängiger Stichproben und kommen dann zum Fall abhängiger Stichproben.

13.3.1 Unabhängige Stichproben

Wir starten dazu mit der allgemeinen Form eines symmetrischen Konfidenzintervalls \[[T-c\cdot SE_T ; T+c\cdot SE_T] = [T\pm c\cdot SE_T]\] und setzen die entsprechenden Werte ein.

Der interessante Parameter ist nun \(\mu_A-\mu_B\) und der entsprechende Schätzer lautet \[T=M_A-M_B\] Den geschätzten Standardfehler von \(T\),\(SE_T\), kennen wir bereits aus der Diskussion des entsprechenden \(t\)-Tests für zwei unabhängige Stichproben. Es ist der Nenner des entsprechenden \(t\)-Bruchs, also: \[SE_T=\sqrt{\frac{(n_A-1)\hat{S}^2_A+(n_B-1)\hat{S}^2_B}{n_A+n_B-2}}\cdot\sqrt{\frac{1}{n_A}+\frac{1}{n_B}}\] Schließlich benötigen wir noch der Wert \(c\), der sich bestimmt aus der \(t\)-Verteilung mit \(n_A+n_B-2\) Freiheitsgraden: \[t_{n_A+n_B-2;1-\frac{\alpha}{2}}\] Nun können wir diese drei Größen in die allgemeine Formel einsetzen und wir erhalten als \((1-\alpha)\cdot 100\)%-Konfidenzintervall: \[\left[ \underset{T}{\underbrace{(M_A-M_B)}} \pm \underset{c}{\underbrace{t_{n_A+n_B-2;1-\frac{\alpha}{2}}}} \cdot \underset{SE_T}{\underbrace{\sqrt{\frac{(n_A-1)\hat{S}^2_A+(n_B-1)\hat{S}^2_B}{n_A+n_B-2}}\cdot\sqrt{\frac{1}{n_A}+\frac{1}{n_B}}}}\right]\] Das Intervall sieht zwar deutlich komplizierter aus, folgt aber ersichtlich der allgemeinen Form.

13.3.2 Abhängige Stichproben

Die Besonderheit des \(t\)-Tests für zwei abhängige Stichproben war, dass nur die Unterschiede zwischen den Bedingungen interessieren, nicht aber die Unterschiede generell zwischen den Versuchspersonen. Daher wurde der \(t\)-Test als Einstichproben-\(t\)-Test der Differenzen \(D\) mit \(\mu_0=0\) aufgefasst.

In diesem Fall kennzeichnet die Varianz bzw. Standardabweichung dann, wie ähnlich sich die Differenzen für alle Personen sind und der geschätzte Standardfehler kann berechnet werden als \[SE_D=\frac{\hat{S}_D}{\sqrt{n}}\] Setzen wir wieder die Größen in die allgemeine Formel des Konfidenzintervalls ein, ergibt sich als \((1-\alpha)\cdot 100\)% Vertrauensintervall: \[\left[ \underset{T}{\underbrace{(M_A-M_B)}} \pm \underset{c}{\underbrace{t_{n-1;1-\frac{\alpha}{2}}}} \cdot \underset{SE_T}{\underbrace{\frac{\hat{S}_D}{\sqrt{n}}}}\right]\]

13.4 Interpretation

Eine beliebte Interpretation eines 95%-Konfidenzintervalls ist so etwas wie: “Der wahre Wert \(\tau\) liegt mit 95% Wahrscheinlichkeit in dem so berechneten 95%-Konfidenzintervall.” So naheliegend und intuitiv wie diese Interpretation auch ist, sie ist falsch. Tatsächlich kann ein Punkt, in diesem Fall der wahre Wert, also der Parameter \(\tau\), entweder in dem Intervall liegen (dann ist die Wahrscheinlichkeit dafür, dass er im Intervall liegt \(p=1\)) oder er liegt nicht in dem Intervall (dann ist die Wahrscheinlichkeit dafür, dass er im Intervall liegt \(p=0\)).

Wir betrachten nun zunächst die korrekte frequentistische Interpretation und im Anschluss den Zusammenhang von Konfidenzintervallen und Signifikanztests.

13.4.1 Frequentistische Interpretation

Um die korrekte Interpretation zu verstehen, machen wir uns klar, dass die “Konfidenz von 95%” keine Eigenschaft des Parameters ist, sondern eine Eigenschaft des Schätzverfahrens. Nun bedenken wir noch, was wir in Teil 8 zur Interpretation von Wahrscheinlichkeiten gelernt haben, nämlich, dass wir sie im Sinne von relativen Häufigkeiten auf lange Sicht (d.h. bei unendlich häufiger Durchführung des Zufallsexperimentes) auffassen können.

In unserem Fall bedeutet dies nun: Würden wir unendlich oft Stichproben vom Umfang \(n\) aus der gleichen Population ziehen und jeweils das 95%-Konfidenzintervall berechnen, dann beinhalten 95% der auf diese Art konstruierten Konfidenzintervalle den wahren Wert \(\tau\) (in jedem einzelnen liegt der Parameter aber entweder innerhalb oder außerhalb, und nicht zu “95% innerhalb” oder so ähnlich).

Die folgende Abbildung ist das Ergebnis einer Simulation. Der Population, aus der hier 100 unabhängige Stichproben vom Umfang \(n=20\) gezogen wurden, liegt eine normalverteilte Variable mit \(\mu = 50\) und \(\sigma^2=400\) zugrunde. Für jede der 100 Stichproben wurde dann das entsprechende 95%- Konfidenzintervall berechnet und in rot sind diejenigen Intervalle eingezeichnet, die den wahren Wert \(\mu=50\) nicht enthalten. Im Beispiel sind dies tatsächlich 5% der Intervalle während 95% der Intervalle den wahren Wert enthalten:

Wir haben zudem hier eine ShinyApp hinterlegt, mit der diese Interpretation weiter exploriert werden kann (und auch die Auswirkungen von Stichprobengröße \(n\) etc. auf die Breite untersucht werden können).

13.4.2 Zusammenhang von Konfidenzintervallen und Signifikanztests

Die Formeln für den \(t\)-Test für eine Stichprobe und das Konfidenzintervall für den Mittelwert legen eine Beziehung zwischen beiden Verfahren nahe.

Betrachten wir dazu das Beispiel einer Stichprobe vom Umfang \(n=16\). Der Mittelwert der erhobenen Variablen sei \(M=96\) und die korrigierte Varianz sei \(\hat{S}^2=81\), woraus eine korrigierte Standardabweichung von \(\hat{S}=9\) folgt. Es soll nun ein Einstichproben-\(t\)-Test auf den Wert \(\mu_0 = 100\) durchgeführt werden (\(\alpha=.05\), ungerichtet).

Der \(t\)-Wert berechnet sich in dem Fall dann als \[t=\frac{96-100}{\frac{9}{\sqrt{16}}}=-1.\bar{7}\] und mit \(t_\text{krit}=2.13\) bzw. \(-t_{krit}=-2.13\) entscheiden wir uns für die Beibehaltung der \(H_0\); wir haben also ein nicht signifikantes Ergebnis erhalten.

Nun berechnen wir das 95%- Konfidenzintervall für \(M\): \[\left[M\pm t_{n-1;1-\frac{\alpha}{2}}\cdot \frac{\hat{S}}{\sqrt{n}}\right]= \left[96\pm 2.13\cdot\frac{9}{\sqrt{16}}\right]=[91.21;100.79]\] Der Testwert \(\mu_0=100\) (des \(t\)-Tests) ist im 95%-Konfidenzintervall enthalten. Wäre der Testwert nicht im Konfidenzintervall enthalten, dann wäre der entsprechende \(t\)-Test signifikant geworden. Es sind also immer die folgenden beiden Aussagen wahr oder falsch:

  • Der Testwert ist nicht im \((1-\alpha)\cdot 100\)% Konfidenzintervall enthalten.
  • Der entsprechende \(t\)-Test wird zu \(\alpha\) (ungerichtete \(H_0\)) signifikant.

Beide Herangehensweisen bieten also zunächst die gleiche dichotome Entscheidung (\(H_0\) vs. \(H_1\)), Konfidenzintervalle bieten aber darüber hinaus noch Information über die Präzision der Schätzung. Konfidenzintervalle finden daher auch oft Anwendung in Abbildungen. Im nächsten Abschnitt betrachten wir dies genauer und lernen eine schnelle Berechnungsweise für Konfidenzintervalle kennen.

13.5 Berechnung mit R und Verwendung in Abbildungen

13.5.1 Berechnung mit R

Die drei bisher behandelten Arten von Konfidenzintervallen werden von der Funktion t.test() direkt mit ausgegeben und können entsprechend weiter verwendet werden. Wir betrachten hier zunächst das Beispiel des Einstichproben-\(t\)-Tests:

# Einstichproben-t-Test
X <- c(97,78,90,100,121,123,103,105,87)    # Werte einer Variablen X
ergebnis <- t.test(X,                      # welche Daten?
                   mu = 90,                # Testwert mu_0
                   conf.level = .95)       # Konfidenz 95% (Standardeinstellung)
ergebnis
## 
##  One Sample t-test
## 
## data:  X
## t = 2.11, df = 8, p-value = 0.06788
## alternative hypothesis: true mean is not equal to 90
## 95 percent confidence interval:
##   89.02959 111.85930
## sample estimates:
## mean of x 
##  100.4444

Mit einem \(p=.068\) erhalten wir also ein nicht-signifikantes Ergebnis und entscheiden uns, die \(H_0\) weiter beizubehalten. Gleichzeitig wird das 95%-Konfidenzintervall ausgegeben. Dieses lautet \[[89.03;111.86]\] und der Testwert \(\mu_0=90\) ist entsprechend im Konfidenzintervall enthalten.

Die Grenzen des Intervalls können direkt aus dem Ergebnis der Funktion t.test() ausgelesen werden, womit bspw. die Breite der Konfidenzintervalls auch leicht berechnet werden kann

ergebnis$conf.int                            # alle Information
## [1]  89.02959 111.85930
## attr(,"conf.level")
## [1] 0.95
ergebnis$conf.int[1]                         # untere Grenze 
## [1] 89.02959
ergebnis$conf.int[2]                         # obere Grenze 
## [1] 111.8593
ergebnis$conf.int[2] - ergebnis$conf.int[1]  # Breite
## [1] 22.82971

Als ein weiteres Beispiel betrachten wir nun noch einen \(t\)-Test für zwei unabhängige Stichproben, den wir direkt in R berechnen:

# zwei unabhängige Stichproben
X1 <- c(97,78,90,100,121,123,103,105,87)   # Werte einer Variablen X (Stichprobe 1)
X2 <- c(67,78,65,78,98,76,78,90,89)        # Werte einer Variablen X (Stichprobe 2)
ergebnis <- t.test(X1, X2,                 # welche Daten?
                   var.equal = TRUE,       # Varianzhomogenität angenommen
                   conf.level = .95)       # Konfidenz 95% (Standardeinstellung)
ergebnis
## 
##  Two Sample t-test
## 
## data:  X1 and X2
## t = 3.3622, df = 16, p-value = 0.003964
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##   7.595227 33.515885
## sample estimates:
## mean of x mean of y 
## 100.44444  79.88889

In diesem Fall erhalten wir also mit \(p=.004\) ein signifikantes Ergebnis und das 95%-Konfidenzintervall für den Mittelwertunterschied lautet \[[7.60;33.52]\] Auch hier gilt die oben eingeführte Beziehung zwischen \(t\)-Test und Konfidenzintervall, wenn wir uns klarmachen, was hier der Testwert des \(t\)-Tests eigentlich ist. Hier wird eine Mittelwertdifferenz getestet, und zwar auf den Wert 0, und dies ist dann auch der Testwert, der hier nicht im Konfidenzintervall enthalten ist.

13.5.2 Verwendung in Abbildungen

Konfidenzintervalle können auch als Fehlerbalken in Abbildungen verwendet werden und erlauben so inferenzstatistische Beurteilungen. Als Beispiel betrachten wir dazu wieder die Situation eines \(t\)-Tests für zwei unabhängige Stichproben, hier jeweils vom Umfang \(n=5\):

X1 <- c(4,6,5,7,6)      # Stichprobe 1
X2 <- c(6,8,9,8,11)     # Stichprobe 2

Wir können nun für jede Stichprobe das Konfidenzintervall für den jeweiligen Mittelwert berechnen und entsprechend um die Mittelwerte einzeichnen. Eine Möglichkeit dazu bietet die Funktion plotCI() aus dem Paket plotrix:

x <- barplot(c(mean(X1), mean(X2)),   # Balkendiagramm der Mittelwerte 
             ylim = c(0,12),
             xlab = "Stichprobe",
             ylab = "Variable X")
axis(1,
     at = x,
     labels = c("Stichprobe 1", "Stichprobe 2"))

# Berechnen der beiden Konfidenzintervalle... plotCI benötigt die halbe Breite
ci.X1 <- t.test(X1,                             # t-Test für X1 
                mu = 0)$conf.int 
ci.X1.halbe_breite <- (ci.X1[2] - ci.X1[1])/2   # halbe Breite ausrechnen
ci.X2 <- t.test(X2,                             # t-Test für X2 
                mu = 0)$conf.int 
ci.X2.halbe_breite <- (ci.X2[2] - ci.X2[1])/2   # halbe Breite ausrechnen

# Dann die Konfidenzintervalle einzeichnen
plotCI(x = x,                                   # x-Koordinaten
       y = c(mean(X1), mean(X2)),               # y-Koordinaten
       uiw = c(ci.X1.halbe_breite, ci.X2.halbe_breite), # "upper width"
       add = TRUE)                              # Hinzufügen zum existierenden barplot()

Die beiden Konfidenzintervalle sind unterschiedlich groß (da die Varianzen beider Stichproben sich unterscheiden) und besagen, dass die jeweiligen Einstichproben-\(t\)-Tests mit \(\mu_0=0\) signifikant werden würden, da \(\mu_0\) nicht in den Konfidenzintervallen enthalten ist. Darüber, ob ein \(t\)-Test für zwei unabhängige Stichproben signifikant werden würde, sagen diese Konfidenzintervalle nichts aus.

Tatsächlich würde der entsprechende \(t\)-Test signifikant werden mit \(p=.019\) und entsprechend enthält das Konfidenzintervall für die Differenz der Mittelwerte auch die 0 nicht:

t.test(X1, X2,
       var.equal = TRUE)
## 
##  Two Sample t-test
## 
## data:  X1 and X2
## t = -2.9192, df = 8, p-value = 0.01931
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -5.0118415 -0.5881585
## sample estimates:
## mean of x mean of y 
##       5.6       8.4

Wollen wir dies grafisch veranschaulichen, können wir das Konfidenzintervall um die Mittelwertdifferenz zeichnen und sehen natürlich, dass die 0 nicht eingeschlossen ist (linker Teil der folgenden Abbildung). Allerdings wollen wir i.d.R. die Mittelwerte beider Gruppe auch tatsächlich darstellen. Zeichnen wir um beide Mittelwerte das Konfidenzintervall des Mittelwertunterschieds so gilt: Ist die 0 nicht im Konfidenzintervall des Mittelwertunterschieds enthalten, so liegt ein Mittelwert auch nicht in diesem Konfidenzintervall wenn es um den Mittelwert der anderen Stichprobe gezeichnet wird. Dies ist im rechten Teil der folgenden Abbildung zu sehen, wobei zur Veranschaulichung der schwarze Balken eben die Mittelwertdifferenz darstellt.

13.6 Weitere Konfidenzintervalle

13.6.1 Asymmetrisches Konfidenzintervall der Varianz

Bisher waren Konfidenzintervalle immer symmetrisch, da die benötigte (zentrale) \(t\)-Verteilung symmetrisch um Null ist. Ist die benötigte Dichtefunktion allerdings nicht symmetrisch, so ist auch das resultierende Konfidenzintervall nicht symmetrisch, sondern beide “Enden” sind unterschiedlich groß. Ein Beispiel dafür ist das Konfidenzintervall für die Varianz.

Varianzen folgen (hier ohne Begründung) einer \(\chi^2\)-Verteilung: \[\frac{(n-1)}{\sigma^2}\cdot \hat{S}^2 \overset{H_0}{\sim} \chi^2_{n-1}\] Auch in diesem Fall lässt sich dann ein Konfidenzintervall berechnen, welches lautet: \[\left[\frac{(n-1)\cdot \hat{S}^2}{\chi^2_{n-1;1-\frac{\alpha}{2}}};\frac{(n-1)\cdot \hat{S}^2}{\chi^2_{n-1;\frac{\alpha}{2}}}\right]\] Auch hier gilt die oben besprochene Beziehung zu einem Signifikanztest, dem Sigma-Test. Es gibt eine entsprechende R-Funktion, die den Test und das Konfidenzintervall ausgibt. Die Funktion lautet sigma.test() und wird im Paket TeachingDemos bereitgestellt. Die Nullhypothese des Sigma-Tests lautet dabei \(H_0: \sigma^2 = \sigma^2_0\):

X <- c(6,5,4,3,6,8,5,3,4,5,6,7,5)
ergebnis <- sigma.test(X,               # Daten
                       sigmasq = 1)     # Varianz auf die getestet wird 
ergebnis
## 
##  One sample Chi-squared test for variance
## 
## data:  X
## X-squared = 25.692, df = 12, p-value = 0.02372
## alternative hypothesis: true variance is not equal to 1
## 95 percent confidence interval:
##  1.100942 5.834138
## sample estimates:
## var of X 
## 2.141026

Die Varianz der Stichprobe weicht also signifikant vom Testwert \(\sigma^2_0=1\) ab, \(p = .024\). Wollen wir dieses Ergebnis grafisch visualisieren, müssen wir nun bedenken, dass die beiden “Hälften” nicht gleich groß sind. Entsprechend müssen beide Parameter uiw und liw der Funktion plotCI() benutzt werden:

untere.haelfte <- ergebnis$estimate - ergebnis$conf.int[1]
obere.haelfte  <- ergebnis$conf.int[2] - ergebnis$estimate

x <- barplot(as.numeric(ergebnis$estimate),  # wir nehmen die Varianz direkt aus dem Test
             ylim = c(0,6),
             ylab = "Varianz von X")

plotCI(x = x,
       y = as.numeric(ergebnis$estimate),
       uiw = obere.haelfte,                  # "upper width"
       liw = untere.haelfte,                 # "lower width"
       add = TRUE)

13.7 Literatur

Pfister, R. & Janczyk, M. (2013). Confidence intervals for two sample means: Calculation, interpretation, and a few simple rules. Advances in Cognitive Psychology, 9,74-80.


  1. Die Bezeichnung, ob das Konfidenzintervall für den Mittelwert \(M\) oder den Populationsparameter \(\mu\) berechnet wird, ist nicht ganz einheitlich verwendet. In jedem Fall wird das Intervall um den Mittelwert gelegt und ist ein Bereich, in welchem sich plausible Parameterwerte befinden. Wir verwenden beide Varianten hier austauschbar.↩︎