Willkommen bei Stats by Randolph. Hier geht es zur Hauptseite mit weiteren Informationen und Inhalten.
Autor:innen dieser Seite: An den Inhalten dieser Seite haben mitgearbeitet: Valentin Koob, Eva Röttger und Markus Janczyk. Der Inhalt dieser Seite wird in der Lehre in den Studiengängen Psychologie von der AG Forschungsmethoden und Kognitive Psychologie an der Universität Bremen verwendet, steht aber allen Interessierten zur Verfügung. Rückmeldungen/Fehler/Vorschläge können gesendet werden an randolph@uni-bremen.
Versionshistory:
In Teil 10 haben wir uns mit der Punktschätzung befasst und die Frage gestellt: Welche Stichprobenstatistik ist am besten geeignet, um “möglichst gut” einen Populationsparameter zu schätzen? In diesem Zuge haben wir auch Kriterien herausgearbeitet, was wir unter “möglichst gut” verstehen (z.B. Erwartungstreue und Konsistenz) und bspw. festgehalten, dass der Mittelwert \(M\) ein guter Schätzer für \(\mu\) ist, und die korrigierte Stichprobenvarianz \(\hat{S}^2\) ein guter Schätzer für \(\sigma^2\) ist.
Bei der Intervallschätzung fragen wir nun: In welchem Bereich liegen plausible Werte eines Populationsparameters, die eine berechnete Stichprobenstatistik “erzeugen” würden? Die Wertebereiche, die am Ende unserer Überlegungen stehen, werden als Vertrauens- oder Konfidenzintervalle bezeichnet.
Die folgende Abbildung visualisiert beide Varianten der Schätzung und offenbart auch den Trade-off, der hier existiert.
Prinzipiell können Konfidenzintervalle für viele Parameter berechnet werden. Wir beginnen hier mit dem Konfidenzintervall für den Mittelwert, bevor wir auch solche Intervalle für Mittelwertunterschiede und schließlich für Varianzen kurz betrachten. Mehr Informationen gibt es auch im frei verfügbaren Artikel Pfister und Janczyk (2013).
Das Konfidenzintervall für den Mittelwert1 ist wahrscheinlich das am häufigsten berechnete Konfidenzintervall. Wir betrachten hier, ganz ähnlich wie beim t Test, direkt wieder den Fall, dass die Populationsvarianz \(\sigma^2\) unbekannt ist und durch \(\hat{S}^2\) geschätzt werden muss.
Aus Teil 12 (t Test für eine Stichprobe) kennen wir bereits folgende Verteilungsform (der Zufallsvariablen \(\mathbf{t}\)) : \[\mathbf{t}=\frac{\boldsymbol{M}-\mu}{\boldsymbol{SE_M} }={\frac{\boldsymbol{M}-\mu}{\frac{\boldsymbol{\hat{S}}}{\sqrt{n}}}} \sim t_{n-1}\] Wir betrachten nun diejenigen Quantile, die an beiden Enden der \(t\)-Verteilung mit \(n-1\) Freiheitsgraden einen Anteil von \(\frac{\alpha}{2}\) abschneiden, also \(\pm t_{n-1;1-\frac{\alpha}{2}}\), und können damit für diese Variable einen Bereich angeben, in welchem die Variable mit einer Wahrscheinlichkeit von insgesamt \(1-\alpha\) liegt: \[\begin{equation*} \begin{aligned} P\left(-t_{n-1;1-\frac{\alpha}{2}} \leq \frac{M-\mu}{\frac{\hat{S}}{\sqrt{n}}} \leq t_{n-1;1-\frac{\alpha}{2}}\right) = 1-\alpha \end{aligned} \end{equation*}\]
Nun formen wir den Teil in Klammer hinter \(P\) ein wenig um, wobei wir der Einfachheit halber für \(t_{n-1;1-\frac{\alpha}{2}}\) kurz nur \(t\) schreiben: \[\begin{equation*} \begin{aligned} &P\left(-t \leq \frac{M-\mu}{\frac{\hat{S}}{\sqrt{n}}} \leq t\right) = 1-\alpha\\ \Leftrightarrow &P\left(-t \cdot \frac{\hat{S}}{\sqrt{n}} \leq M-\mu \leq t \cdot \frac{\hat{S}}{\sqrt{n}}\right) = 1-\alpha\\ \Leftrightarrow &P\left(t \cdot \frac{\hat{S}}{\sqrt{n}} \geq -M+\mu \geq -t \cdot \frac{\hat{S}}{\sqrt{n}}\right) = 1-\alpha\\ \Leftrightarrow &P\left(-t \cdot \frac{\hat{S}}{\sqrt{n}} \leq -M+\mu \leq +t \cdot \frac{\hat{S}}{\sqrt{n}}\right) = 1-\alpha\\ \Leftrightarrow &P\left(M-t \cdot \frac{\hat{S}}{\sqrt{n}} \leq \mu \leq M+t \cdot \frac{\hat{S}}{\sqrt{n}}\right) = 1-\alpha\\ \end{aligned} \end{equation*}\]
Damit haben wir ein Intervall hergeleitet, welches von \(M-t \cdot \frac{\hat{S}}{\sqrt{n}}\) bis \(M+t \cdot \frac{\hat{S}}{\sqrt{n}}\) geht, also symmetrisch um \(M\) liegt, und in welchem der Parameter \(\mu\) mit einer Wahrscheinlichkeit von \(1-\alpha\) liegt (zur Interpretation, siehe unten). Schreiben wir nun \(t\) wieder aus, dann wird das Intervall \[ \left[ M-t_{n-1;1-\frac{\alpha}{2}} \cdot \frac{\hat{S}}{\sqrt{n}} ; M+t_{n-1;1-\frac{\alpha}{2}} \cdot \frac{\hat{S}}{\sqrt{n}}\right] \] das \((1-\alpha)\cdot 100\)% Konfidenzintervall für den Mittelwert (bzw. \(\mu\)) genannt. Da es symmetrisch um \(M\) herum liegt, wird oft auch eine abkürzende Schreibweise \[\left[ M\pm t_{n-1;1-\frac{\alpha}{2}} \cdot \frac{\hat{S}}{\sqrt{n}}\right]\] verwendet.
Die Differenz obere Grenze \(-\) untere Grenze wird auch die Breite des Intervalls genannt.
Beispiel: An einer Stichprobe von \(n=11\) Personen wurde eine Variable erhoben. Der Mittelwert sei \(M=55\) und die Varianz \(S^2=32.72727\). Wie lautet das 95% Konfidenzintervall für \(M\) bzw. \(\mu\)?
n <- 11
M <- 55
S2 <- 32.72727
S2.korr <- (n/(n-1)) * S2 # korrigierte Varianz
SD.korr <- sqrt(S2.korr) # korrigierte Standardabweichung
SD.korr
## [1] 6
SE_M <- SD.korr / sqrt(11) # Standardfehler
SE_M
## [1] 1.809068
t <- qt(0.975, df = 10) # (1-alpha/2)-Quantil:
# Berechnung der unteren und oberen Grenze des Intervalls:
untere_grenze <- M - t*SE_M
obere_grenze <- M + t*SE_M
paste("unten:", round(untere_grenze,2)," // oben:", round(obere_grenze,2))
## [1] "unten: 50.97 // oben: 59.03"
Das 95%-Konfidenzintervall geht also von von \(50.97\) bis \(59.03\) bzw. lautet kurz \([50.97;59.03]\).
Es gibt vier Größen, die in der Formel für das Konfidenzintervall vorkommen. Wie wirken diese sich auf das Intervall aus?
qt(0.975, df = 10) # n = 11
## [1] 2.228139
qt(0.975, df = 20) # n = 21
## [1] 2.085963
Diese Auswirkungen können auch anhand einer ShinyApp exploriert werden, auf die wir später im Kontext der Interpretation noch einmal zurückkommen werden.
Derartige (symmetrische) Konfidenzintervalle können im Prinzip für alle Populationsparameter berechnet werden. Wir haben hier erst einmal \(\mu\) betrachtet, aber es gibt auch für andere Populationsparameter Konfidenzintervalle, z.B. für
Die Voraussetzung ist immer, dass wir die Verteilung der relevanten Zufallsvariablen kennen. Ist diese bekannt, dann können wir auf eine ganz allgemeine Form zur Konstruktion von Konfidenzintervallen zurückgreifen. Im Allgemeinen hat ein (zweiseitiges) symmetrisches Konfidenzintervall für einen Parameter \(\tau\) nämlich die Form: \[[T-c\cdot SE_T ; T+c\cdot SE_T] = [T\pm c\cdot SE_T]\] Dabei bedeuten:
Die Breite des Konfidenzintervalls ist dann: \[\text{Breite}=2\cdot c\cdot SE_T\]
Wir wenden diese allgemeine Form nun an und wollen ein Konfidenzintervall für Mittelwertunterschiede berechnen, d.h. ein Konfidenzintervall für \(\mu_A-\mu_B\), ganz ähnlich wie wir es beim \(t\)-Test bereits kennengelernt haben. Wir beginnen dabei mit dem Fall unabhängiger Stichproben und kommen dann zum Fall abhängiger Stichproben.
Wir starten dazu mit der allgemeinen Form eines symmetrischen Konfidenzintervalls \[[T-c\cdot SE_T ; T+c\cdot SE_T] = [T\pm c\cdot SE_T]\] und setzen die entsprechenden Werte ein.
Der interessante Parameter ist nun \(\mu_A-\mu_B\) und der entsprechende Schätzer lautet \[T=M_A-M_B\] Den geschätzten Standardfehler von \(T\),\(SE_T\), kennen wir bereits aus der Diskussion des entsprechenden \(t\)-Tests für zwei unabhängige Stichproben. Es ist der Nenner des entsprechenden \(t\)-Bruchs, also: \[SE_T=\sqrt{\frac{(n_A-1)\hat{S}^2_A+(n_B-1)\hat{S}^2_B}{n_A+n_B-2}}\cdot\sqrt{\frac{1}{n_A}+\frac{1}{n_B}}\] Schließlich benötigen wir noch der Wert \(c\), der sich bestimmt aus der \(t\)-Verteilung mit \(n_A+n_B-2\) Freiheitsgraden: \[t_{n_A+n_B-2;1-\frac{\alpha}{2}}\] Nun können wir diese drei Größen in die allgemeine Formel einsetzen und wir erhalten als \((1-\alpha)\cdot 100\)%-Konfidenzintervall: \[\left[ \underset{T}{\underbrace{(M_A-M_B)}} \pm \underset{c}{\underbrace{t_{n_A+n_B-2;1-\frac{\alpha}{2}}}} \cdot \underset{SE_T}{\underbrace{\sqrt{\frac{(n_A-1)\hat{S}^2_A+(n_B-1)\hat{S}^2_B}{n_A+n_B-2}}\cdot\sqrt{\frac{1}{n_A}+\frac{1}{n_B}}}}\right]\] Das Intervall sieht zwar deutlich komplizierter aus, folgt aber ersichtlich der allgemeinen Form.
Die Besonderheit des \(t\)-Tests für zwei abhängige Stichproben war, dass nur die Unterschiede zwischen den Bedingungen interessieren, nicht aber die Unterschiede generell zwischen den Versuchspersonen. Daher wurde der \(t\)-Test als Einstichproben-\(t\)-Test der Differenzen \(D\) mit \(\mu_0=0\) aufgefasst.
In diesem Fall kennzeichnet die Varianz bzw. Standardabweichung dann, wie ähnlich sich die Differenzen für alle Personen sind und der geschätzte Standardfehler kann berechnet werden als \[SE_D=\frac{\hat{S}_D}{\sqrt{n}}\] Setzen wir wieder die Größen in die allgemeine Formel des Konfidenzintervalls ein, ergibt sich als \((1-\alpha)\cdot 100\)% Vertrauensintervall: \[\left[ \underset{T}{\underbrace{(M_A-M_B)}} \pm \underset{c}{\underbrace{t_{n-1;1-\frac{\alpha}{2}}}} \cdot \underset{SE_T}{\underbrace{\frac{\hat{S}_D}{\sqrt{n}}}}\right]\]
Eine beliebte Interpretation eines 95%-Konfidenzintervalls ist so etwas wie: “Der wahre Wert \(\tau\) liegt mit 95% Wahrscheinlichkeit in dem so berechneten 95%-Konfidenzintervall.” So naheliegend und intuitiv wie diese Interpretation auch ist, sie ist falsch. Tatsächlich kann ein Punkt, in diesem Fall der wahre Wert, also der Parameter \(\tau\), entweder in dem Intervall liegen (dann ist die Wahrscheinlichkeit dafür, dass er im Intervall liegt \(p=1\)) oder er liegt nicht in dem Intervall (dann ist die Wahrscheinlichkeit dafür, dass er im Intervall liegt \(p=0\)).
Wir betrachten nun zunächst die korrekte frequentistische Interpretation und im Anschluss den Zusammenhang von Konfidenzintervallen und Signifikanztests.
Um die korrekte Interpretation zu verstehen, machen wir uns klar, dass die “Konfidenz von 95%” keine Eigenschaft des Parameters ist, sondern eine Eigenschaft des Schätzverfahrens. Nun bedenken wir noch, was wir in Teil 8 zur Interpretation von Wahrscheinlichkeiten gelernt haben, nämlich, dass wir sie im Sinne von relativen Häufigkeiten auf lange Sicht (d.h. bei unendlich häufiger Durchführung des Zufallsexperimentes) auffassen können.
In unserem Fall bedeutet dies nun: Würden wir unendlich oft Stichproben vom Umfang \(n\) aus der gleichen Population ziehen und jeweils das 95%-Konfidenzintervall berechnen, dann beinhalten 95% der auf diese Art konstruierten Konfidenzintervalle den wahren Wert \(\tau\) (in jedem einzelnen liegt der Parameter aber entweder innerhalb oder außerhalb, und nicht zu “95% innerhalb” oder so ähnlich).
Die folgende Abbildung ist das Ergebnis einer Simulation. Der Population, aus der hier 100 unabhängige Stichproben vom Umfang \(n=20\) gezogen wurden, liegt eine normalverteilte Variable mit \(\mu = 50\) und \(\sigma^2=400\) zugrunde. Für jede der 100 Stichproben wurde dann das entsprechende 95%- Konfidenzintervall berechnet und in rot sind diejenigen Intervalle eingezeichnet, die den wahren Wert \(\mu=50\) nicht enthalten. Im Beispiel sind dies tatsächlich 5% der Intervalle während 95% der Intervalle den wahren Wert enthalten:
Wir haben zudem hier eine ShinyApp hinterlegt, mit der diese Interpretation weiter exploriert werden kann (und auch die Auswirkungen von Stichprobengröße \(n\) etc. auf die Breite untersucht werden können).
Die Formeln für den \(t\)-Test für eine Stichprobe und das Konfidenzintervall für den Mittelwert legen eine Beziehung zwischen beiden Verfahren nahe.
Betrachten wir dazu das Beispiel einer Stichprobe vom Umfang \(n=16\). Der Mittelwert der erhobenen Variablen sei \(M=96\) und die korrigierte Varianz sei \(\hat{S}^2=81\), woraus eine korrigierte Standardabweichung von \(\hat{S}=9\) folgt. Es soll nun ein Einstichproben-\(t\)-Test auf den Wert \(\mu_0 = 100\) durchgeführt werden (\(\alpha=.05\), ungerichtet).
Der \(t\)-Wert berechnet sich in dem Fall dann als \[t=\frac{96-100}{\frac{9}{\sqrt{16}}}=-1.\bar{7}\] und mit \(t_\text{krit}=2.13\) bzw. \(-t_{krit}=-2.13\) entscheiden wir uns für die Beibehaltung der \(H_0\); wir haben also ein nicht signifikantes Ergebnis erhalten.
Nun berechnen wir das 95%- Konfidenzintervall für \(M\): \[\left[M\pm t_{n-1;1-\frac{\alpha}{2}}\cdot \frac{\hat{S}}{\sqrt{n}}\right]= \left[96\pm 2.13\cdot\frac{9}{\sqrt{16}}\right]=[91.21;100.79]\] Der Testwert \(\mu_0=100\) (des \(t\)-Tests) ist im 95%-Konfidenzintervall enthalten. Wäre der Testwert nicht im Konfidenzintervall enthalten, dann wäre der entsprechende \(t\)-Test signifikant geworden. Es sind also immer die folgenden beiden Aussagen wahr oder falsch:
Beide Herangehensweisen bieten also zunächst die gleiche dichotome Entscheidung (\(H_0\) vs. \(H_1\)), Konfidenzintervalle bieten aber darüber hinaus noch Information über die Präzision der Schätzung. Konfidenzintervalle finden daher auch oft Anwendung in Abbildungen. Im nächsten Abschnitt betrachten wir dies genauer und lernen eine schnelle Berechnungsweise für Konfidenzintervalle kennen.
Die drei bisher behandelten Arten von Konfidenzintervallen werden von
der Funktion t.test()
direkt mit ausgegeben und können
entsprechend weiter verwendet werden. Wir betrachten hier zunächst das
Beispiel des Einstichproben-\(t\)-Tests:
# Einstichproben-t-Test
X <- c(97,78,90,100,121,123,103,105,87) # Werte einer Variablen X
ergebnis <- t.test(X, # welche Daten?
mu = 90, # Testwert mu_0
conf.level = .95) # Konfidenz 95% (Standardeinstellung)
ergebnis
##
## One Sample t-test
##
## data: X
## t = 2.11, df = 8, p-value = 0.06788
## alternative hypothesis: true mean is not equal to 90
## 95 percent confidence interval:
## 89.02959 111.85930
## sample estimates:
## mean of x
## 100.4444
Mit einem \(p=.068\) erhalten wir also ein nicht-signifikantes Ergebnis und entscheiden uns, die \(H_0\) weiter beizubehalten. Gleichzeitig wird das 95%-Konfidenzintervall ausgegeben. Dieses lautet \[[89.03;111.86]\] und der Testwert \(\mu_0=90\) ist entsprechend im Konfidenzintervall enthalten.
Die Grenzen des Intervalls können direkt aus dem Ergebnis der
Funktion t.test()
ausgelesen werden, womit bspw. die Breite
der Konfidenzintervalls auch leicht berechnet werden kann
ergebnis$conf.int # alle Information
## [1] 89.02959 111.85930
## attr(,"conf.level")
## [1] 0.95
ergebnis$conf.int[1] # untere Grenze
## [1] 89.02959
ergebnis$conf.int[2] # obere Grenze
## [1] 111.8593
ergebnis$conf.int[2] - ergebnis$conf.int[1] # Breite
## [1] 22.82971
Als ein weiteres Beispiel betrachten wir nun noch einen \(t\)-Test für zwei unabhängige Stichproben, den wir direkt in R berechnen:
# zwei unabhängige Stichproben
X1 <- c(97,78,90,100,121,123,103,105,87) # Werte einer Variablen X (Stichprobe 1)
X2 <- c(67,78,65,78,98,76,78,90,89) # Werte einer Variablen X (Stichprobe 2)
ergebnis <- t.test(X1, X2, # welche Daten?
var.equal = TRUE, # Varianzhomogenität angenommen
conf.level = .95) # Konfidenz 95% (Standardeinstellung)
ergebnis
##
## Two Sample t-test
##
## data: X1 and X2
## t = 3.3622, df = 16, p-value = 0.003964
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## 7.595227 33.515885
## sample estimates:
## mean of x mean of y
## 100.44444 79.88889
In diesem Fall erhalten wir also mit \(p=.004\) ein signifikantes Ergebnis und das 95%-Konfidenzintervall für den Mittelwertunterschied lautet \[[7.60;33.52]\] Auch hier gilt die oben eingeführte Beziehung zwischen \(t\)-Test und Konfidenzintervall, wenn wir uns klarmachen, was hier der Testwert des \(t\)-Tests eigentlich ist. Hier wird eine Mittelwertdifferenz getestet, und zwar auf den Wert 0, und dies ist dann auch der Testwert, der hier nicht im Konfidenzintervall enthalten ist.
Konfidenzintervalle können auch als Fehlerbalken in Abbildungen verwendet werden und erlauben so inferenzstatistische Beurteilungen. Als Beispiel betrachten wir dazu wieder die Situation eines \(t\)-Tests für zwei unabhängige Stichproben, hier jeweils vom Umfang \(n=5\):
X1 <- c(4,6,5,7,6) # Stichprobe 1
X2 <- c(6,8,9,8,11) # Stichprobe 2
Wir können nun für jede Stichprobe das Konfidenzintervall für den
jeweiligen Mittelwert berechnen und entsprechend um die Mittelwerte
einzeichnen. Eine Möglichkeit dazu bietet die Funktion
plotCI()
aus dem Paket plotrix
:
x <- barplot(c(mean(X1), mean(X2)), # Balkendiagramm der Mittelwerte
ylim = c(0,12),
xlab = "Stichprobe",
ylab = "Variable X")
axis(1,
at = x,
labels = c("Stichprobe 1", "Stichprobe 2"))
# Berechnen der beiden Konfidenzintervalle... plotCI benötigt die halbe Breite
ci.X1 <- t.test(X1, # t-Test für X1
mu = 0)$conf.int
ci.X1.halbe_breite <- (ci.X1[2] - ci.X1[1])/2 # halbe Breite ausrechnen
ci.X2 <- t.test(X2, # t-Test für X2
mu = 0)$conf.int
ci.X2.halbe_breite <- (ci.X2[2] - ci.X2[1])/2 # halbe Breite ausrechnen
# Dann die Konfidenzintervalle einzeichnen
plotCI(x = x, # x-Koordinaten
y = c(mean(X1), mean(X2)), # y-Koordinaten
uiw = c(ci.X1.halbe_breite, ci.X2.halbe_breite), # "upper width"
add = TRUE) # Hinzufügen zum existierenden barplot()
Die beiden Konfidenzintervalle sind unterschiedlich groß (da die Varianzen beider Stichproben sich unterscheiden) und besagen, dass die jeweiligen Einstichproben-\(t\)-Tests mit \(\mu_0=0\) signifikant werden würden, da \(\mu_0\) nicht in den Konfidenzintervallen enthalten ist. Darüber, ob ein \(t\)-Test für zwei unabhängige Stichproben signifikant werden würde, sagen diese Konfidenzintervalle nichts aus.
Tatsächlich würde der entsprechende \(t\)-Test signifikant werden mit \(p=.019\) und entsprechend enthält das Konfidenzintervall für die Differenz der Mittelwerte auch die 0 nicht:
t.test(X1, X2,
var.equal = TRUE)
##
## Two Sample t-test
##
## data: X1 and X2
## t = -2.9192, df = 8, p-value = 0.01931
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -5.0118415 -0.5881585
## sample estimates:
## mean of x mean of y
## 5.6 8.4
Wollen wir dies grafisch veranschaulichen, können wir das Konfidenzintervall um die Mittelwertdifferenz zeichnen und sehen natürlich, dass die 0 nicht eingeschlossen ist (linker Teil der folgenden Abbildung). Allerdings wollen wir i.d.R. die Mittelwerte beider Gruppe auch tatsächlich darstellen. Zeichnen wir um beide Mittelwerte das Konfidenzintervall des Mittelwertunterschieds so gilt: Ist die 0 nicht im Konfidenzintervall des Mittelwertunterschieds enthalten, so liegt ein Mittelwert auch nicht in diesem Konfidenzintervall wenn es um den Mittelwert der anderen Stichprobe gezeichnet wird. Dies ist im rechten Teil der folgenden Abbildung zu sehen, wobei zur Veranschaulichung der schwarze Balken eben die Mittelwertdifferenz darstellt.
Bisher waren Konfidenzintervalle immer symmetrisch, da die benötigte (zentrale) \(t\)-Verteilung symmetrisch um Null ist. Ist die benötigte Dichtefunktion allerdings nicht symmetrisch, so ist auch das resultierende Konfidenzintervall nicht symmetrisch, sondern beide “Enden” sind unterschiedlich groß. Ein Beispiel dafür ist das Konfidenzintervall für die Varianz.
Varianzen folgen (hier ohne Begründung) einer \(\chi^2\)-Verteilung: \[\frac{(n-1)}{\sigma^2}\cdot
\hat{S}^2 \overset{H_0}{\sim} \chi^2_{n-1}\] Auch in diesem Fall
lässt sich dann ein Konfidenzintervall berechnen, welches lautet: \[\left[\frac{(n-1)\cdot
\hat{S}^2}{\chi^2_{n-1;1-\frac{\alpha}{2}}};\frac{(n-1)\cdot
\hat{S}^2}{\chi^2_{n-1;\frac{\alpha}{2}}}\right]\] Auch hier gilt
die oben besprochene Beziehung zu einem Signifikanztest, dem Sigma-Test.
Es gibt eine entsprechende R-Funktion, die den Test und das
Konfidenzintervall ausgibt. Die Funktion lautet
sigma.test()
und wird im Paket TeachingDemos
bereitgestellt. Die Nullhypothese des Sigma-Tests lautet dabei \(H_0: \sigma^2 = \sigma^2_0\):
X <- c(6,5,4,3,6,8,5,3,4,5,6,7,5)
ergebnis <- sigma.test(X, # Daten
sigmasq = 1) # Varianz auf die getestet wird
ergebnis
##
## One sample Chi-squared test for variance
##
## data: X
## X-squared = 25.692, df = 12, p-value = 0.02372
## alternative hypothesis: true variance is not equal to 1
## 95 percent confidence interval:
## 1.100942 5.834138
## sample estimates:
## var of X
## 2.141026
Die Varianz der Stichprobe weicht also signifikant vom Testwert \(\sigma^2_0=1\) ab, \(p = .024\). Wollen wir dieses Ergebnis
grafisch visualisieren, müssen wir nun bedenken, dass die beiden
“Hälften” nicht gleich groß sind. Entsprechend müssen beide Parameter
uiw
und liw
der Funktion plotCI()
benutzt werden:
untere.haelfte <- ergebnis$estimate - ergebnis$conf.int[1]
obere.haelfte <- ergebnis$conf.int[2] - ergebnis$estimate
x <- barplot(as.numeric(ergebnis$estimate), # wir nehmen die Varianz direkt aus dem Test
ylim = c(0,6),
ylab = "Varianz von X")
plotCI(x = x,
y = as.numeric(ergebnis$estimate),
uiw = obere.haelfte, # "upper width"
liw = untere.haelfte, # "lower width"
add = TRUE)
Pfister, R. & Janczyk, M. (2013). Confidence intervals for two sample means: Calculation, interpretation, and a few simple rules. Advances in Cognitive Psychology, 9,74-80.
Die Bezeichnung, ob das Konfidenzintervall für den Mittelwert \(M\) oder den Populationsparameter \(\mu\) berechnet wird, ist nicht ganz einheitlich verwendet. In jedem Fall wird das Intervall um den Mittelwert gelegt und ist ein Bereich, in welchem sich plausible Parameterwerte befinden. Wir verwenden beide Varianten hier austauschbar.↩︎