30  Frequentistische Inferenz

30.1 Frequentistische Inferenzmodelle

Mit folgender Definition wollen wir zunächst einige grundlegende Begrifflichkeiten bei der Betrachtung Frequentistischer Inferenzmodelle einführen.

Definition 30.1 (Frequentistische Inferenzmodelle) Ein Frequentistisches Inferenzmodell ist ein Tupel \[\begin{equation} \mathcal{M} := (\mathcal{Y}, \mathcal{A}, \{\mathbb{P}_\theta |\theta \in \Theta\}) \end{equation}\] bestehend aus einem Datenraum \(\mathcal{Y}\), einer \(\sigma\)-Algebra \(\mathcal{A}\) auf \(\mathcal{Y}\) und einer mindestens zweielementigen Menge \(\{\mathbb{P}_\theta |\theta \in \Theta\}\) von Wahrscheinlichkeitsmaßen auf \((\mathcal{Y}, \mathcal{A})\), die durch \(\theta \in \Theta\) indiziert sind. Wenn \(\Theta \subset \mathbb{R}^k\) ist, heißt ein Frequentistisches Inferenzmodell auch parametrisches Frequentistisches Inferenzmodell und \(\Theta\) heißt Parameterraum des Frequentistischen Inferenzmodells. Ein Frequentistisches Inferenzmodell \(\mathcal{M}\) heißt ein diskretes Modell, wenn \(\mathcal{Y}\) endlich oder abzählbar ist und jedes \(\mathbb{P}_\theta\) eine WMF \(p_\theta\) besitzt. Ein Frequentistisches Inferenzmodell \(\mathcal{M}\) heißt ein stetiges Modell, wenn \(\mathcal{Y} \subset \mathbb{R}^n\) ist und jedes \(\mathbb{P}_\theta\) eine WDF \(p_\theta\) besitzt. Wenn der Datenraum \(\mathcal{Y}\) eines Frequentistischen Inferenzmodells \(\mathcal{M}\) eindimensional ist, also zum Beispiel \(\mathcal{Y} := \mathbb{R}\), spricht man von einem univariaten Frequentistischen Inferenzmodell. Wenn der Datenraum \(\mathcal{Y}\) eines Frequentistischen Inferenzmodells \(\mathcal{M}\) mehrdimensional ist, also zum Beispiel \(\mathcal{Y} := \mathbb{R}^m\) für \(m > 1\), spricht man von einem multivariaten Frequentistischen Inferenzmodell. Für ein Frequentistisches Inferenzmodell \(\mathcal{M}_0 := (\mathcal{Y}_0, \mathcal{A}_0, \{\mathbb{P}_\theta^0 |\theta \in \Theta\})\) wrid das Frequentistische Inferenzmodell \(\mathcal{M} := (\mathcal{Y}, \mathcal{A}, \{\mathbb{P}_\theta |\theta \in \Theta\})\), für das \(\mathcal{Y}\) das \(n\)-fache kartesische Produkt von \(\mathcal{Y}_0\) mit sich selbst, \(\mathcal{A}\) die entsprechende Produkt-\(\sigma\)-Algebra und \(\{\mathbb{P}_\theta |\theta \in \Theta\}\) die entsprechende Menge an Produktmaßen ist, ein (zu \(\mathcal{M}_0\) gehöriges) Frequentistisches Produktmodell genannt.

Vor dem Hintergrund eines Frequentistischen Inferenzmodells wird der Vorgang der Datenbeobachtung wird durch einen Zufallsvektor \(y\), der Werte in \(\mathcal{Y}\) annimmt und dessen Verteilung einer der prinzipiell möglichen Verteilungen \(\mathbb{P}_\theta\) entspricht, beschrieben. Man nennt diesen Zufallsvektor Daten, Beobachtung, Messung oder Stichprobe. Im Gegensatz zum Wahrscheinlichkeitsraummodell betrachtet man bei Frequentistische Inferenzmodellen also explizit zwei oder mehr Wahrscheinlichkeitsmaße, die die Verteilung von \(y\) mutmaßlich bestimmen. Eine Realisierung von \(y\), also konkret vorliegende Datenwerte \(y \in \mathcal{Y}\), nennt man Datensatz, Beobachtungswert, Messwert oder Stichprobenwert. Erwartungswerte und (Ko)Varianzen von \(y\) bezüglich \(\mathbb{P}_\theta\) schreibt man meist als \(\mathbb{E}_\theta(y)\), \(\mathbb{V}_\theta(y)\) und \(\mathbb{C}_\theta(y)\). Frequentistische Produktmodelle modellieren die \(n\)-fache unabhängige Wiederholung eines Zufallsvorgangs. Die entsprechende Menge von Zufallsvektoren \(y_1,....,y_n\) entspricht dann einer Menge von \(n\) unabhängigen Zufallsvektoren.

In einem konkreten Datenanalyseproblem auf Grundlage eines parameterischen Frequentistischen Produktmodells nimmt man an, dass die beobachteten Werte \(y_1,...,y_n\) von \(y_1,...,y_n\) durch genau ein Wahrscheinlichkeitsmaß \(\mathbb{P}_{\theta}\) mit Parameter \(\theta \in \Theta\) generiert wurde. In der Anwendung wird dieses \(\theta \in \Theta\) dann als wahrer, aber unbekannter, Parameterwert bezeichnet. Der wahre, aber unbekannten, Parameterwert \(\theta\) bleibt dabei auch nach jeglicher Form von Inferenz unbekannt. Allgemeines Ziel von parameterischen Inferenzverfahren ist es damit, basierend auf einem vorliegenden Datensatz eine möglichst valide Aussage hinsichtlich des wahren, aber unbekannten Parameters \(\theta\) zu treffen. In diesem Sinne ist der wahre, aber unbekannte Parameterwert, nur indirekt beobachtbar. Dies wird manchmal auch durch die Sprechweisen ausgedrückt, dass der wahre, aber unbekannte Parameterwert unbeobachtbar oder latent, d.h. nicht unmittelbar sichtbar oder zu erfassen, ist. In der mathematischen Analyse von Inferenzverfahren betrachtet man alle möglichen wahren, aber unbekannten, Parameterwerte, verzichtet deshalb also meist auf eine explizite notationelle Auszeichung des in einem Anwendungskontext unterstellten wahren, aber unbekannten, Parameterwerts.

Beispiele

Mit dem univariten Normalverteilungsmodell und dem Bernoullimodell wollen wir zwei erste Beispiel für Frequentistische Inferenzmodelle geben.

Definition 30.2 (Normalverteilungsmodell) Das univariate parametrische Produktmodell \[\begin{equation} \mathcal{M} := \left(\mathcal{Y}, \mathcal{A}, \{\mathbb{P}_\theta|\theta \in \Theta\}\right) \end{equation}\] mit \[\begin{equation} \mathcal{Y} := \mathbb{R}^n, \mathcal{A} := \mathcal{B}(\mathbb{R}^n), \mathbb{P}_\theta := N(\mu,\sigma^2), \theta := (\mu, \sigma^2), \Theta := \mathbb{R} \times \mathbb{R}_{>0}, \end{equation}\] also \[\begin{equation} \{\mathbb{P}_\theta|\theta \in \Theta\} := \left\lbrace \prod_{i=1}^n N(\mu,\sigma^2)|(\mu,\sigma^2)\in \mathbb{R} \times \mathbb{R}_{>0} \right\rbrace, \end{equation}\] und damit \[\begin{equation} y_1,...,y_n \sim N(\mu,\sigma^2) \mbox{ mit } (\mu,\sigma^2)\in \mathbb{R} \times \mathbb{R}_{>0} \end{equation}\] heißt .

Das Normalverteilungsmodell ist Grundlage vieler populärer statistischen Verfahren die im Rahmen des Allgemeinen Linearen Modells integrativ betrachtet werden. Man beachte, dass die Annahme normalverteilter Daten dabei durch additive normalverteilte Fehlerterme motiviert ist, wie wir in Kapitel 27 schon kurz angerissen haben und an späterer Stelle vertiefen werden.

Definition 30.3 (Bernoullimodell) Das univariate parametrische Produktmodell \[\begin{equation} \mathcal{M} := \left(\mathcal{Y}, \mathcal{A}, \{\mathbb{P}_\theta|\theta \in \Theta\}\right) \end{equation}\] mit \[\begin{equation} \mathcal{Y} := \{0,1\}^n, \mathcal{A} := \mathcal{P}\left(\{0,1\}^n\right), \mathbb{P}_\theta := \mbox{Bern}(\mu), \theta:= \mu, \Theta := ]0,1[, \end{equation}\] also \[\begin{equation} \{\mathbb{P}_\theta|\theta \in \Theta\} := \left\lbrace \prod_{i=1}^n \mbox{Bern}(\mu)|\mu \in ]0,1[ \right\rbrace, \end{equation}\] und damit \[\begin{equation} y_1,...,y_n \sim \mbox{Bern}(\mu) \mbox{ mit } \mu \in ]0,1[, \end{equation}\] heißt .

30.2 Statistiken und Schätzer

Vor dem Hintergrund Frequentistischer Inferenzmodelle wollen wir nun formalisieren, was unter den Begriffen einer Statistik und eines Schätzers zu verstehen ist.

Definition 30.4 (Statistik) \(\mathcal{M}\) sei ein Frequentistisches Inferenzmodell und \((\Sigma,\mathcal{S})\) sei ein Messraum. Dann ist eine Statistik ein Zufallsvektor der Form \[\begin{equation} S : \mathcal{Y} \to \Sigma. \end{equation}\]

Sowohl Daten als auch Statistiken werden in der Frequentistischen Inferenz also durch Zufallsvektoren (im univariaten Fall entsprechend durch Zufallsvariablen) modelliert. Allerdings unterscheiden sich diese Zufallvektoren hinsichtlich ihrer intuitiven Bedeutung fundamental: Daten repräsentieren den Ausgang von Messvorgängen unter Unsicherheit, Statistiken dagegen modellieren von Datenwissenschaftler:innen konstruierte Funktionen von Daten. Diese liefern im besten Fall datenbasierte Informationen, aus denen sich Schlüsse über die latenten datengenerierenden Zufallsvorgänge ziehen lassen. Die Tatsache, dass Statistiken zufällig sind ergibt sich dabei daraus, dass sie als Funktionen auf zufällige Daten angewendet werden. (vgl. etwa Theorem 21.1).

Beispiele

\(\mathcal{M}\) sei das Normalverteilungsmodell. Dann sind zum Beispiel folgende Zufallsvariablen Statistiken:

  • Das Stichprobenmittel \[\begin{equation} \bar{y} : \mathbb{R}^n \to \mathbb{R}, y \mapsto \bar{y}(y) := \frac{1}{n}\sum_{i=1}^n y_i, \end{equation}\]
  • Die Stichprobenvarianz \[\begin{equation} s^2 : \mathbb{R}^n \to \mathbb{R}_{\ge 0}, y \mapsto s^2(y) := \frac{1}{n-1}\sum_{i=1}^n (y_i - \bar{y}(y))^2, \end{equation}\]
  • Die Stichprobenstandardabweichung \[\begin{equation} s : \mathbb{R}^n \to \mathbb{R}_{\ge 0}, y \mapsto s(y) := \sqrt{s^2(y)}, \end{equation}\]

Oft bleibt wie hier das Wesen von Statistiken als Zufallsvariablen oder Zufallsvektoren notationell eher implizit. Dies ändert allerdings nichts an der fundamental zu beachtetenden Tatsache, dass Statistiken als Funktionen von vom Zufall abhängigen Werten selbst wiederrum Zufallsvariablen oder Zufallsvektoren sind.

Definition 30.5 (Schätzer) \(\mathcal{M}\) sei ein Frequentistisches Inferenzmodell, \((\Sigma, \mathcal{S})\) sei ein Messraum und \(\tau : \Theta \to \Sigma\) sei eine Abbildung, die jedem \(\theta \in \Theta\) eine Kenngröße \(\tau(\theta) \in \Sigma\) zuordnet. Dann heißt eine Statistik \[\begin{equation} \hat{\tau} : \mathcal{Y} \to \Sigma \end{equation}\] ein für \(\tau\).

Schätzer schätzen also Funktionen der Parameter eines parametrischen Frequentistischen Inferenzmodells. Typische Beispiele für solche Funktionen sind

  • \(\tau(\theta) := \theta\) für die Schätzung des Parameters \(\theta\),
  • \(\tau(\theta) := \theta_i\) mit \(\theta \in \mathbb{R}^d, d > 1\) für die Schätzung einer Komponente des Parameters \(\theta\),
  • \(\tau(\theta) := \mathbb{E}_\theta(y_1)\) für die Schätzung des Erwartungswerts,
  • \(\tau(\theta) := \mathbb{V}_\theta(y_1)\) für die Schätzung der Varianz.

Im Falle \(\tau(\theta) := \theta\), also der Schätzung von Parametern, schreibt man üblicherweise \(\hat{\theta}\). Man beachte, dass Schätzer Zahlwerte in \(\Sigma\) annehmen, bei der Schätzung von Parametern etwa in \(\Theta\). Sie heißen deshalb auch Punktschätzer. Dies ist ein Charaketeristikum Frequentistischer Inferenzverfahren. Im Rahmen der Bayesianischen Inferenz können Schätzer auch generalisierte Formen annehmen, zum Beispiel werden dort auch Wahrscheinlichkeitsverteilungen als Schätzer betrachtet. Schließlich ist festzuhalten, dass die Definition eines Schätzers keinerlei Aussage über die Validität von Schätzern macht. Nicht jeder Schätzer ist damit perse ein guter Schätzer. In der Frequentistischen Inferenz definiert man deshalb zusätzlich Schätzgütekriterien, wie in Kapitel 31 ausführlich dargestellt.

Beispiel

\(\mathcal{M}\) sei das Normalverteilungsmodell. Dann ist zum Beispiel das Stichprobenmittel \(\bar{y} : \mathbb{R}^n \to \mathbb{R}\) ein Schätzer für \[\begin{equation} \tau : \mathbb{R} \times \mathbb{R}_{>0} \to \mathbb{R}, (\mu, \sigma^2) \mapsto \tau(\mu,\sigma^2) := \mu. \end{equation}\] Ebenso ist \(\bar{y}\) ein Schätzer für \[\begin{equation} \tau: \mathbb{R} \times \mathbb{R}_{>0} \to \mathbb{R}, (\mu, \sigma_2) \mapsto \tau(\mu,\sigma^2) := \mathbb{E}_{\mu,\sigma^2}(y_1). \end{equation}\] Weiterhin ist die konstante Funktion \[\begin{equation} \hat{\tau} : \mathbb{R}^n \to \mathbb{R}, y \mapsto \hat{\tau}(y) := 42 \end{equation}\] ein Schätzer für \[\begin{equation} \tau : \mathbb{R} \times \mathbb{R}_{>0} \to \mathbb{R}_{>0}, (\mu, \sigma_2) \mapsto \tau(\mu,\sigma^2) := \sigma^2. \end{equation}\] Dass eine Funktion \(\hat{\tau} : \mathcal{Y} \to \Sigma\) ein Schätzer ist impliziert also keinesfalls, dass sie ein guter Schätzer ist.

30.3 Standardannahmen und Standardproblemstellungen

Wir wollen die in diesem Kapitel bisher betrachteten Konzepte zunächst noch einmal unter dem Begriff der datenanalytischen Standardannahmen der Frequentistischen Inferenz zusammenfassen (vgl. auch Abbildung 30.1). Dazu sei \(\mathcal{M}\) ein univariates parametrisches Frequentistisches Produktmodell und es seien \(y_1,...,y_n \sim p_\theta\) die Zufallsvariablen der Stichprobe, die wir etwa in einem Zufallvektor \(y := (y_1,...,y_n)\) zusammenfassen können. Von einem konkret vorliegenden Datensatz \(y_1,...,y_n\) mit \(y_i \in \mathbb{R}\), \(i = 1,...,n\), den wir etwa in einem \(n\)-dimensionalen Vektor \(y := (y_1,...,y_n)^T \in \mathbb{R}^n\) zusammenfassen können, wird dann angenommen, dass er eine der möglichen Realisierungen von \(y\) auf Grundlage einer Verteilung \(\mathbb{P}_\theta\) mit wahrem, aber unbekannten, Parameter \(\theta\) ist. Aus Frequentistischer Sicht kann man dabei die Beobachtung eines Datensatzes unendlich oft wiederholen und zu jeder Datenrealisierung Schätzer oder Statistiken auswerten, so zum Beispiel das Stichprobenmittel:

Vor diesem Hintegrund behandelt die behandelt die Frequentistische Inferenz dann üblicheweise folgende Standardproblemstellungen:

  1. Punktschätzung. Ziel der Punktschätzung ist es, auf Grundlage beobachteter Daten einen präzisen und im Frequentistischen Sinn möglichst guten Tipp für den wahren, aber unbekannten, Parameterwert abzugeben.

  2. Konfidenzintervallbestimmung. Ziel der Konfidenzintervallbestimmung ist es, basierend auf der angenommenen Datenverteilung und den beobachteten Daten durch eine Intervallschätzung einen möglichst sicheren, wenn auch oft unpräzisen, Tipp für den wahren, aber unbekannten, Parameterwert abzugeben.

  3. Hypothesentests. Ziel des Frequentistischen Hypothesentestens ist es, basierend auf der angenommenen Verteilung der Daten in einer möglichst zuverlässigen Form zu entscheiden, ob ein wahrer, aber unbekannter Parameterwert in einer von zwei sich gegenseitig ausschließenden Untermengen des Parameterraumes

Abbildung 30.1: Standardannahmen und Standardproblemstellungen Frequentistischer Inferenz. Die Frequentistische Inferenz unterstellt, dass es in der Wirklichkeit einen wahren, aber unbekannten, Parameterwert des Wahrscheinlichkeitsmaßes \(\mathbb{P}_\theta\) gibt, dass als Modell für die Erhebung eines Datensatzes dient. Ein konkret vorliegender Datenzsatz \(y = (y_1,...,y_n)\) ist dann eine (und insbesondere nur eine) der möglichen Realisierungen des anhand \(\mathbb{P}_\theta\) verteilten Zufallsvektors \(y := (y_1,...,y_n)\). Auf Grundage dieser Realisierung beabsichtigen die Verfahren zur Behandlung der Frequentistischen Standardproblemstellungen von Punktschätzung, Konfidenzintervallbestimmung und Hypothesentestauswertung möglichst valide Aussagen hinsichtlich des wahren, aber unbekannten Parameterwertes zu machen, in den Kapiteln Kapitel 31, Kapitel 32 und Kapitel 33 diskutiert werden soll. Der tatsächliche wahre, aber unbekannte, Parameterwert aber bleibt auch nach Abschluss eines Inferenzverfahrens immer unbekannt.

Verfahren zur Lösung dieser Problemstellungen bezeichnen wir als Frequentistische Inferenzverfahren. Um die Qualität von Frequentistischen Inferenzverfahren zu beurteilen, betrachtet man in der Frequentistischen Inferenz üblicherweise die Verteilungen von Schätzern und Statistiken unter der Annahme von \(y = (y_1,...,y_n) \sim p_\theta\). Man fragt zum Beispiel nach der Verteilung der oben skizzierten \(\bar{y}^{(1)}\), \(\bar{y}^{(2)}\), \(\bar{y}^{(3)}\), \(\bar{y}^{(4)}\), … also der Verteilung der Zufallsvariable \(\bar{y}_n\). Wenn ein Inferenzverfahren auf Grundlage dieser Annahmen für “gut” befunden wir, so heißt das also insbesondere nur, dass das Verfahren bei häufiger Anwendung “im Mittel gut” ist. Im Einzelfall, also im Normalfall nur eines vorliegenden Datensatzes, kann sie auch “schlecht” sein. Wir werden diese Denkweise insbesondere im Kontext der Punktschätzung (Kapitel 31) vertiefen. Ebenso beurteilt die Frequentistische Inferenz die Stärke empirischer Evidenz vor dem Hintegrund der angenommenen Verteilung von Schätzern und Statistiken in Szenarien, in denen angenommen wird, das interessierende Effekt nicht existieren (sogenannte “Nullhypothesen”). Diese Denkweise verdeutlichen wir insbesondere im Rahmen der Betrachtung von Konfidenzintervallen (Kapitel 32) und Hypothesentests (Kapitel 33).

30.3.1 Anwendungsbeispiel

Für ein erstes Anwendungsbeispiel Frequentistischer Inferenzverfahren betrachten wir die evidenzbasierte Evaluation einer Psychotherapie bei Depression. Dazu sei der in Tabelle 41.1 dargestellte Datensatz von an \(n = 12\) Patient:innen Differenzen von Prä- und Post-Therapie erhobenen BDI-II Scores gegeben (dBDI; Beck (1961), Beck et al. (1996)). Die dBDI Werte sollen dabei die Reduktion des BDI-II Scores der Patient:innen über den Zeitraum der Therapie wiederspiegeln. Hohe positive Werte von dBDI entsprechen also einer starken Abnahme der durch den BDI-II Score quantifizierten Depressionssymptomatik, Werte um Null entsprechen keiner wesentlichen Änderung und negative Werte entsprechen einer Zunahme der durch den BDI-II Score quantifizierten Depressionssymptomatik.

Tabelle 30.1: Prä-Post-Therapie BDI-II Reduktionsscores von n = 12 Patient:innen
dBDI
-1
3
-2
9
3
-2
4
5
5
1
9
4

Für jeden der \(n := 12\) dBDI Werte legen wir nun das Modell \[ y_{i} := \mu + \varepsilon_{i} \mbox{ mit } \varepsilon_{i} \sim N(0,\sigma^2) \mbox{ u.i.v. für } i = 1,...,n \tag{30.1}\] zugrunde. Damit wird der dBDI der \(i\)ten Patient:in also mithilfe einer über die Gruppe von Patient:innen identischen BDI-II Score Reduktion \(\mu \in \mathbb{R}\) und einer Patient:innen-spezifischen normalverteilten BDI-II Score Reduktionsabweichung \(\varepsilon_{i}\) erklärt und es wird angenommen, dass sich diese Reduktionsabweichungen zwischen Patient:innen nicht gegenseitig beeinflussen. Intuitiv wird also davon ausgegangen, dass die Therapie einen Effekt hat, der bei allen Patient:innen zur gleichen BDI-II Score Reduktion \(\mu\) führt und sich die Unterschiede in den beobachteten dBDI Werten durch eine Vielzahl weiterer Zufallvorgänge, die in der Summe normalverteilt und zentriert sind erklären lässt. Alternativ mag man diese Abweichungen als Realisierungen der Unsicherheit verstehen mit der das Modell in Gleichung 30.1 behaftet ist.

Aus Gleichung 30.1 folgt dann direkt \[\begin{equation} y_1,...,y_n \sim N(\mu,\sigma^2), \end{equation}\] denn für \(i = 1,...,n\) und mit \[\begin{equation} y_i = f(\varepsilon_i) \mbox{ mit } f : \mathbb{R} \to \mathbb{R}, e_i \mapsto f(e_i) := e_i + \mu. \end{equation}\] gilt für die WDFen der \(y_i\), dass \[\begin{align} \begin{split} p_{y_i}(y_i) & = \frac{1}{|1|} p_{\varepsilon_i}\left(\frac{y_i - \mu}{1} \right) \\ & = N\left(y_i - \mu; 0, \sigma^2\right) \\ & = \frac{1}{\sqrt{2\pi\sigma^2}}\exp\left(-\frac{1}{2\sigma^2}(y_i - \mu - 0)^2 \right) \\ & = \frac{1}{\sqrt{2\pi\sigma^2}}\exp\left(-\frac{1}{2\sigma^2}(y_i - \mu)^2 \right) \\ & = N(y_i; \mu,\sigma^2) \end{split} \end{align}\]

Die Standardproblemstellungen der Frequentistischen Inferenz führen in diesem Anwendungsszenario dann auf folgende Fragen, die wir jeweils in den Kapiteln zur Punktschätzung, Konfidenzintervallbestimmung, und Hypothesentestevaluation wieder aufgreifen wollen:

  1. Was sind sinnvolle Tipps für die wahren, aber unbekannten, Parameterwerte \(\mu\) und \(\sigma^2\), also den wahren, aber unbekannten, Erwartungswert der BDI-II Score Reduktion und ihre wahre, aber unbekannte, Varianz? Wie gut ist die Therapie also in diesem quantitativen Sinn, wenn wir versuchen, die Patient:innen-abhängigen Abweichungen zu berücksichtigen und wie groß ist die in der Datengeneration inhärente Unsicherheit?

  2. Wie kann im Sinne einer Intervallschätzung eine möglichst sichere Schätzung des wahren, aber unbekannten, Erwartungswert der BDI-II Score Reduktion gelingen? Wie unpräzise muss eine solche Schätzung sein, um möglichst verlässlich zu sein?

  3. Entscheiden wir uns sinnvollerweise für eine der Hypothesen, dass die Therapie nicht wirksam ist (\(\mu = 0\)) oder dass sie etwa im positiven (\(\mu > 0\)) oder auch im negativen Sinne wirksam ist (\(\mu < 0\))? Und wenn wir uns für eine dieser Hypothesen entscheiden sollten, mit welcher Fehlerwahrscheinlichkeit täten wir dies? Wie hoch ist also die einer solchen Entscheidung innewohnende Unsicherheit?

Beck, A. T. (1961). An Inventory for Measuring Depression. Archives of General Psychiatry, 4(6), 561. https://doi.org/10.1001/archpsyc.1961.01710120031004
Beck, A. T., Steer, R. A., Ball, R., & Ranieri, W. F. (1996). Comparison of Beck Depression Inventories-IA and-II in Psychiatric Outpatients. Journal of Personality Assessment, 67(3), 588–597. https://doi.org/10.1207/s15327752jpa6703_13