Bernoulli-Experimente

Jakob I Bernoulli (1655 – 1705) war ein Schweizer Mathematiker und Physiker, der sich intensiv mit Zufallsexperimenten beschäftigte und wichtige Grundlagen der Stochastik begründete. Er untersuchte Zufallsexperimente, die nur zwei mögliche Ergebnisse haben, wie z.B. der Wurf einer Münze, der nur “Kopf” oder “Zahl” liefern kann. Hier ein paar Beispiele für solche Experimente, die allesamt Bernoulli-Experimente genannt werden:

  • Drehen des Glücksrads: gewinnen oder nicht
  • Würfeln: eine sechs würfeln oder etwas anderes würfeln
  • Qualitätsprüfung: die Probe besteht die Qualitätsprüfung oder sie besteht sie nicht
  • Urne: die goldene Kugel wird gezogen oder es ist eine andere Kugel

Wir wählen nun einfach die beiden Ergebnisse bzw. Elementarereignisse Treffer ($T$) oder Niete ($N$). Der Ergebnisraum hat zwei mögliche Ereignisse:

\[ \Omega = \Big\{ T, N \Big\} \]

Für die Zufallsvariable $X$ wählen wir die beiden Werte $x=1$ für $T$ und $x=0$ für keinen Treffer bzw. für $N$. Die Wahrscheinlichkeit, einen Treffer zu landen, wird mit $0 \leq p \leq 1$ angegeben. Die Wahrscheinlichkeit für eine Niete ist entsprechend $(1-p)$, da $N$ das Gegenereignis zu $T$ ist:

\[ P(X=x) \;\; = \;\; \begin{cases} \begin{array}{cl} p & \text{für} \; x=1 \\ (1-p) & \text{für} \; x=0 \end{array} \end{cases} \]

Diese Formel lässt sich auch in nur einer Zeile schreiben und zwar wie folgt:

\[ P(X=x) \;\; = \;\; p^x \cdot (1-p)^{(1-x)} \]

Wir setzen die beiden möglichen $x$-Werte ein und überprüfen:

\[ \begin{array}{ll} x=1 \;\colon \;\; & P(X=1) \;\; = \;\; p^1 \cdot (1-p)^{(1-1)} = p \cdot (1-p)^0 \;\; = \;\; p \\ x=0 \;\colon \;\; & P(X=0) \;\; = \;\; p^0 \cdot (1-p)^{(1-0)} = 1 \cdot (1-p)^1 \;\; = \;\; (1-p) \end{array} \]

Ein Bernoulli-Experiment ist ein Zufallsexperiment, bei welchem mit der Wahrscheinlichkeit $p$ ein Treffer $T$ erzielt wird und mit der Wahrscheinlichkeit $(1-p)$ kein Treffer bzw. eine Niete $N$ gezogen wird.

\[ P(X=x) \;\; = \;\; p^x \cdot (1-p)^{(1-x)} \]

Für einen Treffer haben wir die Zufallsgrösse $X$, die den Wert $x=1$ annimmt. Sie tut das mit der Wahrscheinlichkeit $p$.

Die Niete hat den Wert $x=0$ und tritt mit der Wahrscheinlichkeit $(1-p)$ ein.

Ein einzelnes Bernoulli-Experiment, z.B. das Prüfen eines Produktes in einer Produktion hinsichtlich “Qualitätsprüfung bestanden” oder “nicht bestanden” ist noch nicht besonders spannend. Meistens werden die einzelnen Bernoulli-Experimente wiederholt. Wir können z.B. im Verlauf eines Produktionstages 100 Stücke als Stichprobe ziehen und nacheinander analysieren. Die einzelnen Bernoulli-Experimente sind unabhängig von einander. Eine Münze hat kein Gedächtnis und kann nicht wissen, wie viele Male sie schon “Kopf” oder “Zahl” gezeigt hat. Alles fängt immer wieder von neuem an.

Die Wiederholung von unabhängigen Bernoulli-Experimenten, nennt man eine Bernoulli-Kette. Sie hat bei $n$-facher Wiederholung die Länge $n$.

Formel von Bernoulli

Schauen wir uns einen fünffachen Münzenwurf an. Da wir pro Wurf genau zwei mögliche Ergebnisse haben, ist das ein Bernoulli-Experiment. Wir können z.B. “Kopf” als Treffer $(x=1)$ mit der Wahrscheinlichkeit $(p=0.5)$ und “Zahl” als Niete $(x=0)$ mit der Wahrscheinlichkeit $(1-p = 0.5)$ definieren.

Für fünf Würfe gibt es einen Ereignisbaum mit $2^5 = 32$ Ästen. Die Reihenfolge (Kopf, Kopf, Kopf, Zahl, Zahl) können wir auch als 5-Tupel schreiben: $(K,K,K,Z,Z)$ oder $(T,T,T,N,N)$ oder eben $(1,1,1,0,0)$.

Mit welcher Wahrscheinlichkeit erreichen wir dieses 5-Tupel? Gemäss den Pfadregeln ist die Wahrscheinlichkeit dreifach für einen Trefferpfad und dann zweifach für einen Nietenpfad:

\[ P(1,1,1,0,0) \;\;=\;\; p \cdot p \cdot p \cdot (1-p) \cdot (1-p) \;\;=\;\; p^3 \cdot (1-p)^2 \]

Wenn wir an die Wahrscheinlichkeit interessiert sind, 3 Zahlen zu werfen, dann gibt es ja noch zahlreiche andere 5-Tupel, die das ebenfalls erfüllen, z.B.

\[ (1,1,0,0,1), \; (1,0,0,1,1), \; (0,0,1,1,1), \; (0,1,1,1,0) \; \text{etc.}\]

Wie viele solcher Permutationen gibt es? Es sind ja Permutationen mit einer 1, die sich dreifach wiederholt und einer 0, die sich zweifach wiederholt:

\[ ^5P_{3,2} = \frac{5!}{3!\;2!} = 10 \]

Es gibt insgesamt 10 solcher 5-Tupel, die natürlich alle die gleiche Wahrscheinlichkeit haben. Damit erhalten wir die Wahrscheinlichkeit, bei 5 Münzwürfen, 3 mal die “Zahl” zu werfen:

\[ P(X=3) \;\;=\;\; \frac{5!}{3!\;2!} \cdot p^3 \cdot (1-p)^2 \;\;=\;\; 10 \cdot 0.5^3 \cdot 0.5^2 \;\;=\;\; \frac{10}{32} = 0.3125 \]

Diese Berechnung könnten wir jetzt für jeden $x$-Wert wiederholen. Wir verallgemeinern zuerst aber den Ausdruck für ein dreifaches Vorkommen eines Treffers ($x=3$) bei insgesamt $n$ Würfen auf einen allgemeinen Ausdruck für $k$-faches Vorkommen eines Treffers:

\[ P(X=k) \;\;=\;\; \frac{n!}{k!\;(n-k)!} \cdot p^k \cdot (1-p)^{(n-k)} \]

Der Bruch, der am Anfang steht, entspricht der Definition unseres Binomialkoeffizienten: 

\[ \begin{pmatrix} n \\ k \end{pmatrix} = \frac{n!}{k!\;(n-k)!} \]

Beachte, dass wir die Formel von Bernoulli eigentlich schon beim Urnenmodell ohne Zurücklegen kennengelernt haben. Die Binomialverteilung ist die dazu gehörige Wahrscheinlichkeitsverteilung für $k$-Treffer.

Bei einer Bernoulli-Kette der Länge $n$ beträgt die Wahrscheinlichkeit, genau $k$ Treffer zu erzielen:

\[ P(X=k) \;\;=\;\; \begin{pmatrix} n \\ k \end{pmatrix} \cdot p^k \cdot (1-p)^{(n-k)} \]

Dabei ist $p$ die Wahrscheinlichkeit für einen Treffer und $(1-p)$ die Wahrscheinlichkeit für eine Niete.

Die damit erhaltene Wahrscheinlichkeitsverteilung ist die sog. Binomialverteilung.

Nachfolgend ist die Binomialverteilung für den fünffachen Münzwurf dargestellt (grün, links). Rechts (in blau) ist die Binomialverteilung für den 50-fachen Münzwurf dargestellt.

Es ist klar, dass wir mit 25 Treffern rechnen würden. Mit Hilfe der Binomialverteilung können wir aber sagen, dass die Wahrscheinlichkeit z.B. nur 20 Treffer zu erzielen, etwa halb so gross im Vergleich zu 25 Treffern. Die Summe der Wahrscheinlichkeiten im Intervall $[20,30]$, d.h. für 20 bis 30 Treffer, beträgt 88%. In den meisten Fällen würden wir in diesen Bereich fallen. Weniger als 20 Treffer oder mehr als 30 Treffer sind nur noch mit je 6% Wahrscheinlichkeit möglich.

Beachte, dass die Binomialverteilung hier spiegelsymmetrisch ist, da $p=0.5$. Für andere $p$-Werte ist die Binomialverteilung nicht so symmetrisch.

Der Erwartungswert und die Varianz (bzw. Standardabweichung) können für die Binomialverteilung mit den folgenden Formeln berechnet werden. Auf deren Herleitung wird hier verzichtet.

Sowohl der Erwartungswert, wie auch die Varianz der Binomialverteilung lassen sich direkt aus der Länge der Bernoullikette $n$ und der Trefferwahrscheinlichkeit $p$ berechnen:

Erwartungswert der Binomialverteilung:

\[ \mu = n \cdot p \]

Varianz bzw. Standardabweichung der Binomialverteilung:

\[ \sigma^2 = n \cdot p \cdot (1-p) \quad \quad \rightarrow \quad \quad \sigma = \sqrt{n \cdot p \cdot (1-p)} \]

Beispiel

Rom ist im Juli sehr heiss und meistens sonnig. Im Schnitt hat Rom in diesem Monat nur gerade 3 Regentage. Catherine und Céline planen ihren Romurlaub und möchten erst dann definitiv entscheiden, sobald sie wissen wie gross die statistische Wahrscheinlichkeit ist, dass mehr als die halbe Woche Rom ins Wasser fällt (mehr als 3 Regentage).


Definieren wir zuerst einen Treffer, wenn es regnet. Nicht, dass das ein glücklicher Treffer ist, aber diese Definition passt besser zur Aufgabenstellung. Die Wahrscheinlichkeit eines Treffers, nämlich eines Regentags im Juli ist:

\[ p = \frac{3}{31} \]

Der Juli hat 31 Tage und wir betrachten sie alle als gleichberechtigt, d.h. sie haben die gleiche Wahrscheinlichkeit, ein Regentag zu sein. Wir haben somit ein Laplace-Experiment und wir teilen einfach die Anzahl günstige Ergebnisse durch die Anzahl möglicher Ergebnisse.

Nun ist eine Woche von 7 Tagen eine Bernoulli-Kette von 7 Bernoulli-Experimenten, d.h. jeder Tag kann ein Treffer oder eine Niete sein. Beachte, dass das eigentlich nicht ganz korrekt ist, denn das Wetter eines Tages ist vom Wetter des vorherigen Tages nicht komplett unabhängig! Um die Sache zu vereinfachen, nehmen wir es aber an, dass Petrus für jeden Tag die Münze neu wirft.

Es gibt vier Fälle, die machen, dass es mehr als die halbe Woche regnet: Es kann 4, 5, 6 oder alle 7 Tage regnen. Wir berechnen die Wahrscheinlichkeiten für jeden Fall und addieren am Schluss zusammen:

\[ \begin{array}{rcl} P(X=4) \;\;=\;\; & \begin{pmatrix} 7 \\ 4 \end{pmatrix} \cdot \Big(\frac{3}{31}\Big)^4 \cdot \Big(1-\frac{3}{31}\Big)^{(7-4)} & = 0.002’262 \\ P(X=5) \;\;=\;\; & \begin{pmatrix} 7 \\ 5 \end{pmatrix} \cdot \Big(\frac{3}{31}\Big)^5 \cdot \Big(1-\frac{3}{31}\Big)^{(7-5)} & = 0.000’145 \\ P(X=6) \;\;=\;\; & \begin{pmatrix} 7 \\ 6 \end{pmatrix} \cdot \Big(\frac{3}{31}\Big)^6 \cdot \Big(1-\frac{3}{31}\Big)^{(7-6)} & = 0.000’005 \\ P(X=7) \;\;=\;\; & \begin{pmatrix} 7 \\ 7 \end{pmatrix} \cdot \Big(\frac{3}{31}\Big)^7 \cdot \Big(1-\frac{3}{31}\Big)^{(7-7)} & = \Big(\frac{3}{31}\Big)^7 = 7.9 \cdot 10^{-8} \end{array} \]

Die Wahrscheinlichkeit, dass alle 7 Tage regnerisch sind, ist so klein, dass wir sie im Vergleich zu den anderen Fällen eigentlich ignorieren können. Sie ist fast 30’000 mal unwahrscheinlicher als der Fall mit 4 regnerischen Tagen!

Alle Wahrscheinlichkeiten addiert, ergeben:

\[ P(X>3) = 0.002’262 + 0.000’145 + 0.000’005 = 0.002’413 = \underline{0.2\%} \]

Damit ist die Entscheidung sonnenklar: Ab nach Rom!

Nachfolgend noch die Binomialverteilung für die Anzahl Regentage in einem Monat. Bitte hier nicht mit der eben berechneten Wahrscheinlichkeit für Regentage in einer Woche verwechseln. Die Bernoulli-Kette ist jetzt $n=31$ statt $n=7$. 

Wir sehen, dass die wahrscheinlichste Anzahl Regentage 3 ist (Modus). Logischerweise sind 1,2 und 4 Regentage im Juli fast gleich wahrscheinlich. Alles andere fällt dann aber ab.

Der Erwartungswert beträgt:

\[ \mu = n \cdot p = 31 \cdot \frac{3}{31} = 3 \]

Beachte auch, dass die Verteilung nicht mehr spiegelsymmetrisch ist. Sie wächst (von links nach rechts) etwas steiler an und fällt dann etwas flacher ab.

Eigenschaften der Binomialverteilung

Es lohnt sich ein Gefühl füf die Binomialverteilung zu entwickeln. Nehmen wir wieder den Münzwurf mit einer fairen Münze, d.h. mit $p=0.5$ für das Eintreten des Treffers und $(1-p)=0.5$ für das Eintreffen eines Nicht-Treffers. Wenn wir die Münze 20 mal werfen, d.h. wenn die Bernoulli-Kette eine Länge von 20 hat ($n=20$), dann erwarten wir im Schnitt 10 Treffer und 10 Nieten. Tatsächlich ist der Erwartungswert dieser Binomialverteilung genau 10. Bei 50 Würfen, erwarten wir 25 Treffer und bei 100 Würfen, deren 50.

In der nachfolgenden Grafik sind die Binomialverteilungen für 20, 50 und 100 Würfe dargestellt. Tatsächlich betragen die Erwartungswerte jeweils die Hälfte, nämlich 10, 25 und 50.

Interessant, ist aber, dass die Standardabweichung mit der Anzahl Würfe zunimmt. Sie beträgt für 20 Würfe:

\[ \sigma = \sqrt{np(1-p)} = \sqrt{20 \cdot 0.5 \cdot 0.5} \approx 2.24 \]

Für 50 und 100 Würfe erhalten wir $\sigma \approx 3.54$ bzw. $\sigma = 5$. Warum ist das so? Mit der grösseren Anzahl Würfe gibt es eine grössere mögliche Streuung der Ergebnisse, denn es handelt sich immer noch um ein Zufallsexperiment. Je öfter wir dieses durchführen, desto grösser wird die Anzahl möglicher Abweichungen vom theoretischen Wert, dem Erwartungswert. Die Abweichungen sind aber, je grösser dieses sind, desto unwahrscheinlicher.

Auch sehen wir, dass die Glockenform der Verteilung nicht nur breiter, sondern auch weniger hoch wird. Das muss so sein, denn die Summe aller Wahrscheinlichkeiten muss ja immer 1 ergeben und wenn diese Wahrscheinlichkeiten breiter verteilt sind, dann sind die einzelnen Wahrscheinlichkeiten kleiner.

Wir sehen, dass der Modalwert (Modus) bei $n=20$ am grössten ist. Die Wahrscheinlichkeit beträgt für den Modus fast 0.2. Bei 100 Würfen ($n=100$) ist die Wahrscheinlichkeit unter 0.1.

Wenn wir die Länge der Bernoulli-Kette gleich belassen, z.B. bei $n=100$, dafür die Wahrscheinlichkeiten $p$ variieren, dann kriegen wir drei unterschiedliche Binomialverteilungen, wie in der folgenden Grafik gezeigt.

Bei $p=0.1$, d.h. einer eher kleinen Trefferwahrscheinlichkeit, ist der Erwartungswert 10. Ist ja klar. Wir werfen einen imaginären “Würfel” mit 10 Seitenflächen, dann ist die Wahrscheinlichkeit eine 10 zu würfeln, genau 0.1. Wenn wir diesen Würfel 100 mal werfen, wird er vermutlich im Schnitt 10 mal den Treffer liefern.

Für die Wahrscheinlichkeit $p=0.3$, d.h. wenn wir für den gleichen Würfel die drei Seiten 8, 9 und 10 als Treffer werten, dann sind drei mal mehr Treffer zu erwarten, d.h. der Erwartungswert ist 30. Schliesslich erwarten wir 90 Treffer, wenn die Wahrscheinlichkeit $p=0.9$ beträgt.

Beachte, dass die beiden Verteilungen für $p=0.1$ und für $p=0.9$ spiegelsymmetrisch sind. Das ist eigentlich ganz logisch. Im einen Fall gibt es einen Treffer mit der Wahrscheinlichkeit 10% und im anderen Fall gibt es eine Niete mit der Wahrscheinlichkeit 10%. Alles bleibt gleich, nur “Treffer” und “Niete” werden vertauscht. Deshalb wir in der oberen Verteilung aus dem Erwartungswert von 10 Treffern in der unteren Verteilung ein Erwartungswert von 10 Nieten, sprich 90 Treffern.

Die Standardabweichung ist für die beiden spiegelsymmetrischen Fälle natürlich gleich gross ($\sigma = 3$). Wäre die eine Streuung grösser als die andere, dann wären die beiden Glockenformen nicht gleich breit und somit auch nicht spiegelsymmetrisch. Für die Wahrscheinlichkeit $p=0.3$ erhalten wir eine etwas grössere Standardabweichung. Das können wir auch erklären. Bei extremen Fällen (wie $p=0.1$ oder $p=0.9$), wo Treffer bzw. Niete sehr unwahrscheinlich sind, streuen die Werte nicht gross. Ein unwahrscheinlicher Treffer wird sehr selten vorkommen und somit bei $n=100$ einen kleinen Erwartungswert ergeben. Es wird auch nur wenige Abweichungen davon geben, weil die Abweichungen alle von der sehr niedrigen Wahrscheinlichkeit eines weiteren Treffers betroffen sind.

Bei mittleren Wahrscheinlichkeiten, um $p=0.5$ herum, haben wir die grösste Streuung. Hier haben wir die 50% zu 50% Chance, einen Treffer zu erzielen, d.h. es kann mal so oder so sein und das gibt viel Streuung. Für unseren mittleren Fall $p=0.3$ ist denn auch die Standardabweichung $\sigma \approx 4.58$.

Binomialverteilungen haben folgende Eigenschaften:

  • Sie haben für $n$ gross eine Glockenform, mit Modus beim Erwartungswert $\mu = n p$, d.h. je grösser $p$, desto weiter rechts
  • Mit zunehmender Länge der Bernoulli-Kette $n$ wird die Glockenform breiter und niedriger (grössere Standardabweichung $\sigma$)
  • Sehr kleine $p \approx 0$ bzw. sehr grosse Wahrscheinlichkeiten $p \approx 1$ ergeben sehr schmale und hohe Binomialverteilungen. Die Wahrscheinlichkeitsverteilung am linken bzw. rechten Ende formt eher Spitzen als Glockenformen.
  • Mittlere Wahrscheinlichkeiten $p \approx 0.5$ ergeben breite und niedrige Glockenformen im mittleren Bereich.
  • Die Verteilung für $p$ ist spiegelsymmetrisch mit der Verteilung für $(1-p)$

Aufgabensammlung

  • Statistik und Binomialverteilung (5057) – Aufg. 3

    3 Teilaufgaben (pdf/Video-Lösung):
    Binomialverteilung: Einfache Wahrscheinlichkeiten

  • Statistik und Binomialverteilung (5057) – Aufg. 4

    3 Teilaufgaben (pdf/Video-Lösung):
    Binomialverteilung: Berechnung von Wahrscheinlichkeiten

  • Statistik und Binomialverteilung (5057) – Aufg. 5

    5 Teilaufgaben (pdf/Video-Lösung):
    Binomialverteilung: Anspruchsvollere Wahrscheinlichkeiten