Bedingte Wahrscheinlichkeit

Tutorial Videos

(Es gibt leider keine Tutorial Videos zu diesem Thema)

→ Weitere Videos

Free Tutorial Videos

(keine Tutorial Videos zu diesem Thema)

→ Weitere Videos

Wenn es unabhängige Ereignisse gibt, gibt es natürlich auch solche, die abhängig sind. Wir schauen uns das an einem Beispiel an. In einer Klasse mit 24 Schülerinnen und Schülern (14 Schülerinnen und 10 Schülern) hat es insgesamt 4 Brillenträger: 3 Schüler tragen eine Brille und 1 Schülerin. Wir fragen uns, wie gross ist die Wahrscheinlichkeit, dass beim zufälligen Ziehen einer Person aus der Klasse, es sich um die (einzige) Brillenträgerin handelt. 

Um uns hier einen Überblick zu verschaffen, tragen wir das in ein Diagramm ein und definieren die Ereignisse:

  • \(A\) = Schülerin
  • \(B\) = Brillenträger oder -trägerin

Die gesuchte Wahrscheinlichkeit ist die Wahrscheinlichkeit eine Schülerin zu ziehen und eine Person mit Brille, also die Schnittmenge von \(A\) und \(B\): \(P(A \cap B)\)

Wenn wir zufällig einen Schüler oder eine Schülerin aus dieser Klasse ziehen, dann ist es mit einer bestimmten Wahrscheinlichkeit eine Schülerin oder einen Schüler ohne Brille, oder eine Brillenträgerin oder ein Brillenträger. Um diese Wahrscheinlichkeiten in Zahlen zu übersetzen, zeichnen wir einen Ereignisbaum:

Schauen wir uns den obersten Ast genauer an: Die Wahrscheinlichkeit, dass wir die Brillenträgerin ziehen ist \(\frac{1}{24}\). Wir können es als mehrstufigen Prozess anschauen, in welchem zuerst eine Person mit Brille gezogen wird und dann aus den Brillenträgern die weibliche Brillenträgerin. Für den ersten Schritt haben wir die Wahrscheinlichkeit

\[ P(B) = \frac{4}{24} \]

Wir haben 24 Schülerinnen und Schüler und 4 davon tragen eine Brille. Jede Person kann gleich wahrscheinlich gezogen werden: \(\frac{1}{24}\). Die Wahrscheinlichkeit, eine Person mit Brille zu ziehen ist die Summe Wahrscheinlichkeiten der 4 Brillenträgerinnen und -träger und damit \(4 \cdot \frac{1}{24}\).

Nun kommt der zweite Schritt: Wie ist die Wahrscheinlichkeit, dass es sich um eine weibliche Person mit Brille handelt? In der ganzen Klasse hat es total 14 Mädchen. Die Wahrscheinlichkeit, dass wir aus der Klasse ein Mädchen ziehen, wäre \(\frac{14}{24}\). All die Schülerinnen und Schüler ohne Brille kommen aber nicht in Frage, denn wir haben ja im ersten Schritt den Ast für das Ereignis \(B\) gewählt und wissen, dass es sich um eine Person mit Brille handelt. Die Wahrscheinlichkeit, dass die Person mit Brille ein  Mädchen ist, ist deshalb eine sog. bedingte Wahrscheinlichkeit. Es ist die Wahrscheinlichkeit für das Ereignis \(A\) unter Bedingung, dass \(B\) erfüllt ist, d.h. die Wahrscheinlichkeit, dass die Person ein Mädchen ist, unter Bedingung dass sie eine Brille trägt. Mathematisch wird das so geschrieben:

\[ P(A | B) = \frac{1}{4} \]

Der senkrechte Strich steht für “unter der Bedingung, dass…”. Es ist die Wahrscheinlichkeit von Ereignis \(A\) unter der Bedingung, dass \(B\) erfüllt ist.

Jetzt können wir die Wahrscheinlichkeit, die Brillenträgerin aus der Klasse zu ziehen als das Produkt der Wahrscheinlichkeiten hinschreiben:

\[ P(A \cap B) = P(B) \cdot P(A | B) = \frac{4}{24} \cdot \frac{1}{4} = \frac{1}{24} \]

Mit einer einfachen algebraischen Umformung erhalten wir für die bedingte Wahrscheinlichkeit:

\[ P(A | B) = \frac{P(A \cap B)}{P(B)} \]

Die bedingte Wahrscheinlichkeit für das Ereignis \(A\) unter Bedingung, dass das Ereignis \(B\) erfüllt ist, wird aus der Wahrscheinlichkeit der Schnittmenge von \(A\) und \(B\) und aus der Wahrscheinlichkeit der Bedingung \(B\) errechnet:

\[ P(A | B) = \frac{P(A \cap B)}{P(B)} \]

Die bedingte Wahrscheinlichkeit \(P(A|B)\) ist die Wahrscheinlichkeit, dass \(A\) erfüllt ist, innerhalb aller Fälle, in denen \(B\) schon erfüllt ist. Im Gegensatz dazu ist \(P(A \cap B)\) die Wahrscheinlichkeit, dass \(A\) und \(B\) erfüllt sind, im Vergleich zu allen möglichen Fällen überhaupt.

Der Unterschied zwischen den beiden Wahrscheinlichkeiten \(P(A \cap B)\) und \(P(A | B)\) führt schnell zu einer Verwirrung. Bei der Wahrscheinlichkeit der Schnittmenge \(P(A \cap B)\) sagen wir “Die Wahrscheinlichkeit, dass \(A\) und \(B\) erfüllt sind”. Dabei beziehen wir uns auf die gesamte Menge möglicher Ereignisse.

Bei der bedingten Wahrscheinlichkeit \(P(A | B)\) sagen wir im Prinzip das Gleiche: “Die Wahrscheinlichkeit, dass \(A\) unter Bedingung, dass \(B\) erfüllt ist”. Hier beziehen wir uns aber nicht auf alle möglichen Fälle, sondern ausschliesslich auf die Fälle innerhalb \(B\), denn \(B\) ist gesetzt!

Ist die bedingte Wahrscheinlichkeit von \(A\) unter Bedingung von \(B\) eventuell gleich der bedingten Wahrscheinlichkeit von \(B\) unter Bedingung von \(A\)? Nein, aber ganz abwegig ist die Frage nicht, denn die Schnittmenge ist kommutativ und wir können \(A\) mit \(B\) schneiden oder \(B\) mit \(A\) – es gibt keinen Unterschied:

\[ A \cap B = B \cap A \quad \rightarrow \quad P(A \cap B) = P(B \cap A) \]

Wir sehen aber aus der Definition der bedingten Wahrscheinlichkeit, dass der Nenner nicht der gleiche wäre, denn da steht die Wahrscheinlichkeit des Bedingungsereignisses:

\[ \frac{P(A \cap B)}{P(A)} = \;\; P(B | A) \;\; \neq \;\; P(A | B) \;\; = \frac{P(A \cap B)}{P(B)} \]

Den Unterschied zwischen \(P(A | B)\) und \(P(B | A)\) sehen wir auch, wenn wir den Ereignisbaum in der anderen Reihenfolge aufzeichnen. Die vier Wahrscheinlichkeiten, die wir mit den Pfadregeln erhalten, sind wieder die Gleichen. Die bedingte Wahrscheinlichkeit von \(B\) unter Bedingung von \(A\) ist tatsächlich anders:

\[ P(B | A) = \frac{1}{14} \]

Satz von Bayes

Der nach dem englischen Mathematiker Thomas Bayes benannte Satz folgt direkt aus der Definition der bedingten Wahrscheinlichkeit.

\[ P(A | B) = \frac{P(A \cap B)}{P(B)} \]

\[ P(B | A) = \frac{P(B \cap A)}{P(A)} \]

Die beiden Wahrscheinlichkeiten der Schnittmenge sind gleich, denn die Schnittmenge ist kommutativ. Somit können wir aus der zweiten Gleichung auch schreiben:

\[ P(B \cap A) = P(A \cap B) = P(B | A) \cdot P(A) \]

Das setzen wir in den Nenner der ersten Gleichung ein:

\[ P(A | B) = \frac{P(B | A) \cdot P(A)}{P(B)} = P(B | A) \cdot \frac{P(A)}{P(B)}\]

Der Satz von Bayes ermöglicht uns die Umrechnung von der einen bedingten Wahrscheinlichkeit in die andere:

\[ P(A | B) = P(B | A) \cdot \frac{P(A)}{P(B)}\]

Einsatz von Vierfeldertafeln

Für bedingte Wahrscheinlichkeiten bietet sich die Darstellung mit sog. Vierfeldertafeln an, in welchen die Zahlen eingefüllt werden können. Es lohnt sich zudem die Summen der Zeilen bzw. Spalten ebenfalls aufzuführen. Für unser Beispiel haben wir die folgende Vierfeldertafel in welcher wir auch die bedingten Wahrscheinlichkeiten erkennen.

Beispiel

In einer Klasse von 22 Schülerinnen und Schülern sind fünf Linkshänder. Die bedingte Wahrscheinlichkeit, dass wir unter den Linkshändern einen Schüler finden, beträgt 40%. Die bedingte Wahrscheinlichkeit, dass ein Schüler mit der linken Hand schreibt, beträgt seinerseits 20%. Wie gross ist die bedingte Wahrscheinlichkeit, dass eine Schülerin Rechtshänderin ist?

Zuerst definieren wir die Ereignisse:
    • \(A\) = Schülerin
    • \(B\) = Linkshänder(in)
Dann zeichnen eine Vierfeldertafel für diese Ereignisse und füllen schon mal die Informationen ein, die wir aus der Aufgabenstellung erhalten:
    • Die Summe der Schülerinnen und Schüler (22) steht ganz unten rechts
    • Fünf Schülerinnen und Schüler sind Linkshänder: oben rechts. Damit ergibt sich auch die Zahl Rechtshänder mit 15
Die restlichen Angaben in der Aufgabenstellung sind bedingte Wahrscheinlichkeiten:
    • Die bedingte Wahrscheinlichkeit, dass wir unter den Linkshändern (\(B\)) einen Schüler (\(\overline{A}\)) finden: \(P(\overline{A}|B) = 40\%\) (orange)
    • Die bedingte Wahrscheinlichkeit, dass ein Schüler (\(\overline{A}\)) mit der linken Hand schreibt (\(B\)), ist: \(P(B|\overline{A}) = 20\%\) (rot)
Schliesslich werden uns die blau markierten Felder erlauben, die gesuchte bedingte Wahrscheinlichkeit aufzustellen.
Wenn wir also unter den Linkshändern (\(B\)) einen Schüler mit 40% Chance finden und es ja 5 Linkshänder gibt, muss es zwei männliche Linkshänder in der Klasse haben und 3 weibliche Linkshänderinnen. Nun wissen wir zudem, dass diese beiden Linkshänder 20% aller (männlichen) Schüler sein müssen. Somit gibt es 10 Schüler und daraus folgernd dann auch 12 Schülerinnen. Wir können die Tabelle vervollständigen und erhalten:
Jetzt können wir die bedingte Wahrscheinlichkeit berechnen, die gefragt ist: Wir haben 9 Schülerinnen, die Rechtshänderinnen sind. Das sind 9 von 12 Schülerinnen, also sind das 75%. Wenn wir zufällig eine Schülerin aus der Klasse nehmen, dann ist sie zu 75% Wahrscheinlichkeit eine Rechtshänderin.

Beispiel

Für eine relativ seltene Krankheit mit einer Prävalenz von 12 pro 100’000 Personen, gibt es einen neuen Test. Die Sensitivität des Tests bei den Trägern der Krankheit beträgt 91.7%, d.h. 91.7% der echt positiven Fälle werden als solche erkannt. Leider zeigt der Test bei 1.49% der gesunden Personen eine falsche positive Diagnose. Wie viele Personen von 100’000 würden dank einer Test-Kampagne von ihrer Krankheit erfahren und wie viele würden durch eine Fehl-Diagnose verunsichert? Benutze die folgenden Ereignisse:
    • \(K\) = Träger der Krankheit
    • \(T\) = Testresultat positiv

Die folgende nicht-massstäbliche Skizze soll uns etwas mehr Überblick geben: Alle 100’000 getesteten Personen sind im Ergebnisraum \(\Omega\) verteilt. Ein kleiner Teil davon umfasst die Krankheitsträger (Ereignis \(K\)), während die restlichen Personen gesund sind (Ereignis \(\overline{K}\)).
Das Ereignis \(T\) umfasst die positiven Testresultate. Wir sehen, dass ein Teil der kranken Personen ein solches positives Testresultat erhalten: \(K \cap T\). Allerdings gibt es Krankheitsträger, die zwar getestet worden sind, aber fälschlicherweise ein negatives Testresultat erhalten haben: \(K \cap \overline{T}\) (falsche Negativtests). Schliesslich gibt es eine Menge von Leuten, die ein positives Testresultat erhalten, obwohl sie gar nicht krank sind (falsche Positivtests): \(\overline{K} \cap T\) Die Angaben der Aufgabenstellung können wir jetzt auf diese Mengen und Teilmengen verteilen. Das seltene Vorkommen der Krankheit (Prävalenz) ist die Wahrscheinlichkeit, dass jemand aus \(\Omega\) krank ist: \[ P(K) = \frac{12}{100’000} = 1.2 \cdot 10^{-4} \] Der Test funktioniert sehr gut für die Diagnose von kranken Personen. Unter der Bedingung, dass die Person krank ist (\(K\)), liefert der Test mit einer bedingten Wahrscheinlichkeit von 93% ein positives Testresultat (\(T\)): \[ P(T|K) = 0.917 \] Leider zeigt der Test manchmal auch ein positives Testresultat an, obwohl die Person nicht krank ist. Die Wahrscheinlichkeit für diese Art von “Panne” ist die bedingte Wahrscheinlichkeit ein positives Testresultat (\(T\)) zu haben, unter der Bedingung, dass die Person gar nicht krank war (\(\overline{K}\)): \[ P(T|\overline{K}) = 0.0149 \] Wir wollen jetzt die bedingte Wahrscheinlichkeit berechnen für den Fall, dass die Person Trägerin der Krankheit ist (\(K\)) unter der Bedingung, dass der Test positiv (\(T\)) ausgefallen ist: \(P(K|T)\). Mit anderen Worten: Mit welcher Wahrscheinlichkeit ist eine Person tatsächlich krank, wenn sie ein positives Testresultat erhält, d.h. wie aussagekräftig ist ein solches positives Testresultat? Aus der Definition der bedingten Wahrscheinlichkeit folgt: \[ P(K|T) = \frac{P(K \cap T)}{P(T)} \] Die Wahrscheinlichkeit \(P(K \cap T)\) im Zähler lässt sich berechnen mit Hilfe der anderen bedingten Wahrscheinlichkeit \(P(T|K)\): \[ P(T|K) = \frac{P(K \cap T)}{P(K)} \quad \rightarrow \quad P(K \cap T) = P(T|K) \cdot P(K) \] Wir setzen die bekannten Werte ein: \[ P(K \cap T) = 0.917 \cdot 1.2 \cdot 10^{-4} = 1.1004 \cdot 10^{-4} \] Für die Wahrscheinlichkeit \(P(T)\) im Nenner schauen wir uns nochmals die Skizze an. Die Menge \(T\) ist die Vereinigung der Schnittmengen \(K \cap T\) und \(\overline{K} \cap T\). Da diese beiden Schnittmengen untereinander disjunkt sind, d.h. sich nicht überschneiden, können wir ihre Wahrscheinlichkeiten einfach addieren: \[ P(T) = P(K \cap T) + P(\overline{K} \cap T) \] Den ersten Summanden haben eben berechnet: \(P(K \cap T) = 1.1004 \cdot 10^{-4}\). Den zweiten Summanden erhalten wir mit: \[ P(\overline{K} \cap T) = P(T|\overline{K}) \cdot P(\overline{K}) = P(T|\overline{K}) \cdot \Big(1-P(K)\Big) \] \[ = 0.0149 \cdot (1-1.1004 \cdot 10^{-4}) = 1.4898 \cdot 10^{-2} \] Damit erhalten wir die Wahrscheinlichkeit \(P(T)\), dass eine Person ein positives Testresultat erhält: \[ P(T) = 1.1004 \cdot 10^{-4} + 1.4898 \cdot 10^{-2} = 1.5008 \cdot 10^{-2} \] Nun können wir die bedingte Wahrscheinlichkeit \(P(K|T)\) bestimmen: \[ P(K|T) = \frac{P(K \cap T)}{P(T)} = \frac{1.1004 \cdot 10^{-4}}{1.5008 \cdot 10^{-2}} = 7.332 \cdot 10^{-3} = \underline{0.73\%} \] Die Wahrscheinlichkeit, dass eine Person, die ein positives Testresultat erhalten hat, auch wirklich krank ist, beträgt gerade mal 0.73%, also weniger als 1%! Das heisst, dass in 100% – 0.73% = 99.27% der Fälle der Test zwar positiv ist, aber die Person gar nicht krank ist! Dieses überraschende Resultat ist nachvollziehbar, wenn wir die Skizze nochmals anschauen. Der grösste Teil der getesteten Personen ist gesund. Es gibt deshalb sehr viel mehr falsche als echte positive Testresultate! Die Vierfeldertafel gibt hier etwas mehr Klarheit:
So lösen wir die Aufgabe mit der Vierfeldertafel: Zuerst wissen wir, dass es 12 kranke Personen hat unter 100’000. Das gibt uns die ganze unterste Zeile. Dann gibt uns die bedingte Wahrscheinlichkeit \(P(T|K)\) das Verhältnis von 11 zu 12. Wir kennen nur die 12 und müssen 91.7% von 12 berechnen, was uns die 11 gibt. In der gleichen Art verfahren wir mit \(P(T|\overline{K})\): \[ P(T|\overline{K}) = \frac{x}{99’988} = 1.49\% \quad \rightarrow \quad x = 0.0149 \cdot 99’988 = 1489 \] Jetzt kann die oberste Zeile vervollständigt werden und die zweite Zeile ergibt sich ebenfalls, da wir die Summen schon kennen. Die ganze Vierfeldertafel ist gelöst. Wir sehen, dass von den 100’000 Personen, 1’489 Personen ein falsches positives Resultat und 11 Personen ein richtiges positives Resultat erhalten.

Unabhängigkeit

Die  Unabhängigkeit von Ereignissen ist sehr wichtig in der Stochastik. Achtung! Nicht zu verwechseln mit der Unvereinbarkeit. Ereignisse sind für uns unabhängig, wenn die Wahrscheinlichkeit für das Eintreten des einen Ereignisses nicht vom Eintreten des anderen Ereignisses abhängt.

Die beiden Ereignisse “es regnet” und “ich werde nass” sind offensichtlich abhängig von einander. Ich kann auch nass werden, ohne dass es regnet oder umgekehrt, aber es gibt offensichtlich eine Verbindung und wenn es regnet, ist die Wahrscheinlichkeit nass zu werden, eine andere als wenn es nicht regnet.

Unabhängige Ereignisse sind z.B. “es regnet” und “ich würfle eine 6”. Der Würfel wird vom Regen (draussen) nicht beeinflusst und der Regen wird auch nicht von meinem Würfel beeinflusst. Dieses beiden Ereignisse sind deshalb unabhängig.

Ereignisse sind unabhängig, wenn das Eintreten des einen Ereignisses die Wahrscheinlichkeit des anderen Ereignisses nicht beeinflusst. Besteht irgendeine, noch so schwache Beeinflussung, gelten die Ereignisse als abhängig.

Beweis der Unabhängigkeit

Mit Hilfe der bedingten Wahrscheinlichkeit, können wir die stochastische Unabhägngigkeit besser verstehen. Wir schauen uns das an einem Beispiel an:

Beispiel

Die Wirksamkeit eines neuen Zusatzes für eine Gesichtscrème wurde getestet. 120 Personen nahmen am Test teil. Um den Placebo-Effekt zu berücksichtigen, wurden 24 Crèmes __ohne__ den Zusatz verteilt. Zwei Drittel der Probanden, die die Gesichtscrème \underline{mit} Zusatz erhielten, stellten eine positive Wirkung fest. 16 Personen stellten eine Wirkung fest, obwohl ihre Crème keinen Zusatz enthielt.

Beweise, dass der Zusatz keine Wirkung hat.


Als Erstes definieren wir die zwei Ereignisse:

  • \(A\) = positive Wirkung festgestellt
  • \(B\) = Crème enthält Zusatz

Wir stellen die Vierfeldertafel auf mit den Spalten \(A\) und \(\overline{A}\) und den Zeilen \(B\) und \(\overline{B}\) und einer Spalte bzw. Zeile für die Summen. Ganz unten rechts schreiben wir 120 ein, da das die Summe aller Versuche ist.

Die 24 Crèmes ohne Zusatz werden in der Zeile \(\overline{B}\) ganz rechts in der Summenspalte aufgeschrieben. Daraus folgt, dass es 96 Crèmes mit Zusatz gegeben hat.

Die dritte Angabe in der Aufgabenstellung gibt uns eine bedingte Wahrscheinlichkeit: Die Probanden stellten eine positive Wirkung (Ereignis \(A\)) und es waren zwei Drittel der Probanden, die \(B\) erhielten. Damit ist \(B\) die Vorbedingung.

\[ P(A|B) = \frac{2}{3} \]

In der Vierfeldertafel heisst das, dass die Anzahl im Feld \(A \cap B\) zwei Drittel der Summe in der Zeile \(B\) sein muss, also zwei Drittel von 96, was uns 64 gibt. In der Zeile \(B\) (mit Zusatz) waren 64 Probanden der 96 zufrieden (\(A\)).

Schliesslich nehmen wir die Angabe der 16 Probanden auf, die eine Wirkung feststellten, obwohl ihre Crème keinen Zusatz enthielt. Diese 16 schreiben wir in die Spalte \(A\) und in die Zeile \(\overline{B}\). Wir können jetzt die restlichen Zahlen berechnen und erhalten die komplette Vierfeldertafel:

Um die Wirksamkeit des Zusatzes zu beweisen, berechnen wir zuerst die Wahrscheinlichkeit der Wirkung \(A\) im Bezug auf alle Versuche:

\[ P(A) = \frac{80}{120} = \frac{2}{3} \]

Dann berechnen wir die Wahrscheinlichkeit der Wirkung \(A\), unter Vorbedingung, dass der Zusatz beigegeben worden ist (\(B\)), d.h. Wirkung im Bezug auf alle Versuche mit Zusatz:

\[ P(A|B) = \frac{P(A \cap B)}{P(B)} \]

Die beiden Wahrscheinlichkeiten erhalten wir aus der Vierfeldertafel:

\[ P(A \cap B) = \frac{64}{120}, \quad \quad P(B)=\frac{96}{120} \]

Jetzt setzen wir diese beiden Werte ein und berechnen damit die bedingte Wahrscheinlichkeit:

\[ P(A|B) = \frac{P(A \cap B)}{P(B)} = \frac{\;\;\frac{64}{120}\;\;}{\frac{96}{120}} = \frac{64}{96} = \frac{2}{3} \]

Somit haben wir in diesem Beispiel:

\[ P(A|B) = P(A) \]

Wir kriegen die gleiche Wahrscheinlichkeit für eine Wirkung \(A\), ob wir nun Zusatz beimischen \(B\) oder nicht! Damit ist die Unwirksamkeit des Zusatzes bewiesen.

Wenn für zwei Ereignisse \(A\) und \(B\) die bedingte Wahrscheinlichkeit mit Vorbedingung gleich der Wahrscheinlichkeit ohne Vorbedingung sind, dann sind \(A\) und \(B\) unabhängig:

\[ P(A|B) = P(A), \quad \quad P(B|A) = P(B) \]

Für unabhängige Ereignisse gilt:

\[ P(A \cap B) = P(A) \cdot P(B) \]

Weitere Videos

(keine externe Youtube-Videos zu diesem Thema)

  • Bedingte Wahrscheinlichkeit – Qualitätskontrolle Produktionsbetrieb (5055-5)

    12 min 50 s

    Du musst dich hier einloggen, um zum Video zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten
  • Bedingte Wahrscheinlichkeit – Rot-Grün-Sehschwäche (5055-4)

    11 min 47 s

    Du musst dich hier einloggen, um zum Video zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten
  • Bedingte Wahrscheinlichkeit – Online-Werbebanner (5055-3)

    7 min 38 s

    Du musst dich hier einloggen, um zum Video zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten
  • Bedingte Wahrscheinlichkeit – Qualitätskontrolle Produktionsbetrieb (5055-2)

    8 min 29 s

    Du musst dich hier einloggen, um zum Video zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten
  • Bedingte Wahrscheinlichkeit – Ereignisbaum und Unabhängigkeit von Ereignissen (5055-1)

    14 min 39 s

    Du musst dich hier einloggen, um zum Video zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten

Aufgabensammlung

  • Bedingte Wahrscheinlichkeit (5055) – Aufg. 1

    3 Teilaufgaben (pdf/Video-Lösung):
    Ereignisbaum und Unabhängigkeit von Ereignissen

    Du musst dich hier einloggen, um zur Aufgabe zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten
  • Bedingte Wahrscheinlichkeit (5055) – Aufg. 2

    1 Aufgabe (pdf/Video-Lösung):
    Qualitätskontrolle Produktionsbetrieb (Textaufgabe)

    Du musst dich hier einloggen, um zur Aufgabe zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten
  • Bedingte Wahrscheinlichkeit (5055) – Aufg. 3

    2 Teilaufgaben (pdf/Video-Lösung):
    Online-Werbebanner (Textaufgabe)

    Du musst dich hier einloggen, um zur Aufgabe zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten
  • Bedingte Wahrscheinlichkeit (5055) – Aufg. 4

    5 Teilaufgaben (pdf/Video-Lösung):
    Rot-Grün-Sehschwäche (Textaufgabe)

    Du musst dich hier einloggen, um zur Aufgabe zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten
  • Bedingte Wahrscheinlichkeit (5055) – Aufg. 5

    4 Teilaufgaben (pdf/Video-Lösung):
    Qualitätskontrolle Produktionsbetrieb (Textaufgabe)

    Du musst dich hier einloggen, um zur Aufgabe zu gelangen.

    Login

    Noch kein Login?

    Jetzt gratis Zugang erhalten

Mini-Test

Um Zugang zum Mini-Test zu kriegen,
musst du vollwertiges Mitglied im Hacker-Club sein.

Feedback

Post Feedback Form

Autor dieses Artikels:

David John Brunner

Lehrer für Physik und Mathematik | Mehr erfahren

publiziert:

überarbeitet:

publiziert:

überarbeitet:

Frage oder Kommentar?

Frage/Kommentar?

Schreib deine Frage / Kommentar hier unten rein. Ich werde sie beantworten.

Schreibe einen Kommentar

GRATIS Scripts und Formelsammlungen
Praktische Hacks lernen…
…im Hacker-Club!