Logo des digitalen Schulbuchs o-mathe.de. Schriftzug mit Omega als O

Minimallogo des digitalen Schulbuchs inf-schule.de. Omega als Symbol

s n h m r u
i

Zusammenfassung - Satz von Bayes

Ein Beispiel betrachten

Vor dir liegen drei Münzen. Zwei Münzen sind fair, sie zeigen also mit gleicher Wahrscheinlichkeit Kopf ($\Omega$) und Zahl ($1$). Eine Münze ist unfair und zeigt nur mit der Wahrscheinlichkeit $\frac{1}{4}$ die Zahl. Die Münzen sind äußerlich nicht voneinander zu unterscheiden.

Zum Herunterladen: muenzen.ggb

Du wählst dir (zufällig) eine der Münzen aus. Danach kannst du diese Münze einmal werfen. Ziel ist es, aus dem Ergebnis des Münzwurfs Rückschlüsse auf die Fairness der Münze zu ziehen.

Leitfrage: Wie kann aus dem Wurfergebnis die Wahrscheinlichkeit dafür bestimmt werden, dass die gezogene Münze fair ist?

Im Applet sind die Ergebnisse der Berechnungen bereits eingetragen.

Zum Herunterladen: bayes_beispiel_mit_loesung.ggb

  • Die Vorher-Wahrscheinlichkeiten (im linken Baumdiagramm blau dargestellt) beschreiben das Wissen vor dem Münzwurf. Sie werden auch A-Priori-Wahrscheinlichkeiten genannt.
  • Die Nachher-Wahrscheinlichkeiten (im rechten Baumdiagramm rot dargestellt) beschreiben das Wissen nach dem Münzwurf. Werden auch A-Posteriori-Wahrscheinlichkeiten genannt.
  • Ziel ist es, ausgehend von den Vorher-Wahrscheinlichkeiten und einem Indiz-Ereignis (hier: das Ergebnis des Münzwurfs) die Nachher-Wahrscheinlichkeiten zu bestimmen. Hierzu wird wird die Reihenfolge der betrachteten Ereignisse umgekehrt.
  • Aus den Vorher-Wahrscheinlichkeiten berechnet man mit der Pfadregel die Wahrscheinlichkeiten der zusammengesetzten Ereignisse.
    z.B. $P(\text{fair} \cap \text{Zahl}) = P(\text{fair}) \cdot P(\text{Zahl} | \text{fair})$
  • Die Wahrscheinlichkeiten der zusammengesetzten Ereignisse können direkt in das umgekehrte Baumdiagramm übernommen werden.
    z.B. $P(\text{Zahl} \cap \text{fair}) = P(\text{fair} \cap \text{Zahl})$
  • Die Wahrscheinlichkeiten für „Kopf“ und „Zahl“ ergeben sich mit der Summenregel aus dem linken Baumdiagramm.
    z.B. $P(\text{Zahl}) = P(\text{fair} \cap \text{Zahl}) + P(\text{unfair} \cap \text{Zahl})$
  • Die gesuchten Nachher-Wahrscheinlichkeiten lassen sich dann wieder mit der Pfadregel bestimmen.
    z.B. $P(\text{fair} | \text{Zahl}) = P(\text{Zahl} \cap \text{fair}) / P(\text{Zahl})$

Die folgende Übersicht verdeutlicht das Ergbnis der Berechnungen: Aus den Vorher-Wahrscheinlichkeiten werden – unter Berücksichtigung eines Indiz-Ereignisses – die Nachher-Wahrscheinlichkeiten ermittelt.

Vorher-
Wahrscheinlichkeit
Münzwurfergebnis
(Indiz-Ereignis)
Nachher-
Wahrscheinlichkeit
fair $\frac{2}{3}$ Zahl $\frac{4}{5}$
unfair $\frac{1}{3}$ $\frac{1}{5}$

Die Überlegungen verallgemeinern

Wir betrachten folgende Problemsituation.

Gegeben: Vorher-Wahrscheinlichkeiten (d.h. vor dem Eintreten des Indiz-Ereignisses)
  • $P(B)$: Wahrscheinlichkeit, dass die Bedingung $B$ erfüllt ist.
  • $P(\overlinepatch{B})$: Wahrscheinlichkeit, dass die Bedingung $B$ nicht erfüllt ist.
  • $P(A | B)$: Wahrscheinlichkeit, dass das Ereignis $A$ unter der Bedingung $B$ eintritt.
  • $P(A | \overlinepatch{B})$: dass das Ereignis $A$ unter der Bedingung $\overlinepatch{B}$ eintritt.
Gesucht: Nachher-Wahrscheinlichkeiten (d.h. nach dem Eintreten des Indiz-Ereignisses)
  • $P(B | A)$: Wahrscheinlichkeit, dass die Bedingung $B$ erfüllt ist, wenn das Ereignis $A$ eingetreten ist.
  • $P(B | \overlinepatch{A})$: dass die Bedingung $B$ erfüllt ist, wenn das Ereignis $\overlinepatch{A}$ eingetreten ist.

Das Applet verdeutlicht ein schrittweises Vorgehen bei der Bestimmung der Nachher-Wahrscheinlichkeiten (rot dargestellt) aus den Vorher-Wahrscheinlichkeiten (blau dargestellt).

Zum Herunterladen: bayes_herleitung_mit_loesung.ggb

Mit Hilfe der Formelbausteine lässt sich jetzt folgende Formel herleiten, mit der eine der Nachher-Wahrscheinlichkeiten direkt aus den gegebenen Vorher-Wahrscheinlichkeiten berechnet werden kann.

$\begin{array}{lcl} \textcolor[rgb]{1,0.2,0.4}{P(B | A)} & = & \displaystyle{\frac{P(A \cap B)}{P(A)}} \\ & = & \displaystyle{\frac{P(B \cap A)}{P(A)}} \\ & = & \displaystyle{\frac{P(B \cap A)}{P(B \cap A) + P(\overlinepatch{B} \cap A)}} \\ & = & \displaystyle{\frac{\textcolor[rgb]{0,0.6,1}{P(B)} \cdot \textcolor[rgb]{0,0.6,1}{P(A | B)}}{\textcolor[rgb]{0,0.6,1}{P(B)} \cdot \textcolor[rgb]{0,0.6,1}{P(A | B)} + \textcolor[rgb]{0,0.6,1}{P(\overlinepatch{B})} \cdot \textcolor[rgb]{0,0.6,1}{P(A | \overlinepatch{B})}}} \end{array}$

Man erhält damit folgenden Satz:

Satz von Bayes:

Für zwei Ereignisse $A$ und $B$ mit $P(A) > 0$ und $P(B) > 0$ können die Nachher-Wahrscheinlichkeit $P(B | A)$ aus den Vorher-Wahrscheinlichkeiten $P(B)$, $P(\overlinepatch{B})$, $P(A | B)$ und $P(A | \overlinepatch{B})$ so berechnet werden:

$P(B | A) = \displaystyle{\frac{P(B) \cdot P(A | B)}{P(B) \cdot P(A | B) + P(\overlinepatch{B}) \cdot P(A | \overlinepatch{B})}}$

Suche

v
6.3.3.6
o-mathe.de/stochastik/abhaengigkeit/bayes/zusammenfassung
o-mathe.de/6.3.3.6

Rückmeldung geben