Logo des digitalen Schulbuchs o-mathe.de. Schriftzug mit Omega als O

Minimallogo des digitalen Schulbuchs inf-schule.de. Omega als Symbol

s n h m r u
i

Zusammenfassung - Satz von Bayes

Ein Beispiel betrachten

Vor dir liegen drei Münzen. Zwei Münzen sind fair, sie zeigen also mit gleicher Wahrscheinlichkeit Kopf ($\Omega$) und Zahl ($1$). Eine Münze ist unfair und zeigt nur mit der Wahrscheinlichkeit $\frac{1}{4}$ die Zahl. Die Münzen sind äußerlich nicht voneinander zu unterscheiden.

Zum Herunterladen: muenzen.ggb

Du wählst dir (zufällig) eine der Münzen aus. Danach kannst du diese Münze einmal werfen. Ziel ist es, aus dem Ergebnis des Münzwurfs Rückschlüsse auf die Fairness der Münze zu ziehen.

Leitfrage

Wie kann aus dem Wurfergebnis die Wahrscheinlichkeit dafür bestimmt werden, dass die gezogene Münze fair ist?

Im folgenden Applet sind die Ergebnisse der Berechnungen bereits eingetragen:

Zum Herunterladen: bayes_beispiel_mit_loesung.ggb

  • Die Vorher-Wahrscheinlichkeiten (im linken Baumdiagramm blau dargestellt) beschreiben das Wissen vor dem Münzwurf.
    Sie werden auch A-Priori-Wahrscheinlichkeiten genannt.
  • Die Nachher-Wahrscheinlichkeiten (im rechten Baumdiagramm rot dargestellt) beschreiben das Wissen nach dem Münzwurf.
    Sie werden auch A-Posteriori-Wahrscheinlichkeiten genannt.
Ziel ist es, ausgehend von den Vorher-Wahrscheinlichkeiten und einem Indiz-Ereignis (hier: das Ergebnis des Münzwurfs) die Nachher-Wahrscheinlichkeiten zu bestimmen.

Hierzu wird die Reihenfolge der betrachteten Ereignisse umgekehrt.

  • Aus den Vorher-Wahrscheinlichkeiten werden mit der Pfadregel die Wahrscheinlichkeiten der zusammengesetzten Ereignisse berechnet:
    z. B. $P(\text{fair} \cap \text{Zahl}) = P(\text{fair}) \cdot P(\text{Zahl} | \text{fair})$
  • Die Wahrscheinlichkeiten der zusammengesetzten Ereignisse können direkt in das umgekehrte Baumdiagramm übernommen werden:
    z. B. $P(\text{Zahl} \cap \text{fair}) = P(\text{fair} \cap \text{Zahl})$
  • Die Wahrscheinlichkeiten für „Kopf“ und „Zahl“ ergeben sich mit der Summenregel aus dem linken Baumdiagramm:
    z. B. $P(\text{Zahl}) = P(\text{fair} \cap \text{Zahl}) + P(\text{unfair} \cap \text{Zahl})$
  • Die gesuchten Nachher-Wahrscheinlichkeiten lassen sich dann wieder mit der Pfadregel bestimmen:
    z. B. $P(\text{fair} | \text{Zahl}) = \displaystyle{\frac{P(\text{Zahl} \cap \text{fair})}{P(\text{Zahl})}}$

Die folgende Übersicht verdeutlicht das Ergebnis der Berechnungen. Aus den Vorher-Wahrscheinlichkeiten werden – unter Berücksichtigung eines Indiz-Ereignisses – die Nachher-Wahrscheinlichkeiten ermittelt.

Vorher-
Wahrscheinlichkeit
Münzwurfergebnis
(Indiz-Ereignis)
Nachher-
Wahrscheinlichkeit
fair $\frac{2}{3}$ Zahl $\frac{4}{5}$
unfair $\frac{1}{3}$ $\frac{1}{5}$

Die Überlegungen verallgemeinern

Wir betrachten folgende Problemsituation:

Gegeben: Vorher-Wahrscheinlichkeiten (d. h. vor dem Eintreten des Indiz-Ereignisses)

  • $P(B)$: Wahrscheinlichkeit, dass die Bedingung $B$ erfüllt ist.
  • $P(\overlinepatch{B})$: Wahrscheinlichkeit, dass die Bedingung $B$ nicht erfüllt ist.
  • $P(A | B)$: Wahrscheinlichkeit, dass das Ereignis $A$ unter der Bedingung $B$ eintritt.
  • $P(A | \overlinepatch{B})$: Wahrscheinlichkeit, dass das Ereignis $A$ unter der Bedingung $\overlinepatch{B}$ eintritt.

Gesucht: Nachher-Wahrscheinlichkeiten (d. h. nach dem Eintreten des Indiz-Ereignisses)

  • $P(B | A)$: Wahrscheinlichkeit, dass die Bedingung $B$ erfüllt ist, wenn das Ereignis $A$ eingetreten ist.
  • $P(B | \overlinepatch{A})$: Wahrscheinlichkeit, dass die Bedingung $B$ erfüllt ist, wenn das Ereignis $\overlinepatch{A}$ eingetreten ist.

Das Applet verdeutlicht ein schrittweises Vorgehen bei der Bestimmung der Nachher-Wahrscheinlichkeiten (rot dargestellt) aus den Vorher-Wahrscheinlichkeiten (blau dargestellt).

Zum Herunterladen: bayes_herleitung_mit_loesung.ggb

Mit Hilfe der Formelbausteine können wir nun folgende Formel herleiten, mit der wir eine der Nachher-Wahrscheinlichkeiten direkt aus den gegebenen Vorher-Wahrscheinlichkeiten berechnen können:

$\begin{array}{lcl} \textcolor[rgb]{1,0.2,0.4}{P(B | A)} & = & \displaystyle{\frac{P(A \cap B)}{P(A)}} \\ & = & \displaystyle{\frac{P(B \cap A)}{P(A)}} \\ & = & \displaystyle{\frac{P(B \cap A)}{P(B \cap A) + P(\overlinepatch{B} \cap A)}} \\ & = & \displaystyle{\frac{\textcolor[rgb]{0,0.6,1}{P(B)} \cdot \textcolor[rgb]{0,0.6,1}{P(A | B)}}{\textcolor[rgb]{0,0.6,1}{P(B)} \cdot \textcolor[rgb]{0,0.6,1}{P(A | B)} + \textcolor[rgb]{0,0.6,1}{P(\overlinepatch{B})} \cdot \textcolor[rgb]{0,0.6,1}{P(A | \overlinepatch{B})}}} \end{array}$

Hieraus resultiert der folgende Satz:

Satz von Bayes:

Für zwei Ereignisse $A$ und $B$ mit $P(A) > 0$ und $P(B) > 0$ kann die Nachher-Wahrscheinlichkeit $P(B | A)$ aus den Vorher-Wahrscheinlichkeiten $P(B)$, $P(\overlinepatch{B})$, $P(A | B)$ und $P(A | \overlinepatch{B})$ wie folgt berechnet werden:

$P(B | A) = \displaystyle{\frac{P(B) \cdot P(A | B)}{P(B) \cdot P(A | B) + P(\overlinepatch{B}) \cdot P(A | \overlinepatch{B})}}$

Suche

v
6.3.3.6
o-mathe.de/stochastik/abhaengigkeit/bayes/zusammenfassung
o-mathe.de/6.3.3.6

Rückmeldung geben