Wahrscheinlichkeit vorher und nachher
Einordnung und Zielsetzung
Das Kapitel Wahrscheinlichkeit vorher und nachher ist als ergänzende und vertiefende
Anwendung bedingter Wahrscheinlichkeiten einzuordnen.
Aus einem bedingten Wissen (Wahrscheinlichkeiten vorher) wird mit Hilfe eines Versuchsergebnisses das neue bedingte Wissen (Wahrscheinlichkeiten nachher)
erschlossen.
Dieses Vorgehen spielt eine wichtige Rolle bei der Beurteilung medizinischer Testverfahren.
Noch relevanter sind die Einsatzmöglichkeiten beim automatisierten Lernen aus Erfahrung
: Das Vorgehen wird z.B. benutzt, um aus Daten,
die Nutzer auf Webseiten hinterlassen, Rückschlüsse auf ihre Interessen zu erschließen.
Folgende Zielsetzungen stehen im Kapitel Stochastische Unabhängigkeit im Vordergrund:
- ... was unter Vorher-Wahrscheinlichkeiten und Nachher-Wahrscheinlichkeiten verstanden wird.
- ... wie aus Vorher-Wahrscheinlichkeiten die zugehörigen Nachher-Wahrscheinlichkeiten berechnet wird.
- ... wie das Berechnungsverfahren mit dem Satz von Bayes kurz beschrieben wird.
- ... was die Begriffe Sensitivität, Spezifität und Prävalenz bei medizinischen Testverfahren beschreiben.
- ... wie Ergebnisse von medizinischen Testverfahren mit Wahrscheinlichkeitsaussagen eingeordnet werden können.
- ... wie Lernen aus Erfahrung mit dem Satz von Bayes automatisiert wird.
Erarbeitung mit einem Münzspiel
Für die Bearbeitung der komplexen Problemsituation bieten sich spielerische Zugänge an. Im Kapitel Erkundung – Neubewertung von Wahrscheinlichkeiten nutzen wir eine Art Münzspiel, bei dem der Nutzer herausfinden soll, ob eine unbekannte Münze fair oder unfair ist.
Problemsituation: Vor dir liegen drei Münzen. Zwei Münzen sind fair, sie zeigen also mit gleicher Wahrscheinlichkeit Kopf ($\Omega$) und Zahl ($1$). Eine Münze ist unfair und zeigt nur mit der Wahrscheinlichkeit $\frac{1}{4}$ Zahl. Die Münzen sind äußerlich nicht voneinander zu unterscheiden. Du wählst dir (zufällig) eine der Münzen aus. Danach kannst du diese Münze wiederholt werfen. Ziel ist es, aus den Ergebnissen der Würfe Rückschlüsse auf die Fairness der Münze ziehen.
Die Progression führt von ersten intuitiven Schätzungen hin zu mathematisch fundierten Aussagen. Alle Schritte des komplexen Vorgehens werden mit passenden Applets – die als kognitive Werkzeuge fungieren – unterstützt.
Schritt 1: die Intuition beim Auswerten von Information über die gezogene Münze zu nutzen
Das Münzspiel wird mit dem folgenden Applet simuliert.
Anleitung für das Applet
- Oben links sind nochmal die Infos über die Münzen zusammengefasst.
- In einem ersten Schritt musst du mit der Schaltfläche [Münze ziehen] eine der drei gegebenen Münzen auswählen. Ob sie fair oder unfair ist, bleibt natürlich erst einmal geheim.
- Mit der Schaltfläche [Münze werfen] kannst du die gezogene Münze dann wiederholt (hier maximal 5-mal) werfen.
- Im Grafikfeld unterhalb der gezeigten Münzwurfergebnisse kannst du mit dem blauen Punkt die Wahrscheinlichkeit für „Münze ist fair“ nach und nach einstellen.
- Abschließend kannst du eine Vermutung aufstellen, ob die gezogene Münze fair oder unfair war. Hierfür musst du nur die entsprechende Schaltfläche anklicken. Ob die Vermutung zutrifft, wird danach angezeigt.
Zum Herunterladen: muenzspiel.ggb
Schritt 2: das Wissen mit bedingten Wahrscheinlichkeiten beschreiben und das Vorgehen mit Baumdiagrammen strukturieren
Das Applet zeigt die Berechnungen für einen Münzwurf.
Zum Herunterladen: bayes_beispiel_mit_loesung.ggb
- Die Vorher-Wahrscheinlichkeiten (im linken Baumdiagramm blau dargestellt) beschreiben das Wissen vor dem Münzwurf. Man nennt sie auch A-Priori-Wahrscheinlichkeiten.
- Die Nachher-Wahrscheinlichkeiten (im rechten Baumdiagramm rot dargestellt) beschreiben das Wissen nach dem Münzwurf. Man nennt sie auch A-Posteriori-Wahrscheinlichkeiten.
- Ziel ist es, ausgehend von den Vorher-Wahrscheinlichkeiten und einem Indiz-Ereignis (hier: das Ergebnis des Münzwurfs) die Nachher-Wahrscheinlichkeiten zu bestimmen. Hierzu wird die Reihenfolge der betrachteten Ereignisse umgekehrt.
Schritt 3: das Vorgehen verallgemeinernd mit Formeln beschreiben
Wir betrachten folgende Problemsituation.
Gegeben: Vorher-Wahrscheinlichkeiten (d.h. vor dem Eintreten des Indiz-Ereignisses)- $P(B)$: Wahrscheinlichkeit, dass die Bedingung $B$ erfüllt ist.
- $P(\overlinepatch{B})$: Wahrscheinlichkeit, dass die Bedingung $B$ nicht erfüllt ist.
- $P(A | B)$: Wahrscheinlichkeit, dass das Ereignis $A$ unter der Bedingung $B$ eintritt.
- $P(A | \overlinepatch{B})$: dass das Ereignis $A$ unter der Bedingung $\overlinepatch{B}$ eintritt.
- $P(B | A)$: Wahrscheinlichkeit, dass die Bedingung $B$ erfüllt ist, wenn das Ereignis $A$ eingetreten ist.
- $P(B | \overlinepatch{A})$: dass die Bedingung $B$ erfüllt ist, wenn das Ereignis $\overlinepatch{A}$ eingetreten ist.
Das Applet verdeutlicht ein schrittweises Vorgehen bei der Bestimmung der Nachher-Wahrscheinlichkeiten (rot dargestellt) aus den Vorher-Wahrscheinlichkeiten (blau dargestellt).
Zum Herunterladen: bayes_herleitung_mit_loesung.ggb
Mit Hilfe der Formelbausteine lässt sich jetzt folgende Formel herleiten, mit der eine der Nachher-Wahrscheinlichkeiten direkt aus den gegebenen Vorher-Wahrscheinlichkeiten berechnet werden kann.
$\begin{array}{lcl} \textcolor[rgb]{1,0.2,0.4}{P(B | A)} & = & \displaystyle{\frac{P(A \cap B)}{P(A)}} \\ & = & \displaystyle{\frac{P(B \cap A)}{P(A)}} \\ & = & \displaystyle{\frac{P(B \cap A)}{P(B \cap A) + P(\overlinepatch{B} \cap A)}} \\ & = & \displaystyle{\frac{\textcolor[rgb]{0,0.6,1}{P(B)} \cdot \textcolor[rgb]{0,0.6,1}{P(A | B)}}{\textcolor[rgb]{0,0.6,1}{P(B)} \cdot \textcolor[rgb]{0,0.6,1}{P(A | B)} + \textcolor[rgb]{0,0.6,1}{P(\overlinepatch{B})} \cdot \textcolor[rgb]{0,0.6,1}{P(A | \overlinepatch{B})}}} \end{array}$
Schritt 4: das Vorgehen wiederholt durchführen
Wird der Fall betrachtet, dass beim 1. Münzwurf die Zahl gefallen ist, dann kann das Wissen vor und nach diesem Münzwurf so beschrieben werden:
Vorher- Wahrscheinlichkeit |
Münzwurfergebnis (Indiz-Ereignis) |
Nachher- Wahrscheinlichkeit |
|
---|---|---|---|
fair | $\frac{2}{3}$ | Zahl | $\frac{4}{5}$ |
unfair | $\frac{1}{3}$ | $\frac{1}{5}$ |
Entsprechend sieht die Beschreibung des Falls aus, wenn beim 1. Münzwurf Kopf gefallen ist.
Die Wahrscheinlichkeitswerte nach dem 1. Münzwurf können jetzt als Ausgangswerte für den 2. Münzwurf genommen werden. Wir betrachten hierzu exemplarisch diese Situation: Die Münze ist bereits einmal geworfen worden mit dem Ergebnis „Zahl“. Sie wird erneut geworfen und wieder fällt die Zahl.
Vorher- Wahrscheinlichkeit |
Münzwurfergebnis (Indiz-Ereignis) |
Nachher- Wahrscheinlichkeit |
|
---|---|---|---|
fair | $\frac{4}{5}$ | Zahl | $\frac{8}{9}$ |
unfair | $\frac{1}{5}$ | $\frac{1}{9}$ |
Auf diese Weise lässt sich das Vorgehen wiederholt anwenden und führt zu immer besserem Wissen
über die gezogene Münze.
Anwendung bei medizinischen Testverfahren
Als Anwendung werden exemplarisch die Daten eines Corona-Tests ausgewertet.
- Sensitivität von 96.52 %: Die Sensitivität des Tests gibt an, wieviel Prozent der Personen, die an einer SARS-CoV-2 Infektion erkrankt sind, ein positives Testresultat erhalten.
- Spezifität von 99.68 % : Die Spezifität gibt an, wieviel Prozent der Personen, die nicht an einer SARS-CoV-2 Infektion erkrankt sind, ein negatives Testresultat erhalten.
- Prävalenz (von z.B. 2 %): Anteil der Bevölkerung, die aktuell eine SARS-CoV-2 Infektion haben
Zunächst werden diese Daten mit Hilfe geeigneter (bedingter) Wahrscheinlichkeiten beschrieben.
Bei der Bestimmung der Nachher-Wahrscheinlichkeiten werden zwei Wege aufgezeigt:
Die Einschätzung der Wahrscheinlichkeiten für ein falsch positives
bzw. falsch negatives
Testergebnissen
werden zum einen mit Hilfe von Häufigkeitsüberlegungen, zum anderen mit entsprechenden Wahrscheinlichkeitsberechnungen vorgenommen.
Es ergeben sich so (im Sinne der Differenzierung) verschiedene Möglichkeiten zur fundierten Bewertung des Tests:
Die Bewertung ist ohne Formeln (wie dem Satz von Bayes) möglich.
Sie kann aber auch effizient mit Hilfe des Satzes von Bayes vorgenommen werden.