Zurück

Wahrscheinlichkeitsrechnung

Stand: 12.01.2017
Axiome von Kolmogorov
Kombinatorik /Urnenmodell
Vierfeldertafel
Totale Wahrschienlichkeit, Satz von Bayes

Einführung

Das Ergebnis eines Versuches mit zufälligem Ausgang (sog. Zufallsexperiment) nennen wir zufälliges Ereignis. Die Wahrscheinlichkeitsrechnung bewertet ein solches Ereignis mit einer Zahl, seiner Wahrscheinlichkeit. Nach langem Ringen hat man sich zur mathematischen Beschreibung von Zufallsexperimenten auf den Modellansatz von Andrej N. Kolmogorov (auch: Kolmogoroff) , veröffentlicht im Jahre 1933, geeinigt, der stark auf der Mengenlehre beruht (Kolmogorov-Axiome). Die Mengenlehre musste zunächst hinreichend entwickelt und axiomatisisert werden, auch dazu trug Kolmogorov bei. Daher ist es verständlich, dass die Wahrscheinlichkeitsrechnung erst sehr spät in der Mathematikhistorie präzise und schlüssig gefasst werden konnte. Obwohl Zufallsexperimente, etwa Glücksspiele und Abschätzen ihrer Erfolgschancen, das Auswerten von Erfahrungen -auch die Jagd mit Speer oder Pfeil und Bogen ist ein Zufallsexperiment - so alt wie die Menschheit sein dürften. Und sich entsprechend viele Wissenschaftler schon damit beschäftigt hatten.

Um Kolmogorov's System auf ein bestimmtes Zufallsexperiment anwenden zu können, muss man zuerst drei Objekte im Kontext des jeweiligen Zufallsexperimentes definieren.

1. Die Menge $ \Omega $ der Elementarereignisse des Zufallsexperiments.
Beispiel: Wurf eines Würfels mit den Augenzahlen 1,2,3,4,5,6: $ \Omega=\{1;2;3;4;5;6\} $
Beispiel: Wurf einer idealen Münze, eine Seite Wappen (W), andere Seite Zahl (Z): $ \Omega=\{W;Z \} $


2. $ {\cal A }$ Die Menge aller möglichen Ereignisse. (Ereignismenge, Ereignisraum, Ereignisalgebra)
Dies ist zum Beispiel die Menge aller Teilmengen, also die Potenzmenge von $\Omega $ $$ {\cal A } = {\cal{P} } (\Omega) = \{ A | A \subseteq \Omega \} $$ (die leere Menge $\{ \} $ soll per Definitionem auch dazu gehören, ebenso $\Omega $ selber .) Manchmal begnügt man sich auch mit einer geeigneten Teilmenge der Potenzmenge. Diese Teilmenge muss jedoch bestimmte Bedingungen erfüllen, eine sog. $\sigma$-Algebra bilden. Sie muss dazu abgeschlossen bezüglich Komplementbildung, abzählbaren Vereinigungen und Schnitten sein und muss die Menge $\Omega $ sowie die leere Menge enthalten. ( Definition )

Beispiel Münzwurf , die Münze hat zwei Seiten, Wappen (W) und Zahl (Z). $$ \Omega=\{W;Z \} , \quad \mbox{Ereignisraum: } {\cal A = \cal P } (\Omega) = \{ \{ \}; \{W \} ; \{Z \} ; \{ W; Z \} \} $$ Beispiel einmaliger Wurf mit Würfel, Ereignisraum $$ { \cal A = \cal P } (\Omega) = \{ \{ \} ; \{ 1\}; ... \{6 \} ; \{1;2 \} ; \{1;3 \} ... \{5;6 \}; \{1;2 ;3 \} ; ... \{4;5;6 \} .... \{1;2 ;3;4;5;6 \} \} $$ Die Potenzmenge besteht hier also aus allen null-, ein-, zwei, drei- , vier-, fünf- und sechselementigen Teilmengen von $\Omega$, das sind $2^6 = 64 $ Mengen. Ein Ereignis aus dieser Potenzmenge wird häufig auch verbal durch Bedingungen umschrieben.
Beispiele zum Würfelwurf:
Ereignis $A_1$ : Augenzahl beim Wurf ist gerade . Also $A_1 = \{2;4;6 \} $
Ereignis $ A_2$ : Augenzahl ist nicht durch 3 teilbar. Also $A_2 = \{1;2;4;5 \} $
Ereignis $A_3$ : Kleinste oder größte Augenzahl. Also $A_3 = \{1;6 \} . $
Ereignis $A_4$ : Augenzahl durch 7 ohne Rest teilbar. Also $A_4 = \{ \} $ (leere Menge).

Nicht jedes Zufallsexperiment liefert nur abzählbar viele mögliche Ergebnisse.

Beispiel: Eine Getränkeabfüllmaschine füllt 1 l Flaschen.
Das Ergebnis eines Abfüllvorgangs ist eine nichtnegative reelle Zahl, nämlich das Volumen z.B. in Liter gemessen. Also $ \Omega = I\!\! R_+ . $ Ähnliche Beispiele sind Ergebnisse von Arbeiten von Maschinen, die Werkstücke auf ein bestimmtes Maß bringen sollen, etwa durch Ablängen oder Hobeln/Fräsen. Ergebnis des Zufallsexperimentes "befülle eine Flasche" ist also eine Füllmenge A, die idealerweise um den Mittelwert 1 l "streut" und, wenn die Maschine korrekt eingestellt ist, bei
sehr vielen Flaschen nicht signifikant vom Mittelwert $\mu $ abweicht. Hier sind bereits einige Begriffe der Statistik angerissen, siehe unten. Die genaue Abfüllmenge ist hier nicht wesentlich, sondern ob das Ergebnis in einem bestimmten Intervall liegt, siehe 3. Die Wahrscheinlichkeitsrechnung liefert uns also einen Rahmen, um dieses Experiment zahlenmäßig zu modellieren und zu erfassen. Die Aufgabe der Statistik ist es dann, mit geeigneten Verfahren aus einer realen Stichprobe von abgefüllten Flaschen zu schätzen, ob die Maschine richtig eingestellt ist. $$ {\cal{P} } (\Omega) = \{ A | A \subseteq I\!\!R_+ \} = I\!\!R_+^{\Omega} . $$ Ein sinnvoll definiertes Ereignis wäre hier zum Beispiel $ A= [0,99; 1,01 ] $, d.h. die tatsächliche Füllmenge nach der Füllung soll (mit einer bestimmten Wahrscheinlichkiet) maximal um 1% von der vorgegebenen abweichen, falls der Verbraucher (Abnehmer) diese Toleranz akzeptabel findet.

3. Eine Funktion $P$ die jeder Ereignismenge eine Zahl im Intervall $ [ 0; 1 ] $ ,( bzw von 0% bis 100% ) zuordnet, das Wahrscheinlichkeitsmaß, kurz W-Maß. $$ P : {\cal P }(\Omega) \to [ 0; 1 ] $$ Für endliche Mengen $\Omega$ und falls jedes Elementarereignis dieselbe Wahrscheinlichkeit besitzt (Laplace-Annahme) wie hier der Münz- und Würfelwurf, also falls $$ P( \{\omega_1 \} ) = P( \{ \omega_2 \} ) \quad \mbox{für alle } \omega_{1,2} \in \Omega $$ gilt, gewinnt man diese Funktion durch einfaches Abzählen so:
$ |A | $ bezeichne die Anzahl der Elemente einer endlichen Menge $A$. Dann ist das zugehörige Wahrscheinlichkeitsmaß unter der Laplace-Annahme gegeben durch $$ P(A) = {|A| \over |\Omega| } $$ Übrigens kann man ausrechnen: $ | \cal{P}(\Omega) \ | =2^{|\Omega| } $
Beispiel Würfelwurf, Wahrscheinlichkeiten der Ereignisse von oben: $$ P(A_1) = 3/6 = 0,5; P(A_2) = 4/6 = 2/3; P(A_3) = 2/6 = 1/3., P(A_4) = 0/6 =0 .$$ Beim einmaligen Münzwurf bietet sich an: $ P( \{W \}) = P( \{Z \} ) = 1/2, P( \{W, Z \}) =1 .$

Getränkeabfüllung Bei dem Beispiel der Getränkeabfüllung (überabzählbare Menge $\Omega$ ) wird das W-Maß des Ereignisses
A= "die Abfüllmenge einer Flasche liegt zwischen 0,99 lund 1,01 l "
durch eine bekannte Verteilungsfunktion bestimmt. In diesem Fall dürfte (häufige Annahme, und durch statistische Tests erhärtet) die Gauß'sche Normalverteilung mit Mittelwert 1 dazu geeignet sein.
Die Wahrscheinlichkeit, dass das tatsächliche Volumen in einer Flasche zwischen 0,99 und 1,01 Litern liegt, beträgt dann $$ P(A) = P( [0,99; 1,01 ] ) = \int_{0,99}^{1,01} { 1 \over \sigma \sqrt{ 2\pi } } \exp \left( - { (x-1)^2 \over 2 \sigma^2 } \right) dx . $$ Dieses Integral ist nicht exakt berechenbar, Näherungswerte der Normalverteilung sind jedoch tabelliert. Genaueres siehe unten.

Das Tripel $$ (\Omega, { \cal P}(\Omega) , P) $$ bezeichnet man als Wahrscheinlichkeitsraum.

Einige Begriffe der Mengenlehre


$|A|$ bezeichnet dieAnzahl der Elemente einer Menge , auch Mächtigkeit der Menge,
$ \{ \} $ oder $ \emptyset $ bezeichnet die leere Menge.
$ A\subseteq B $ $A $ ist Teilmenge von $B$, auch $A=B$ zulässig. $ A \subset B $ $A$ ist echte Teilmenge von $B$.
$A\cap B = B \cap A $ Schnittmenge von $A, B$: Alle Elemente die zu $A$ und B gehören.
$A \cup B = B\cup A $ Vereinigungsmenge von $A,B$: Alle Elemente die zu $A$ oder B gehören.
Disjunkte Vereinigung $A \cup B $ wenn zusätzlich $A\cap B = \emptyset $ , alle Elemente die entweder zu $A$ oder zu $B$ gehören.
$ A \setminus B $ Differenzmenge: Alle Elemente die zu $A$, aber nicht zu $B$ gehören.
$ A\subseteq \Omega , \bar{A} = \Omega \setminus A $ Komplement(är)menge zu $A$ bzgl. $\Omega . $

Häufig verwendet man die disjunkte Zerlegung in folgender Form zur Berechnung von Wahrscheinlichkeiten: $$ A= (A \cap B) \cup (A\cap \bar{B} ) $$ $k $ herausgegriffene Elemente einer Menge $A = \{a_1; a_2 ; ...; a_n \} $ kann man zu sogenannten k-Tupeln $ (a_1, a_2, .., a_k) $ anordnen, auch geordnete Stichprobe vom Umfang k (k-Stichprobe) genannt. Kommt es nicht auf die Reihenfolge an, wählt man also aus $A$ eine k-elementige Teilmenge aus, so nennt man dies ungeordnete Stichprobe

Die Axiome von Kolmogorov
  1. $0 \le P(A) $ für alle $A \in {\cal A }$ (Nichtnegativität)
  2. $ P(\Omega) =1 $ (Normiertheit)
  3. Aus $A,B \in {\cal A } $ und $ A \cap B = \{ \} $ folgt $ P(A\cup B ) = P(A) + P(B) $ (Additivität).
Folgerungen zum Rechnen mit Wahrscheinlichkeiten
  1. $P( \emptyset ) = 0 $
  2. $ A \subseteq B \Rightarrow P(A) \le P(B) $ (Monotonie)
  3. $ P(A) \le 1 $
  4. $ P(A) + P(\Omega \setminus A ) =1 $. (Wahrscheinlichkeit des Gegenereignisses $ \bar{A} = \Omega \setminus A $ )
  5. $ P( B \setminus A ) = P(B) - P(A \cap B) $
  6. $ P(A\cup B ) = P(A) + P(B) - P(A\cap B ) $
Hinweis: Axiom 3. Wird oft so angewandt (disjunkte Zerlegung eines Ereignisses $A$) :
$$ P(A) = P((A \cap B) \cup (A\cap \bar{B} ) ) = P(A \cap B) + P (A\cap \bar{B} ) $$

Beispiel:
Illustration und Überprüfung dieser Regeln am Beispiel "Einmaliger Wurf einen idealen Würfels".
$ \Omega = \{ 1, ..., 6\}, |\Omega |=6 $
$A$ sei : Augenzahl höchstens 4, mindestens 2, $ A = \{2; 3, 4 \} $
$B$ sei: Augenzahl gerade $ B= {2; 4; 6 } $
$ C= A \cup B = \{ 2; 3; 4; 6 \} $
$ D = A \cap B = \{ 2; 4; \} $
$ P(C) = P(A) + P(B) - P(D) = (3+3-2)/6 = 4/6 $
$ P(\bar{B}) = P(\{ 1;3; 5\} ) = 1/2 = 1- 1/2 = 1 - P(B) $


Anmerkung. Kolmogorovs System bildet einen exakten und widerspruchfreien Rahmen zur Berechnung von Wahrscheinlichkeiten. Häufig ist es so, dass man diese auch (und oft schneller) ohne exakte Mengenbeschreibung aller auftretenden Ereignisse berechnen kann, etwa durch Formeln der Kombinatorik oder Baumdiagramme. Das Axiomensystem steht immer als Fundament darunter, auch wenn es nicht immer sichtbar ist. Wir werden aber dennoch zu Beginn häufig die Mengenbeschreibung nutzen, um zu zeigen, dass die Axiome Sinn machen.

Definition: Stochastische Unabhängigkeit von Ereignissen
Zwei Ereignisse $A, B$ eines Zufallsexperiments heißen (stochastisch) unabhängig, wenn folgende Bedingung erfüllt ist: $$ P(A \cap B) = P(A) \cdot P(B). $$

Dies ist zunächst nur eine formale Definition. Was der Begriff eigentlich bedeutet, erkennt man nur anhand von Fallbeispielen. Ein kleines Beispiel dazu, das wir unten (Thema Bedingte Wahrscheinlichkeit ) noch genauer beleuchten werden:
Nehmen wir an, ein Anteil von $p$ der Bevölkerung leidet an Übergewicht ($U$, z.B. definiert über BMI >27 oder andere Kriterien ) und ein Anteil von $q$ hat Diabetes, ($D$).
Übergewicht erhöht neben anderen Risikofaktoren wie etwa genetischer Disposition, metabolischem Syndrom etc. das Diabetesrisiko (Typ 2). Daher wird generell die Wahrscheinlichkeit, dass eine aus der Bevölkerung zufällig herausgegriffene Person (=Zufallsexperiment!) Übergewicht und Diabetes zugleich hat, also die Zahl $P(D\cap U )$, höher liegen, als das Produkt der Einzelwahrscheinlichkeiten $P(U )\cdot P(D) = p\cdot q.$

Zahlenbeispiel: Bevölkerung gesamt 100 , davon Diabetiker 5, Übergewichtige 30, Übergewichtige mit Diabetes 3. $$ P(U) = 0,3, P(D) = 0,05, P(D \cap U ) = 0,03 \gt P(U) \cdot P(D) = 0,05\cdot 0,3= 0,015 $$ Die Ereignisse D "eine zufällig herausgegriffene Person hat Diabetes" und U: "eine zufällig herausgegriffene Person hat Übergewicht" sind also nicht stochastisch unabhängig voneinander. Mehr dazu unter "Vierfeldertafel".
reale Zahlen

Zusammengesetzte Zufallsexperimente, Baumdiagramm, Urnenmodell

Die Wahrscheinlichkeitsrechnung bedient sich einiger vollständig analysierter Standardmodelle und Schemata, denen man dann reale Situationen zuordnen und mit deren Hilfe man dann viele andere Aufgabenstellungen lösen kann. Geeignete Abzählverfahren für $|\Omega| $ zur Ermittlung des Wahrscheinlickeitsmaßes $ P(A) = |A| / |\Omega| $ erhält man dabei oft durch Hilfsmittel der Kombinatorik.

Urnenmodell und kombinatorische Überlegungen




Urnenmodell Beispiel 1: In einer Urne befinden sich 4 verschiedene Kugeln, sagen wir nummeriert von 1 bis 4. Wir ziehen 2 Kugeln nacheinander und fragen nach der Wahrscheinlichkeit, eine 1 und eine 2 zu ziehen. Wir betrachten ein also ein Zufallsexperiment, das aus den zwei zusammengesetzten Experimenten "ziehe eine Kugel aus der Urne" besteht. Die Formulierung "Eine 1 und eine 2 wird gezogen" des Ereignisses und die bisherige Versuchsbeschreibung ist aber noch zu ungenau und lässt verschiedene Wahrscheinlichkeitsräume und Bewertungen zu. Wir müssen daher genau unterscheiden:

-Ziehen wir mit oder ohne Zurücklegen der Kugel nach dem 1. Zug?
-Kommt es uns auf die Reihenfolge der Kugeln an, also etwa zuerst eine 1 und dann eine 2 (geordnete Stichprobe), oder ist uns die Reihenfolge egal? (ungeordnete Stichprobe)


Versuch: Zweimal Ziehen aus 4 unterscheidbaren Kugeln mit Zurücklegen, Reihenfolge der Ziehung wird beachtet (geordnete Stichprobe)
Ereignis A: Zuerst eine 1, dann eine 2. Wahrscheinlichkeit? Diese kann man zunächst auch ohne das formale System von Kolmogorov berechnen.
Beim ersten Zug gibt es 4 verschiedene Möglichkeiten eine Kugel zu ziehen, nur eine davon ist die gewünschte 1. Die Wahrscheinlichkeit, die 1 zu ziehen unter der Laplace-Annahme "Alle Kugeln gleich wahrscheinlich" ist also $1/4.$
Beim 2. Zug sind wieder alle 4 Kugeln in der Urne, die Wahrscheinlichkeit für eine 2 ist ebenfalls $1/4.$
Als Gesamtwahrscheinlichkeit würde man intuitiv vermuten $ P(A) = (1/4) \cdot (1/4) = 1/16 . $

Wie ordnet sich das Experiment in das formale System von Kolmogorov ein, erhält man dieselbe W-Bewertung?
1. Schritt: $\Omega $ bestimmen.
Für jedes Teilexperiment hat man eine Menge von 4 Elementarereignissen (eine Kugel mit Nr 1..4 ). Diese Mengen sind hier gleich. $$ \Omega_1 = \Omega_2 = \{1, 2, 3, 4 \} $$ Die Elementarereignisse des 2-stufigen Gesamtexperiments ist die Menge aller Paare (2-Tupel) die man aus den Mengen $\Omega_{1,2} $ bilden kann, die sogenannte kartesische Produktmenge. Also alle Paare $ (1,1) ; (1,2) .. (1,4) ; (2,1) ; (2,2) .... $ usw. Formal: $$ \Omega = \Omega_1 \times \Omega_2 = \{ ( \omega_1, \omega_2) | \omega_1 \in \Omega_1, \omega_2 \in \Omega_2, \}, \quad |\Omega | =16 $$ Das Ereignis A:"erst 1 dann 2" wird dann repräsentiert durch die einelementige Menge $ A = \{(1,2) \} , |A|=1. $ Wenn wir davon ausgehen dürfen, dass alle Paare gleichwahrscheinlich sind, erhalten wir also $ P(A) = 1/16 . $
Zweimal Ziehen mit Zurücklegen, Ereignis B: 1 und 2 , aber die Reihenfolge ist egal, also auch "erst 2 dann 1" zulässig: $$ B = \{(1,2); (2,1 ) \} , \quad |B| = 2, \quad P(B) = 2/16 = 1/8 . $$ Ziehen mit Zurücklegen. Ereignis C: Mindestens einmal die 1 (egal ob im 1. oder 2. Zug) $$ C = \{ (1, 1) ; (1;2) ; (1;3) ; (1,4); (2;1); (3;1) ; (4;1) \} , |C| = 7, P(C) = 7/16 $$ Ziehen mit Zurücklegen. Ereignis D: Nie die 1 (weder im 1. noch im 2. Zug). Das ist das Komplentärereignis zu C, $ D = \bar{C} .$ Damit $P(D) = 1 - P(C) = 9/16 . $

Man kann dieses 2-stufige Experiment auch mit einem Baumdiagramm veranschaulichen und dort Berechnungen anstellen. Das ist manchmal einfacher und übersichtlicher als die Abzählung von Teilmengen, zumindest bei kleinen Mengen $\Omega .$ Unsere Beispiele illustrieren die Rechenregeln um zu den Wahrscheinlichkeiten für bestimmte Ereignisse zu gelangen:
- Wahrscheinlichkeiten entlang der Äste werden multipliziert.
- Wahrscheinlichkeiten an den Astenden werden addiert.
Summe der Wahrscheinlichkeiten an den Astenden ist Eins (da Summe alle Elementarereignisse des zweistufigen Experimentes).
Baumdiagramm


2. Fall: Ziehen ohne Zurücklegen.
Im Unterschied zum Ziehen mit Zurücklegen ist $\Omega $ hier nur eine echte Teilmenge der Produktmenge. Es fehlen alle Tupel mit zwei gleichen Zahlen, also $ (1,1) ; (2,2) ; (3,3), (4,4) $ da eine einmal gezogene Kugel jetzt nicht wieder gezogen werden kann. $$ \Omega = \{ (1,2) ; (1,3) ; (1,4); (2,1) ; (2,3) ; (2,4) ...... \} , |\Omega = 12 | $$ Formal geschrieben: $$ \Omega = \Omega_1 \times \Omega_2 = \{ ( \omega_1, \omega_2) | \omega_1 \in \Omega_1, \omega_2 \in \Omega_2, \omega_1 \ne \omega_2 \}, \quad |\Omega | =12 $$ Wir gehen dieselben Ereignisse wie zuvor durch
Ereignis A: Erst 1 dann 2 . $$ A= \{ (1,2) \} , \quad P(A) = |A| / |\Omega | = 1/12 . $$ Ziehen mit Zurücklegen, Ereignis B: 1 und 2 , aber die Reihenfolge ist egal, also auch "erst 2 dann 1" zulässig: $$ B = \{(1,2); (2,1 ) \} , \quad |B| = 2, \quad P(B) = 2/12 = 1/6 . $$ Ziehen mit Zurücklegen. Ereignis C: Mindestens einmal die 1 (egal ob im 1. oder 2. Zug) $$ C = \{ (1;2) ; (1;3) ; (1,4); (2;1); (3;1) ; (4;1) \} , |C| = 6, P(C) = 6/12 = 0,5. $$ Ziehen mit Zurücklegen. Ereignis D: Nie die 1 (weder im 1. noch im 2. Zug). Das ist das Komplentärereignis zu C, $ D = \bar{C} .$ Damit $P(D) = 1 - P(C) = 0,5 . $

Baumdiagramm


Fall: Ziehen ohne Zurücklegen, wenn nicht alle Kugeln verschieden sind.
Wir betrachten eine Urne mit 3 roten, 2 blauen und einer weißen Kugel und ziehen nacheinander alle 6 Stück. Zunächst nehmen wir an, die Kugeln seien zusätzlich durchnumeriert , etwa die 3 roten mit den Nummern 1, 2,3, die 2 blauen 4,5 und die weiße 6. Dann können wir zunächst wie in den 4 Fällen oben für Ziehen mit/ohne zurücklegen, geordnet nach Reihenfolge , die Möglichkeiten ermitteln. Gehen wir nach den Nummern, sind die Kugeln also alle verschieden, dann erhalten wir für das Experiment
"Ziehen von allen 6 Kugeln ohne zurücklegen, geordnet nach Reihenfolge des Zugs" genau $ 6! = 720 $ Möglichkeiten. Sehen wir nur noch die Farben, dann sind aber zum Beispiel die Ziehungen (1,2,3.....), (1,3,2....), (2,1,3.....) ..usw farblich alle gleich, weil nur rote Kugeln auf den ersten 3 Stellen auftauchen. I Im 6-Tupel der gesamten Ziehung stecken immer 3 Zahlen die zu den roten Kugeln gehören. Diese 3 Zahlen kann man beliebig vertauschen, erhält dann nur auf die Farbe bezogen immer dieselbe Ziehung. Denken wir uns die 3 Zahlen der roten Kugeln herausgezogen und in ein 3-Tupel geschrieben, so gibt es davon $3!$, also gibt es auch $3!$ Vertauschungsmöglichkeiten. Diese Vertauschungen (Permutationen) müssen wir also aus der Zahl der Möglichkeiten wieder herausdividieren. Ebenso für die Gleichheit bei den blauen Kugeln, hier $2!$
Allgemein: Wieviel Vertauschungsmöglichkeiten gibt es für ein k-Tupel mit k verschiedenen Einträgen? Das geht wie Ziehen ohne Zurücklegen:
$ k (k-1) (k-2) ...1 = k! $ Wir haben hier ein 3-Tupel für die roten und ein 2-Tupel für die blauen Kugeln. Wir erhalten also zum Beispiel für das Experiment
"Ziehe 3 Kugeln aus den 6 angegebenen (3 rot, 2 blau, 1 weiß ) ohne zurücklegen" die folgende Anzahl von Möglickeiten: $$ { 6! \over 3! \cdot 2! } = 60 $$ Achtung! Diese Formel überträgt sich nicht auf den Fall, dass wir weniger als 6 Kugeln ziehen.
Beispiel wie zuvor, wir ziehen jetzt aber nur 3 Kugeln ohne zurücklegen. Würden wir die Formel sinngemäß anwenden, erhielten wir $ 6\cdot 5 \cdot 4 / (3! \cdot 2!) = 10 $ Möglichkeiten. Das ist aber leider falsch. Man kann sich die 19 möglichen Ergebnisse hinschreiben oder ein Baumdiagramm zeichnen und zählen. Das zeigt auch, wo der Fehler liegt. Die Division durch $3!$ ist z.B. nur dann statthaft, wenn die 3 roten Kugeln immer in der Ziehung dabei waren, weil die zugehörigen Tupel aus Farbsicht dann äquivalent sind. Das ist bei 6 gezogenen immer der Fall, muss aber bei 3 gezogenen nicht mehr stimmen - da muss nicht mal eine einzige rote dabei sein. Man dividiert also hier immer zuviel heraus.
Allgemein: k-Stichprobe gezogen aus n Elementen. Die Beispiele des Urnenmodells enthalten bereits alle wesentlichen Fälle, wir müssen diese nur noch allgemein formulieren.
Aus einer Menge von $n$ Elementen (diese werden damit als unterscheidbar vorausgesetzt!) wird eine Stichprobe von $0\le k\le n $ Elementen gezogen. Wieviele Möglichkeiten gibt es dazu?


Ziehen von $k \le n $ aus $n$ Elementen mit Zurücklegen, die gezogenen Elemente werden in Reihe angeordnet (geordnete Stichprobe, Tupel gebildet).
Für jedes Element hat man $n$ Möglichkeiten, also nach k Zügen $$ n^k $$ verschiedene Tupel als mögliches Ergebnis.

Ziehen von $k \le n $ aus $n$ Elementen mit Zurücklegen, ungeordnete k-Stichprobe, Menge, die gezogenen Elemente werden nicht geordnet sondern nur als Menge betrachtet
Frage: Wieviel Tupel der Länge $k$ aus dem vorangegangene Beispiel enthalten jeweils dieselben Elemente (bilden also, als Menge betrachtet, dieselbe)? Aus einer Menge mit $k$ Elementen kann man genau $ k! = k (k-1) (k-2) ... 1 $ verschiedene Tupel bilden. Das entspricht einem Ziehen ohne Zurücklegen, geordnet. Für die 1. Stelle im Tupel hat man $k$, für die 2. k-1 , für die 3. k-2 Möglichkeiten. Von den $n^k $ verschiedenen Tupeln der geordneten Stichprobe sind also jeweils $k!$ identisch. Es gibt also nur $n^k/ k! $ Möglichkeiten.

Ziehen von $k \le n $ aus $n$ Elementen ohne Zurücklegen, geordnete k-Stichprobe, Tupel bilden
Für das 1. gezogene Element hat man $n$, für das 2. Element $n-1$ , für das 3. $n-2$ usw. , für das k.te Element $n-k+1$ Möglichkeiten. Insgesamt $$ { n! \over (n-k)! } $$ Ziehen von $k$ aus $n$ Elementen ohne Zurücklegen als ungeordnete k-Stichprobe.
Dieselbe Überlegung wie im Fall "mit Zurücklegen": Jeweils $k!$-Tupel ergeben dieselbe Menge. Damit $$ { n! \over k! \cdot (n-k)! } = { n \choose k } $$ Möglichkeiten.
Diese Zahlen heißen auch Binomialkoeffizienten, denn es gilt $$ (x+y)^n = \sum_{k=0}^n { n \choose k } x^k y^{n-k} $$ Für $x=y=1$ folgt daraus sofort $$ \sum_{k=0}^n { n \choose k } = 2^n $$ Das ist dann auch genau die Gesamtzahl aller 0, 1, 2, ...n-elementigen Teilmengen einer n-elementigen Menge $\Omega$, also die Mächtigkeit der Potenzmenge von $\Omega.$

Wir betrachten noch den Fall "Ziehen mehrfach vorhandener Kugeln" mit geordneter Stichprobe wie im letzten Urnenbeispiel oben. Es werden jetzt genau k aus insgesamt k nicht notwendigerweise verschiedenen Kugeln ohne Zurücklegen gezogen - oder allgemein ein k-Tupel aus insgesamt k nicht notwendigerweise verschiedenen Elementen gebildet. Kugel Nr $ l$ soll $k_l$ fach vorhanden sein. Man sagt: Die Elemente bilden $m$ Klassen, $k_l$ bezeichnet die Anzahl der Elemente der Klasse $l$, $ k_1 + k_2 + ...k_m=k $ Die Zahl der Möglichkeiten ist dann $$ { k! \over k_1! k_2! .... k_m! } $$



Beispiele /Aufgaben:

1. Wieviele "Wörter" mit 4 Buchstaben können Sie aus den Buchstaben A,B,C, D, E, F, G bilden, wenn
(a) Jeder Buchstabe höchstens einmal vorkommen soll,
(b) Jeder Buchstabe beliebig oft vorkommen darf?

2. Wieviele vierelementige Teilmengen können sie aus der Menge $ \{A,B,C, D, E, F, G \} $ auswählen?
3. Wieviele Buchstabenkombinationen mit 8 Buchstaben können Sie aus dem Wort "TEEKANNE" bilden. ?
4. Ein Güterzug wird aus 10 Waggons von 3 unterschiedlichen Typen zusammengestellt. Typ 1 soll fünfmal, Typ 2 dreimal und Typ 3 zweimal im Zug vorhanden sein. Wie viele Anordnungsmöglichkeiten gibt es?
5. Beim Sechserlotto werden 6 Zahlen aus 49 gezogen, ohne Zurücklegen. Wie groß ist die Wahrscheinlichkeit für 6 Richtige, den sog. "Sechser"?
Wie groß ist die Wahrscheinlichkeit für fünf Richtige (unter den 6 gezogenen ) ?
6. Wieviele Möglichkeiten gibt es 20 Fahrgäste auf die 20 nummerierten Sitzplätze eines Zugeabteils zu verteilen?
7. Wieviele Möglichkeiten gibt es, 10 Fahrgäste auf die 20 nummerierten Sitzplätze eines Zugabteils zu verteilen?

Bernoulli-Experimente: Zusammengesetzte Zufallsexperimente gleicher Art bei denen es jeweils nur 2 Alternativen gibt.

Beispiele: -Mehrfacher Münzwurf hintereinander,
-mehrfacher Zug aus einer Urne in der es nur 2 Kugelsorten gibt,
-Ziehen einer k-Stichprobe aus einer Menge von defekten und nichtdefekten Bauteilen, die eine Maschine produziert hat,
-Auswahl von Menschen als einem Kollektiv aus kranken und nichtkranken Menschen,
-Würfeln mit einem Würfel, wenn wir nur auf gerade und ungerade Augenzahlen achten usw.

Das Zufallsexperiment soll k-mal wiederholt werden. $$ \Omega_l = \{A ; \bar{A} \}, l=1...k, \quad \Omega = \Omega_1 \times \Omega_2 \times ... \Omega_k , $$ $$ |\Omega| = 2^k $$ $p= P(A) $ muss bekannt sein, dann kennen wir auch $ P( \bar{A} ) = 1- P(A) = 1-p .$

Beispiel: Eine Maschine produziert Bauteile, die mit einer Wahrscheinlichkeit von $p$ defekt sind. Wenn wir der Produktion (mit zurücklegen) nacheinander 3 Bauteile entnehmen, wie groß ist dann die Wahrscheinlichkeit, dass
(a) KD: Kein Bauteil defektes darunter ist?
(b) ED: Mindestens eines defekt ist?
(c) AD: Alle defekt sind?
(d) HED: Höchstens eines defekt ist?
$ KD = \{ (\bar{D}, \bar{D}, \bar{D} ) \} $ $$ P(KD) = (1-p)^3, \quad ED = \bar{KD} , P(ED) = 1-(1-p)^3, \quad P(AD) = p^3 , $$ zu HED: Höchstens eines defekt bedeutet: Entweder keines in der Stichprobe defekt ( D_0) oder genau eines defekt. (D_1) Offenbar $ HED= D_0 \cup D_1 $ und (wegen "entweder oder" ) $ D_0 \cap D_1 = \emptyset . $ Also addieren sich die Wahrscheinlichkeiten. $$ P(D_0) = P(KD) = (1- p)^3 $$ $D_1$ ereignet sich, wenn jeweils eines der gezogenen defekt ist - das kann das 1., 2., oder 3. sein. - und die anderen 2 nicht defekt sind. $$ D_1 = \{ (D, \bar{D}, \bar{D} ) , (\bar{D}, D, \bar{D} ), (\bar{D}, \bar{D}, D ) \} $$ also $P(D_1) = 3 p(1-p)^2 $ und damit $$ P(HD) = (1- p)^3 + 3 p(1-p)^2 $$ Zufallsexperimente diesen Typs nennt man Bernoulli-Experimente und sie führen zur Binomialverteilung. (s.u.) Ganz analog behandelt man die anderen genannten Beispiele.
Beispiel am Baumdiagramm für 3 Züge eine Bauteils mit Zurücklegen:

Bedingte Wahrscheinlichkeit, Vierfeldertafel

Betrachtet man mehrere Zufallsexperimente gemeinsam, etwa durch Hintereinanderausführung, dann kann es sein, dass die Wahrscheinlichkeiten im 2. Experiment von denen des 1. Experiments abhängen.
Ein Beispiel sind die Urnenmodelle ohne Zurücklegen. Wurde z.B. die rote Kugel beim 1. Zug aus der Urne gezogen, so reduziert sich ihre Zugwahrscheinlichkeit im 2. Zug, denn es sind nun weniger rote in der Urne (oder gar keine mehr).
Ähnlich ist es bei dem Beispiel zu Diabetikern. Betrachten wir die hintereinander ausgeführte Diagnosen der beiden Faktoren "Übergewicht" und "Diabetes" als zweistufiges Zufallsexperiment, so ist die Wahrscheinlichkeit der Diabetes bei einem Übergewichtigen höher, hängt also von der ersten Diagnose (=Ereignis), Übergewicht oder kein Übergewicht, ab.

Mit einem Baumdiagramm können wir dies verdeutlichen (siehe unten). Hingegen ist beim Urnenmodell mit Zurücklegen die Zusammensetzung der Kugeln in der Urne vor dem 1. Zug genau dieselbe wie vor dem 2. Zug. D.h. die Wahrscheinlichkeiten des 2. Experiments hängen nicht von denen des 1. Experiments ab.

Definition der bedingten Wahrscheinlichkeit

Hängt die Wahrscheinlichkeit eines Ereignisses $A$ von einem Ereignis $B$ ab, so schreiben wir $P(A|B) .$ (lies: Wahrscheinlichkeit von $A$ unter der Bedingung $B$) und es gilt die Beziehung $$ P(A|B) = { P(A\cap B ) \over P(B) } $$
Wegen $$ A = (A\cap B) \cup (A \cap \bar{B}) , \quad A\cap B \cap A \cap \bar{B} = \emptyset , \quad \Rightarrow P(A) = P(A\cap B) + P( A \cap \bar{B}) $$ folgt dann sofort der
Satz von der totalen Wahrscheinlichkeit
$$ P(A) = P(A|B)\cdot P(B) + P(A|\bar{B}) \cdot P(\bar{B}) $$ Ebenso gilt: $$ P(A|B) \cdot P(B) = P(A\cap B ) = P( B\cap A) = P(B|A) \cdot P(A) $$ Wir können damit $P(B|A) $ aus $ P(A|B) , P(A| \bar{B} ) $ und $P(B)$ berechnen. Formel von Bayes für 2 Ereignisse: $$ P(B|A) = { P(A|B) \cdot P(B) \over P(A) } = { P(A|B) \cdot P(B) \over P(A|B)\cdot P(B) + P(A|\bar{B}) \cdot P(\bar{B}) } $$
Für zwei Ereignisse (oder Merkmale) $A, B $ und ihre Komplementärereignisse, können wir alle Wahrscheinlichkeiten neben dem Baumdiagramm auch mit einer Vierfeldertafel verdeutlichen. Fehlende Wahrscheinlichkeiten kann man dabei aus angegebenen Daten, sofern ausreichend viele vorhanden sind, berechnen.

Wieder am Beispiel der Diabetes:
Angegeben waren oben $ P(U)=0,3, P(D) = 0,05 , P( U \cap D ) = 0,03 $. Diese Angaben genügen bereits.



Interpretation der Zahlen: Unter Übergewichtigen ist Diabetes doppelt so häufig ($P(D|U) = 0,1 $) wie im Gesamtkollektiv $P(D)=0,05 $. Wir können aus der Vierfeldertafel schnell alle bedingten Wahrscheinlichkeiten $ P(D|U), P(U|D) , P(U|\bar{D} ) $ usw. berechnen, und auch zum Beispiel $$ P(U\cup D) = P(U) + P(D) - P(U\cap D) $$ also die Wahrscheinlichkeit, dass eine ausgewählte Person Diabetes oder Übergewicht hat.

Tests auf Vorliegen einer Krankheit
Für viele Krankheiten gibt es standardisierte Diagnoseverfahren, sogenannte Tests.
$K$ bezeichne das Ereignis, dass ein Mensch an einer bestimmten Krankheit leidet, $T$ bedeute, dass der Test positiv ausfällt.

Mit zwei bedingten Wahrscheinlichkeiten kann man die Qualität eines Tests beschreiben.
Die Sensitivität $P(T|K) $ beschreibt die Wahrscheinlichkeit, dass der Test positiv ausfällt, wenn der Patient krank ist. Hohe Sensitivität bedeutet: Das Testverfahren reagiert sensitiv auf die Krankheit.
Die Spezifizät $ P(\bar{T}| \bar{K} ) $ gibt die Wahrscheinlichkeit an, dass der Test negativ ausfällt, wenn der Patien nicht krank ist. Das Testverfahren soll also spezifisch wirken in dem Sinne, dass Gesunde auch ein negatives Testresultat bekommen und sich nicht unnötig Sorgen über ihren Gesundheitszustand machen sollen.

Aus Patientensicht ist eine andere Frage wichtig: Wie wahrscheinlich ist es, dass er tatsächlich krank ist, wenn er ein positives Testergebnis erhält/erhalten hat, und diese Wahrscheinlichkeit $$ P(K|T) $$ sollte natürlich möglichst hoch sein.
Das ist bei seltenen Erkrankungen aber trotz scheinbar hoher Sensitivität und Spezifität eines Tests nicht immer der Fall. Ein Beispiel ist der ELISA Test auf HIV/Aids. Nach den Zahlen Berichts Robert Koch Instituts von 2014 waren damals ca 0,1% der Bevölkerung an HIV/Aids erkrankt (83400 von ca 82 Mio).
Bekannt: also $P(K) = 0,001, P(\bar{K}) = 1 - P(K) = 0,999 $, ferner

Sensitiviät ELISA Test $ P(T|K) = 0,999 $ , Spezifität: $ P(\bar{T}| \bar{K} ) = 0,998 $
Gesucht ist $ P(K|T) .$
Wir können diese Wahrscheinlichkeit über die Formel von Bayes, hier $$ P(K|T) = \frac{ P(T|K) \cdot P(K) }{ P(T|K)\cdot P(K) + P(T|\bar{K}) \cdot P(\bar{K}) } $$ wobei allerdings noch $$ P(T|\bar{K}) = { P(T \cap \bar{K}) \over P( \bar{K} ) } , \quad P(T \cap \bar{K}) = P( \bar{K}) - P( \bar{T} \cap \bar{K}) $$ zu ermitteln wäre - oder auch gleich übersichtlich mit der Vierfeldertafel durch Ergänzung fehlender Felder berechnen.
$ P(T\cap D) = P(T|K) \cdot P(K) = 0,999\cdot 0,001 , $
$ P(\bar{T} \cap \bar{K} ) = P(\bar{T}| \bar{K} )\cdot P(\bar{K}) = 0,998 \cdot 0,999 , $
$ P(T \cap \bar{K} ) = P(\bar{K} ) - P(\bar{T}| \bar{K} ) $ ergeben weitere Felder der Vierfeldertafel. Wenn wir ein Kollektiv von $10^6$ Menschen betrachten würden, dann ginge das für die Häufigkeiten sogar ganzzahlig.
$K$ $\bar{K} $
$T $ $ P(T\cap D) = 0,999\cdot 0,001 $ $ P(T \cap \bar{K} )= 0,002\cdot 0,999 $ $0,003 \cdot 0,999 =P(T) $
$\bar{T} $ $10^{-6} $ $0,998 \cdot 0,999 $ $ 1- 0,003 \cdot 0,999 =P(\bar{T}) $
$ 0,001 = P(K) $ $ 0,999=P(\bar{K}) $ $1$

Wir können nun berechnen: $$ P(K|T) = { P( K \cap T ) \over P(T) } = { 0,001 \cdot 0,999 \over 0,003 \cdot 0,999 } = { 1\over 3} \approx 0,33 $$ Das ist natürlich unbefriedigend. Wenn der Arzt einem beliebigen Patienten mitteilt, dass der Test positiv ausfiel, dann kann dieser Patient nur mit ca 33% Wahrscheinlichkeit davon ausgehen, dass er wirklich krank ist. $2/3$ der Patienten würden sich also unnötig therapieren lassen.
Deshalb wird in der Regel bei positivem ELISA-Test anschließend noch der Western Blot Test durchgeführt, um mehr Diagnosesicherheit zu erlangen. Dieser 2. Test operiert dann also mit einer Gruppe, bei der die Krankheitswahrscheinlichkeit immerhin $0,33$ beträgt. Das erhöht dann die Trefferquote drastisch, wie auch das nächste Beispiel zeigt.

Anders stellt sich nämlich die Situation dar, wenn der Patient schon weiß, dass er einer Risikogruppe angehört und die Krankheitswahrscheinlichkeit in dieser Risikogruppe bekannt ist. Aus dem Bericht des RK-Instituts geht nämlich hervor, dass von den 83400 HIV positiven immerhin 53800 zu einer bestimmten Gruppe gehören.
Zitat aus dem Bericht:
Bezogen auf das inländische Infektionsgeschehen sind Männer, die Sex mit Män­nern haben (MSM) mit geschätzten 53.800 derzeit lebenden In­fi­zier­ten nach wie vor die Hauptbetroffenengruppe
Wir unterstellen aus Illustrationsgründen einmal, dass die Größe dieser Gruppe 1 Mio ist. Das Krankheitsrisiko wäre also hier $ P(K) = 53.800 / 1 Mio = 0,0538 $. Das läge deutlich über der Wahrscheinlichkeit bei der Gesamtbevölkerung. Vermutlich würde es bei weiterer Eingrenzung der Gruppe (z.B. Alter 20-50, Großstadt, etc ) noch höher liegen.
Wir rechnen nun mit $ P(K) = 0,05 $ noch einmal das Beispiel durch.
$K$ $\bar{K} $
$T $ $ 0,999\cdot 0,05 $ $ 0,002\cdot 0,95 $ $0,05 \cdot 0,999 + 0,002 \cdot 0,95 $
$\bar{T} $ $ 0,001\cdot 0,05 $ $0,998 \cdot 0,95 $ $ 0,001\cdot 0,05 + 0,998 \cdot 0,95 $
$ 0,05 $ $ 0,95 $ $1$


$$ P(K|T) = { P( K \cap T ) \over P(T) } = { 0,05 \cdot 0,999 \over 0,05 \cdot 0,999 + 0,002 \cdot 0,95 } = { 999\over 1037 } \approx 0,963 $$ Durch zusätzliche A-Priori Information über den Probanden bzw. höhere Krankheitswahrscheinlichkeit der Testgruppe erhöht sich also die Trefferquote der Tests drastisch.



Diese Überlegungen gelten analog, wenn man etwa Produkte auf Ausschuss testet ($K$) und das Testverfahren (bzw der Tester) nur mit einer gewissen Wahrscheinlichkeit ein fehlerhaftes Produkt erkennt (Sensitivität $P(T|K) $ ) und auf nicht fehlerhafte nicht reagiert (Spezifität ) .
Wenn das Produktionsverfahren selber schon sehr ausschussarm arbeitet ($ d.h. P(K) $ klein ist), dann wird unter den vom Testverfahren als Ausschuss eingestuften Teilen eine hohe Quote doch nicht fehlerhaft sein. Bei höheren Ausschussquoten erhöht sich auch die Erfolgsquote des Tests.
Ziehen von Kugeln aus Urne P ohne Zurücklegen
In einer Urne liegen $m$ rote und $ k $ blaue Kugeln. Insgesamt also $ n= m+k $ Kugeln. Wir ziehen nacheinander 2 Kugeln ohne Zurücklegen. Gesucht sind die Wahrscheinlichkeiten für die Ereignisse
1.$A_1$ Es werden insgesamt eine rote und eine blaue Kugel gezogen.
2. $ A_2 $ Es wird höchstens eine rote Kugel gezogen.
Benennung Ereignis : Rote Kugel im Zug $i: R_i, i=1,2 $ , Blaue: $B_i = \bar{R}_i $
Baumdiagramm zeichnen!
Aus den Angaben und der Überlegung, dass beim Zug einer bestimmten Kugel danach sich die bedingten Wahrscheinlichkeiten für den nächsten Zug ändern, erhalten wir: $$ P(R_1) = {m\over n } , \quad P(B_1) = { k \over n } $$ $$ P(R_2|R_1) = { m-1 \over n-1 } , \quad P(R_2 | B_1) = { m \over n-1 }, \quad P(B_2 | B_1) = { k-1 \over n-1 } , \quad P(B_2|R_1) = { k \over n-1 } , $$ Das Ereignis $A_1$ besteht aus 2 Elementarereignissen: Rote Kugel im ersten Zug und Blaue im zweiten oder umgekehrt, beide sind disjunkt, Wahrscheinlichkeiten addieren sich. $$ P(A_1) = P(B_1 \cap R_2) + P( R_1 \cap B_2 ) = P(R_2 | B_1) \cdot P(B_1) + P(B_2 | R_1) \dot P(R_1) = { m \over n-1 } \cdot { k \over n } + { k \over n-1 } \cdot {m\over n } $$ Das Ereignis $A_2$ besteht aus dem Ereignis $A_1 $ ( bei denen jeweils genau eine rote Kugel gezogen wird ) und dem Ereignis "keine rote Kugel = 2 Blaue hintereinander". Letzeres wieder über die bedingten Wahrscheinlichkeiten. $$ P(A_2) = P(A_1) + P(B_1 \cap B_2) = P(A_1) + { k-1 \over n-1 } \cdot {k\over n } $$ Anmerkung: Wenn wir es mit der Einordnung in das Kolmogorov-System genau nehmen: Hinter $R_1, R_2 $ stehen Mengen von Tupeln.
$R_1 = \{ (R, R), (R, B) \} $ usw. Man kann die Aufgabe also auch über Abzählen/Kombinatorik lösen.

Totale Wahrscheinlichkeit und Satz von Bayes allgemein für n Ereignisse.

Die Ereignisse $ A_1, ...., A_n $ heißen stochastisch (vollständig) unabhängig, wenn für jede nichtleere Teilmenge $ \{ l_1, .... , l_k \} \subseteq \{ 1, ...,n \} $ gilt $$ P(A_{l_1} \cap A_{l_2} \cap ..... A_{l_k}) = P( A_{l_1} )\cdot P( A_{l_2} ) \cdot ..... P( A_{l_k} ) $$ Bem: Aus der vollständigen Unabhängigkeit folgt die paarweise Unabhängigkeit von je 2 Ereignissen. Die Umkehrung gilt leider nicht. Man muss daher alle Indexkombinationen durchprüfen.


Multiplikationssatz für bedingte Wahrscheinlichkeiten (nicht unabhängige Ereignisse)
$$ P(A_1 \cap A_2 \cap ..... A_n) = P(A_1)\cdot P(A_2|A_1) \cdot P(A_3 | A_1\cap A_2) \cdot ...P(A_n| A_1 \cap A_2 \cap ..... A_n ) . $$
Totale Wahrscheinlichkeit
Die Mengen $ A_k , k=1, ..n $ sollen eine disjunkte Zerlegung (Partition) von $\Omega $ bilden, also $$ A_1 \cup A_2 \cup ..... A_n = \Omega, \quad A_k \cap A_l = \emptyset, k\ne l $$ Dann gilt für ein beliebiges Ereignis B $$ P(B) = \sum_{k=1}^n P(A_k) P(B|A_k) $$

Satz von Bayes
Die Mengen $ A_k , k=1, ..n $ sollen eine disjunkte Zerlegung (Partition) von $\Omega $ bilden, also $$ A_1 \cup A_2 \cup ..... A_n = \Omega, \quad A_k \cap A_l = \emptyset, k\ne l $$ Dann gilt für ein beliebiges Ereignis $B$ mit $P(B) \gt 0 $ und jedes Ereignis $A_i, i=1, .., n $ $$ P(A_i|B) = P(B|A_i)) \cdot { P(A_i) \over P(B) } = P(B|A_i)) \cdot { P(A_i) \over \sum_{k=1}^n P(A_k) P(B|A_k) } $$



Beispiel zur Anwendung der beiden Sätze Drei Maschinen A, B und C produzieren 60%, 30% bzw. 10% der Produktion eines Unternehmens. Der Auschussanteil betrage 2%, 3% und 5%. Ein zufällig der Produktion entnommenes Werkstück ist defekt (Ereignis D).
Wie hoch ist die Wahrscheinlichkeit, dass dieses defekte Teil auf Maschine C hergestellt wurde?
Gesucht: $P( C|D) . $
Ein Ausschussanteil 2% von Maschine A bedeutet: Wenn das Teil auf Maschine A hergestellt wurde, dann ist es defekt mit Wahrscheinlichkeit $P(D|A) = 0,02$, entsprechend für die anderen Maschinen: $P(D|B) = 0,03, P(D|C) = 0,05 .$ Aus den Produktionsanteilen lesen wir ab: $ P(A) = 0,6, P(B)= 0,3, P(C) = 0,1 $
Nach Definition der bedingten Wahrscheinlichkeit: $$ P( C|D) = { P(C\cap D) \over P(D) } = { P(D|C) \cdot P(C) \over P(D) } $$ Die Größen im Zähler sind bekannt. Die Zahl $P(D) $ im Nenner bekommen wir über den Satz von der totalen Wahrscheinlichkeit. $$ P(D) = P(D|A)\cdot P(A) + P(D|B)\cdot P(B) + P(D|C) \cdot P(C) = 0,026 $$ Damit $ P(C|D) = 0,05 \cdot 0,1 / 0,26 = 5/26 . $
3 oder mehr Kugeln aus Urne ziehen ohne Zurücklegen

.