Archiv der Kategorie: Wahrscheinlichkeitsrechnung

Tabelle Normalverteilung

Wie man die Verteilungstabelle abliest

Weil die Standardnormalverteilung so eine zentrale Rolle spielt (und, damit man sie nicht mit der Verteilungsfunktion von unstandardisierten Zufallsvariablen verwechselt), bekommt diese Verteilung meist einen eigenen Buchstaben, das griechische grosse Phi. Statt \(F(x)\) schreibt man in den meisten Büchern und Vorlesungen dann \(\Phi(z)\), wobei \(z\) für den standardisierten Wert steht.

Klausuraufgaben
Im eBook-Shop gibt es Klausuraufgaben zu diesem Thema!
Zu den eBooks

Um Platz zu sparen, ist in den meisten Büchern und Klausuren nur die rechte Hälfte der Verteilungsfunktion tabelliert.

aa

Die Verteilungsfunktion der Normalverteilung. In Tabellen findet man häufig nur die rechte Hälfte dieser Kurve, also ab \(\Phi(0)=0.5\).

Den Wert \(\Phi(z)\) für alle positiven \(z\) kann man nun einfach aus der Tabelle ablesen. Meistens sind die Tabellen so aufgebaut, dass in den Zeilen die ersten beiden Stellen für \(z\) stehen, und in 10 Spalten dann die zweite Nachkommastelle. Aus der Tabelle liest man also z.B. \(\Phi(0.01) = 0.5040\), oder \(\Phi(1.96) = 0.975\).

Um den Wert \(\Phi(z)\) für ein negatives \(z\), zum Beispiel \(\Phi(-1.5)\) zu erhalten, ist dann ein zusätzlicher Rechenschritt nötig, der in der folgenden Grafik erklärt ist.

s

So berechnet man die Verteilungsfunktion an negativen \(x\)-Stellen. Die beiden vertikalen Balken sind genau gleich hoch (nämlich \(\Phi(1.5)=0.93\)).

Da die Verteilungskurve nämlich symmetrisch um den Punkt (0, 0.5) ist, kann man sich dieses Tricks bedienen:

\[\Phi(-z) = 1-\Phi(z) \]

Man berechnet also die Verteilungsfunktion an der Stelle \(-1.5\), indem man den Wert für \(+1.5\) in der Tabelle findet, und ihn von 1 abzieht:

\[\Phi(-1.5) = 1-\Phi(1.5) = 1-0.933 = 0.067 \]

Zwischenaufgabe

Bestimme mit Hilfe der untenstehenden Tabelle \(\Phi(1)\), \(\Phi(-1)\), und \(\Phi(-1.96)\).

Lösung (klick)
  • \(\Phi(1)=0.8413\)
  • \(\Phi(-1) = 1-\Phi(1) = 1-0.8413 = 0.1587\)
  • \(\Phi(-1.96) = 1-\Phi(1.96) = 1-0.975 = 0.025\)

Sehr große Zahlen

Für Zahlen, die so groß (oder so klein im Negativen) sind, dass man sie nicht mehr in der Tabelle findet, kann man näherungsweise als Wahrscheinlichkeit „fast Null“ oder „fast Eins“ nehmen. An der Grafik der Verteilung oben kann man intuitiv verstehen, warum das so ist. Die Funktion nähert sich für sehr große Zahlen der 1 an, und für sehr kleine Zahlen der 0.

Als Formel ausgedrückt, falls man z.B: \(\Phi(15)\) berechnen will:

\[\Phi(15) \approx 1\]

\[\Phi(-15) \approx 0\]

Quantile ablesen

Quantile liest man genau andersherum aus der Verteilungstabelle ab, da die Quantilsfunktion ja genau die Umkehrfunktion der Verteilungsfunktion ist.

Wenn man direkt die ersten beiden Zellen der Tabelle betrachtet, ist also das 0.5000-Quantil der Standardnormalverteilung gleich 0.00. Das 0.5040-Quantil ist 0.01, und so weiter. Das 75%-Quantil liegt zwischen 0.67 und 0.68, da \(\Phi(0.67)=0.7486\) ist, und \(\Phi(0.68)=0.7517\).

Für die Quantile unter 50% muss man wieder über einen kurzen Umweg rechnen, da die Tabelle nur positive \(z\), und damit Quantile über 0.5 abbildet.

Für das \(\alpha\)-Quantil gilt: \(q_\alpha = -q_{1-\alpha}\). Das bedeutet: Möchte man das 20%-Quantil bestimmen, sucht man (weil es unter 50% liegt) in der Verteilungstabelle stattdessen das (1-0.2)-Quantil, also das 80%-Quantil, und nimmt den negativen Wert des Ergebnisses. Das 80%-Quantil ist also 0.84, und das 20%-Quantil ist somit -0.84.

Zwischenaufgabe

Bestimme das 97.5%-Quantil sowie das 2.5%-Quantil der Standardnormalverteilung.

Lösung (klick)

Die Verteilungsfunktion hat an der Stelle \(z=1.96\) den Wert \(\Phi(1.96)=0.975\). Daher ist das 97.5%-Quantil gleich 1.96.

Das 2.5%-Quantil (nennen wir es \(q_{0.025}\) ist nun \(-q_{1-0.025} = -q_{0.975}\), also -1.96.

Die Tabelle der Standardnormalverteilung

\(\downarrow\) z-Werte Zweite Nachkommastelle \(\rightarrow\)
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7703 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986

Poissonverteilung: Anzahl an Toren pro Fußballspiel

Idee

Die Poissonverteilung ist eine diskrete Verteilung, mit der man die Anzahl von Ereignissen in einem gegebenen Zeitintervall modellieren kann. Ein schönes Beispiel ist die Anzahl von Toren, die Verein \(A\) innerhalb eines Fußballspiels schießt. Andere Anwendungen sind etwa die Anzahl an Bankkunden, die innerhalb eines Tages am Schalter ankommen, oder die Anzahl an Schadensfällen, die in einem Monat bei einer Versicherung eingehen.

Man zählt in jedem dieser Fälle die Anzahl der Ereignisse, die in einem fest vorgegebenen Zeitintervall eintreten, und möchte die Wahrscheinlichkeiten modellieren, mit der \(x\) Ereignisse in diesem Zeitraum auftreten.

Klausuraufgaben
Im eBook-Shop gibt es Klausuraufgaben zu diesem Thema!
Zu den eBooks

Parameter

Die Poissonverteilung hat nur einen Parameter, nämlich \(\lambda\). Er bezeichnet die durchschnittlich zu erwartende Anzahl an Ereignissen (also den Erwartungswert). Eine poissonverteilte Zufallsvariable \(X\) bezeichnet man dann durch

\[ X \sim \text{Po}(\lambda) \]

Man könnte nun zum Beispiel für 100 Fußballspiele vom Verein \(A\) die Anzahl seiner geschossenen Tore notieren, und deren Mittelwert ausrechnen. Wenn der Mittelwert 1.2 Tore sind, dann wäre in diesem Fall \(X \sim \text{Po}(1.2)\).

Träger

Bei einem Poisson-Experiment können zwischen null und unendlich viele Ereignisse eintreten. Im Beispiel mit dem Fußballspiel sind theoretisch unbegrenzt viele Tore möglich. Der Träger einer poissonverteilten Zufallsvariable ist also

\[ \mathcal{T}(X) = \{ 0, 1, 2, \ldots \} \]

Dichte

Die Wahrscheinlichkeit, dass bei einer poissonverteilten Zufallsvariable mit dem Parameter \(\lambda\) genau \(x\) Ereignisse auftreten, berechnet man über die Dichte zu

\[ f(x) = \frac{\lambda^x}{x!} \exp (-\lambda) \]

Dabei bezeichnet \(x! \) die Fakultät von \(x\). Falls man die Wahrscheinlichkeit für 0 Ereignisse berechnen möchte, tritt hier \(0! \), die Fakultät von null, auf. Das ist definitionsgemäß gleich eins.

Im Beispiel mit dem Fußballverein berechnet man etwa die Wahrscheinlichkeit, dass Verein \(A\) genau zwei Tore schießt, zu

\[ f(2) = \frac{1.2^2}{2!} \exp (-1.2) = 0.217 \]

asdf

Die Dichte der Poissonverteilung für die Anzahl der von Team \(A\) geschossenen Tore in einem Spiel, mit \(\lambda=1.2\). Die \(x\)-Achse ist hier bei 7 abgeschnitten: Höhere Werte als \(x=7\) sind theoretisch möglich, aber sehr unwahrscheinlich. Man sieht hier auch, dass mit der höchsten Wahrscheinlichkeit ein Tor geschossen wird.

Zwischenaufgabe

Angenommen, die Anzahl der Tore von Team \(A\) ist tatsächlich poissonverteilt mit \(\lambda=1.2\). Ein Freund wettet um 10€ mit dir, dass das Team im folgenden Spiel genau ein Tor schießt, da das die Anzahl mit der höchsten Wahrscheinlichkeit ist. Solltest du diese Wette annehmen?

Lösung (klick)

Deine Gewinnwahrscheinlichkeit ist die Summe aller einzelnen Wahrscheinlichkeiten \(f(x)\) für \(x\) Tore, außer für \(x=1\). Man kann natürlich nicht \(f(0)+f(2)+f(3)+f(4)+\ldots\) berechnen, sondern geht hier wieder mit der Gegenwahrscheinlichkeit vor. Wir berechen also nicht \(\mathbb{P}(\text{alles ausser ein Tor})\), sondern stattdessen äquivalent \(1-\mathbb{P}(\text{ein Tor})\):

\[ 1 – f(1) = 1 – \frac{1.2^1}{1!} \exp (-1.2) = 1-0.3614 = 0.639 \]

Da wir mit einer Wahrscheinlichkeit von etwa 63,9% gewinnen, sollten wir diese Wette also annehmen. Obwohl das Ereignis mit der höchsten einzelnen Wahrscheinlichkeit ein Tor ist, so ist es doch wahrscheinlicher, dass irgendein anderes Ergebnis eintritt.

Verteilungsfunktion

Für die Verteilungsfunktion gibt es keine bequeme Formel. Man muss für \(F(x) = \mathbb{P}(X \leq x)\) die einzelnen Werte der Dichtefunktion von 0 bis \(x\) aufsummieren:

\[ F(x) = f(0) + f(1) + \ldots + f(x) = \sum_{k=0}^x f(k) \]

Die Wahrscheinlichkeit dass unser Verein höchstens zwei Tore schießt, berechnet man also durch

\[ \begin{align*} F(2) &= f(0) + f(1) + f(2) \\&= \frac{1.2^0}{0!} \exp(-1.2) + \frac{1.2^1}{1!} \exp(-1.2) + \frac{1.2^2}{2!} \exp(-1.2) \\&= 0.301 + 0.361 + 0.217 \\&= 0.879 \end{align*} \]

asdf

Die Verteilungsfunktion für die Anzahl der Tore von Verein \(A\). Man sieht, dass die Wahrscheinlichkeit \(F(4)\) für maximal vier Tore schon sehr nahe an der 1 liegt, dass es also andersherum sehr unwahrscheinlich ist, dass Team \(A\) in einem Spiel mehr als vier Tore schießt.

Erwartungswert und Varianz

Der Parameter \(\lambda\) einer poissonverteilten Zufallsvariable ist zugleich Erwartungswert und Varianz dieser Verteilung:

\[ \begin{align*} \mathbb{E}(X)&=\lambda \\ \mathbb{V}(X)&=\lambda \end{align*} \]

Eigenschaften

Die folgenden Regeln sind hilfreich für kompliziertere Aufgaben mit der Poissonverteilung.

  1. Wenn die Anzahl der Tore von Verein \(A\) innerhalb eines 90-minütigen Spiels poissonverteilt mit \(\lambda = 1.2\) ist, dann ist die Anzahl der Tore innerhalb der ersten Halbzeit auch poissonverteilt, aber mit \(\lambda = 0.6\).
    Allgemein gesagt: Wenn der betrachtete Zeitraum mit einem Faktor \(n\) multipliziert wird, ist die Anzahl der Ereignisse in diesem Zeitraum poissonverteilt mit dem Parameter \(\lambda \cdot n\).
  2. Die Wahrscheinlichkeit, dass mindestens ein Ereignis eintritt, ist das Gegenteil der Wahrscheinlichkeit dass gar kein Ereignis auftritt, und somit \(1-f(0)\).
    Verein \(A\) schießt also mit einer Wahrscheinlichkeit von \(1-\frac{1.2^0}{0!} \exp (-1.2) = 0.699\) mindestens ein Tor.
  3. Wenn die Anzahl der Tore von Verein \(A\) poissonverteilt mit \(\lambda_A=1.2\), und die Anzahl der Tore seines Gegners, Verein \(B\), poissonverteilt mit \(\lambda_B=0.6\) ist, dann ist die Gesamtzahl der gefallenen Tore im Spiel von \(A\) gegen \(B\) wieder poissonverteilt mit \(\lambda = \lambda_A + \lambda_B = 1.8\).
    Allgemein gilt: Die Summe zweier unabhängiger poissonverteilten Zufallsvariablen \(A\) und \(B\) mit den Parametern \(\lambda_A\) und \(\lambda_B\) ist poissonverteilt mit dem Parameter \(\lambda = \lambda_A+\lambda_B\).

Der Satz von Bayes

Der Satz von Bayes ist eine hilfreiche Regel, um bedingte Wahrscheinlichkeiten der Form \(\mathbb{P}(A|B)\) auszurechnen, wenn nur „andersherum“ bedingte Wahrscheinlichkeiten der Form \(\mathbb{P}(B|A)\) gegeben sind.

Klausuraufgaben
Im eBook-Shop gibt es Klausuraufgaben zu diesem Thema!
Zu den eBooks

Herleitung des Satzes von Bayes

Der Satz von Bayes erweitert die bekannte Formel für bedingte Wahrscheinlichkeiten:

\[ \mathbb{P}(A|B) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)} \]

Falls die im Zähler stehende gemeinsame Wahrscheinlichkeit nicht gegeben ist, kann man sie auch durch den Multiplikationssatz bestimmen:

\[ \mathbb{P}(A \cap B) =\mathbb{P}(A | B) \cdot\mathbb{P}(B)\]

Diese Regel ergibt sich durch das Umstellen der Formel für die bedingte Wahrscheinlichkeit. Da in der Notation die Reihenfolge bei zwei gemeinsam eintretenden Ereignissen egal ist, d.h. \(\mathbb{P}(A \cap B) = \mathbb{P}(B \cap A)\), gilt der Multiplikationssatz auch mit umgekehrten Buchstaben:

\[ \mathbb{P}(A \cap B) =\mathbb{P}(B | A) \cdot\mathbb{P}(A)\]

Genau diese Formel wird nun im Zähler ersetzt, und man erhält den Satz von Bayes:

\[ \mathbb{P}(A|B) = \frac{\mathbb{P}(B | A) \cdot\mathbb{P}(A)}{\mathbb{P}(B)} \]

Falls \(\mathbb{P}(B)\) nicht gegeben ist

In manchen Aufgaben ist die Wahrscheinlichkeit \(\mathbb{P}(B)\) im Nenner nicht gegeben. Dann muss man sie über einen Umweg mit dem Satz der totalen Wahrscheinlichkeit herleiten.

Für den Spezialfall von nur zwei Aufteilungen von \(A\) ersetzt man den Nenner also wie folgt:

\[ \mathbb{P}(A|B) = \frac{\mathbb{P}(B | A) \cdot\mathbb{P}(A)}{\mathbb{P}(B|A) \cdot \mathbb{P}(A) +\mathbb{P}(B|\bar{A}) \cdot \mathbb{P}(\bar{A})} \]

Beispielaufgabe

Eine neu entwickelte Maschine kann gefälschte Geldscheine erkennen. Wir definieren das Ereignis \(A\): „Die Maschine schlägt Alarm“, und Ereignis \(F\): „Der Geldschein ist falsch“.

Wir möchten nun herausfinden, wie hoch die Wahrscheinlichkeit ist, dass ein Geldschein tatsächlich eine Fälschung ist, gegeben die Maschine schlägt Alarm. Gesucht ist also

\[ \mathbb{P}(F|A). \]

Die Maschine wurde anhand vieler echter und unechter Scheine getestet. Man fand heraus, dass die Maschine bei einem falschen Schein mit 96% Sicherheit Alarm schlägt. Allerdings gibt die Maschine auch bei 1% der echten Geldscheine Alarm. Wir wissen also:

  • \(\mathbb{P}(A|F) = 0.96\)
  • \(\mathbb{P}(A|\bar{F}) = 0.01\)

Zusätzlich ist bekannt, dass 0,01% aller im Umlauf befindlichen Geldscheine Fälschungen sind. Das heißt:

  • \(\mathbb{P}(F) = 0.0001\)

Aufgaben dieser Art lassen sich mit dem Satz von Bayes lösen, da \(\mathbb{P}(A|F)\) gegeben, aber \(\mathbb{P}(F|A)\) gesucht ist. Wir starten also mit der Formel von Bayes (adaptiert mit den Buchstaben für unsere Ereignisse):

\[ \mathbb{P}(F|A) = \frac{\mathbb{P}(A|F) \cdot\mathbb{P}(F)}{\mathbb{P}(A)} \]

Die beiden Faktoren im Zähler sind in der Aufgabe gegeben, wir können sie also einfach einsetzen: \(\mathbb{P}(A|F) = 0.96\) und \(\mathbb{P}(F) = 0.0001\).

Im Nenner fehlt uns noch \(\mathbb{P}(A)\), die nicht-bedingte Wahrscheinlichkeit, dass die Maschine Alarm schlägt. Diese Wahrscheinlichkeit ist nicht gegeben, aber wir haben die beiden bedingten Wahrscheinlichkeiten, dass die Maschine Alarm schlägt, gegeben der Geldschein ist echt bzw. falsch. Wir können \(\mathbb{P}(A)\) also mit dem Satz der totalen Wahrscheinlichkeit berechnen:

\[ \begin{align*}\mathbb{P}(A) &=\mathbb{P}(A|F)\cdot \mathbb{P}(F) +\mathbb{P}(A|\bar{F})\cdot \mathbb{P}(\bar{F}) \\ &= 0.96 \cdot 0.0001 + 0.01 \cdot 0.9999 \\ &= 0.010095 \end{align*} \]

Die Maschine schlägt also insgesamt in etwas über 1% aller Fälle Alarm. Mit diesem Wert können wir nun die gesuchte bedingte Wahrscheinlichkeit berechnen, dass ein Geldschein gefälscht ist, gegeben die Maschine schlägt Alarm:

\[ \mathbb{P}(F|A) = \frac{\mathbb{P}(A|F) \cdot\mathbb{P}(F)}{\mathbb{P}(A)} = \frac{0.96 \cdot 0.0001}{0.010095} = 0.0095\]

Dieser Wert ist erschreckend: Wenn die Maschine Alarm schlägt, ist der betreffende Geldschein nur zu etwa 0,95% eine Fälschung, und umgekehrt zu etwa 99,05% ein echter Geldschein.

Dieses Phänomen lässt sich dadurch erklären, dass sich sehr viel mehr echte als falsche Geldscheine im Umlauf befinden, und dass also ein Alarm viel wahrscheinlicher fälschlicherweise bei einem echten Geldschein gegeben worden ist als korrekterweise bei einem gefälschten Schein. Um eine verlässliche Maschine zu bauen, muss man also entweder die Wahrscheinlichkeit für einen Fehlalarm senken, oder die Genauigkeit beim tatsächlichen Erkennen gefälschter Scheine erhöhen.

Klausuraufgabe

Die Rot-Grün-Blindheit ist eine angeborene Sehschwäche, die bei etwa 9% aller Jungen, aber nur bei 0,6% aller Mädchen auftritt. Wir nehmen hier an, dass ein neugeborenes Kind zu 51% ein Junge wird, und zu 49% ein Mädchen.

Eine Mutter erzählt dir, dass ihr Kind eine Rot-Grün-Blindheit hat. Bestimme nun die Wahrscheinlichkeit, gegeben dieser Information, dass es sich um einen Jungen handelt.

Hinweis: Gesucht ist die Wahrscheinlichkeit \(\mathbb{P}(J | B)\), mit den Ereignissen \(J\)=“Kind ist ein Junge“ (d.h. \(\bar{J}\)=“Kind ist ein Mädchen“) und \(B\)=“Kind hat Rot-Grün-Blindheit“. Verwende den Satz von Bayes, um diese Wahrscheinlichkeit zu ermitteln. Auf dem Weg dorthin begegnest du \(\mathbb{P}(B)\), der Wahrscheinlichkeit, dass irgendein Kind unter der Rot-Grün-Blindheit leidet. Das ermittelst du mit dem Satz der totalen Wahrscheinlichkeit.

Lösung (klick)

Gegeben sind in dieser Aufgabe die folgenden Wahrscheinlichkeiten:

  • \(\mathbb{P}(B|J) = 0.09\)
  • \(\mathbb{P}(B|\bar{J}) = 0.006\)
  • \(\mathbb{P}(J) = 0.51\)
  • \(\mathbb{P}(\bar{J}) = 0.49\)

Die gesuchte Wahrscheinlichkeit \(\mathbb{P}(J|B)\) erhalten wir wieder über den Satz von Bayes:

\[ \mathbb{P}(J|B) = \frac{\mathbb{P}(B|J) \cdot\mathbb{P}(J)}{\mathbb{P}(B)} \]

Bis auf \(\mathbb{P}(B)\) können wir alle Werte direkt einsetzen. Für \(\mathbb{P}(B)\) verwenden wir den Satz der totalen Wahrscheinlichkeit:

\[ \mathbb{P}(B) =\mathbb{P}(B|J) \cdot \mathbb{P}(J) +\mathbb{P}(B|\bar{J}) \cdot \mathbb{P}(\bar{J}) = 0.09 \cdot 0.51 + 0.006 \cdot 0.49 = 0.04884 \]

Damit erhalten wir die gesuchte Wahrscheinlichkeit:

\[ \mathbb{P}(J|B) = \frac{\mathbb{P}(B|J) \cdot\mathbb{P}(J)}{\mathbb{P}(B)} = \frac{0.09 \cdot 0.51}{0.04884} = 0.9398 \]

Das Kind ist also zu etwa 94% ein Junge, wenn man die Information hat, dass es rot-grün-blind ist.

 

 

 

Anleitung zum Rechnen mit Wahrscheinlichkeiten

Das Umgehen mit Wahrscheinlichkeiten gehört zum essentiellen Handwerkszeug in den einführenden Statistikklausuren. Die wichtigsten Regeln, die verwendet werden, wurden in früheren Artikeln bereits besprochen:

Laplace-Wahrscheinlichkeit \(\mathbb{P}(A) =\frac{\text{Anzahl der }\mathrm{f\ddot{u}r }A\text{ „}\mathrm{g\ddot{u}nstige}\text{“ Ergebnisse}}{\text{Anzahl aller } \mathrm{m\ddot{o}glichen}\text{ Ergebnisse}}\)
Bedingte Wahrscheinlichkeit \(\mathbb{P}(A|B) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}\)
Totale Wahrscheinlichkeit \(\mathbb{P}(A) =\mathbb{P}(A | B) \cdot \mathbb{P}(B) +\mathbb{P}(A | \bar{B}) \cdot \mathbb{P}(\bar{B})\)
Multiplikationssatz \(\mathbb{P}(A \cap B) =\mathbb{P}(A | B) \cdot\mathbb{P}(B)\)
Multiplikationssatz für unabhängige Ereignisse \(\mathbb{P}(A \cap B) =\mathbb{P}(A) \cdot\mathbb{P}(B)\)
Satz von Bayes \(\mathbb{P}(A|B) = \frac{\mathbb{P}(B | A) \cdot\mathbb{P}(A)}{\mathbb{P}(B)}\)
Klausuraufgaben
Im eBook-Shop gibt es Klausuraufgaben zu diesem Thema!
Zu den eBooks

Welche Formel man in einer bestimmten Situation braucht, kann man herausfinden, indem man die Aufgabe systematisch angeht:

  1. Benenne die Ereignisse und Wahrscheinlichkeiten der Aufgabe mit Buchstaben, falls noch keine gegeben sind.
  2. Notiere in Formelschreibweise, was gesucht ist (z.B.: \(\mathbb{P}(B|C)\)).
  3. Notiere in Formelschreibweise, welche Werte gegeben sind.
  4. Suche die Formeln heraus, in denen sowohl die gesuchten als auch die gegebenen Werte vorkommen.

Dazu ist es hilfreich, noch ein paar zusätzliche Regeln zu kennen (wenn sie nicht schon offensichtlich sind):

  • \(\mathbb{P}(\bar{A}) = 1-\mathbb{P}(A)\). Mit \(\bar{A}\) ist die Gegenwahrscheinlichkeit von \(A\) gemeint. Das ist natürlich genau die Wahrscheinlichkeit, die auf die Gesamtsumme von 1 fehlt, denn \(\mathbb{P}(A) + \mathbb{P}(\bar{A}) = 1\).
  • \(\mathbb{P}(A \cup B) =\mathbb{P}(A)+\mathbb{P}(B) -\mathbb{P}(A \cap B)\). Die Wahrscheinlichkeit \(\mathbb{P}(A \cup B)\), dass also entweder \(A\) oder \(B\) eintritt (oder auch beide Ereignisse gleichzeitig), ist deren Summe, minus der Wahrscheinlichkeit dass beide Ereignisse eintreten. Diese Formel kann man sich an einem Venn-Diagramm gut selbst herleiten.

Ab und zu muss man mit den gegebenen Werten erst ein Zwischenergebnis berechnen, bevor man das letztendliche Ergebnis erhalten kann. Das ist zum Beispiel beim Satz von Bayes der Fall, wo man im Nenner die Wahrscheinlichkeit \(\mathbb{P}(A)\) erst über den Satz der totalen Wahrscheinlichkeit berechnen muss. Die folgende Beispielaufgabe illustriert dieses Vorgehen:

Beispielaufgabe

In einer Spielwarenfabrik stehen drei Maschinen 1, 2, und 3, die mit unterschiedlicher Geschwindigkeit Spielzeugsoldaten herstellen. Jede Maschine produziert mit einer bestimmten Wahrscheinlichkeit ein fehlerhaftes Spielzeug, das in der Qualitätskontrolle aussortiert werden muss:

Maschine 1 2 3
Anteil an der Gesamtproduktion 0.15 0.40 0.45
Anteil fehlerhafter Soldaten 0.10 0.02 0.01

Man sieht, dass die Maschine 1 ein älteres Stück ist, das langsamer und fehleranfälliger arbeitet.

Angenommen, man hält nun einen fehlerhaften Spielzeugsoldaten in der Hand. Wie hoch ist die Wahrscheinlichkeit, dass er von Maschine 1 kommt?

Lösungsansatz

Um diese Aufgabe zu lösen, gehen wir wie oben beschrieben Schritt für Schritt vor. Zuerst stellen wir die Aufgabe in Formelschreibweise dar:

Ereignisse benennen
Die Ereignisse „Ein Soldat wurde von Maschine 1 produziert“ können wir einfach \(M_1\), \(M_2\), und \(M_3\) nennen. Das Ereignis „Ein produzierter Soldat ist fehlerhaft“ nennen wir \(F\), somit ist das Ereignis „Ein Soldat ist in Ordnung“ das Gegenereignis \(\bar{F}\).
Gesuchter Wert
Gesucht ist die Wahrscheinlichkeit, dass ein Soldat von Maschine 1 produziert wurde, gegeben er ist fehlerhaft, also: \(\mathbb{P}(M_1|F)\).
Gegebene Werte
Gegeben sind zum Einen die A-priori-Wahrscheinlichkeiten, dass ein beliebiger Soldat von Maschine 1, 2, bzw. 3 kommt. Das sind einfach die Werte \(\mathbb{P}(M_1)=0.15\), \(\mathbb{P}(M_2)=0.40\) und \(\mathbb{P}(M_3)=0.45\). Zusätzlich sind die Anteile fehlerhafter Soldaten die bedingte Wahrscheinlichkeit für \(F\), gegeben der Maschine, also \(\mathbb{P}(F|M_1)=0.10\), \(\mathbb{P}(F|M_2)=0.02\), und \(\mathbb{P}(F|M_3)=0.01\).
Hilfreiche Formeln
Wir sehen, dass eine bedingte Wahrscheinlichkeit gesucht ist, und die „andersrum“ bedingten Wahrscheinlichkeiten gegeben sind. Das sind Aufgabentypen, die mit dem Satz von Bayes gelöst werden können:
\[ \mathbb{P}(A|B) = \frac{\mathbb{P}(B|A)\mathbb{P}(A)}{\mathbb{P}(B)} \]

In dieser Aufgabe beginnen wir also mit dem Satz von Bayes und unseren Ereignissen:

\[ \mathbb{P}(M_1|F) = \frac{\mathbb{P}(F|M_1)\mathbb{P}(M_1)}{\mathbb{P}(F)} \]

Alle diese Werte sind aus der Angabe bekannt, bis auf \(\mathbb{P}(F)\), die Wahrscheinlichkeit, dass ein beliebiger Soldat fehlerhaft ist. Um diese Wahrscheinlichkeit aus den gegebenen Werten zu berechnen, bietet sich der Satz der totalen Wahrscheinlichkeit an:

\[\begin{align*} \mathbb{P}(F) &=\mathbb{P}(F|M_1)\mathbb{P}(M_1) +\mathbb{P}(F|M_2)\mathbb{P}(M_2) +\mathbb{P}(F|M_3)\mathbb{P}(M_3) \\ &= 0.10 \cdot 0.15 + 0.02 \cdot 0.40 + 0.01 \cdot 0.45 \\&= 0.0275 \end{align*}\]

Es sind also insgesamt etwa 2,75% aller Soldaten fehlerhaft. Diesen Wert können wir nun in die Bayes-Formel einsetzten, um die gesuchte Wahrscheinlichkeit zu erhalten:

\[ \mathbb{P}(M_1|F) = \frac{\mathbb{P}(F|M_1)\mathbb{P}(M_1)}{\mathbb{P}(F)} = \frac{0.10 \cdot 0.15}{0.0275} = 0.545 \]

Ein beliebiger defekter Soldat kommt also mit einer Wahrscheinlichkeit von über 50% von Maschine 1. Obwohl diese Maschine nur 15% aller Soldaten produziert, kommen mehr als die Hälfte aller defekten Soldaten von ihr.

Unabhängigkeit von Ereignissen

Wenn zwei Ereignisse \(A\) und \(B\) voneinander abhängig sind, dann liefert das Eintreten von \(A\) hilfreiche Information über die Wahrscheinlichkeit des Eintretens von \(B\). Dazu zwei Bespiele:

Die Augenfarbe und Haarfarbe einer Person sind voneinander abhängig. Wenn ich z.B. weiß, dass Ereignis \(A\): „eine Person hat schwarze Haare“, eingetreten ist, dann macht das das Ereignis \(D\): „diese Person hat braune Augen“, viel wahrscheinlicher als wenn sie blonde Haare hätte. In diesen Beispiel ist \(A\) von \(D\) abhängig (und umgekehrt auch \(D\) von \(A\)).

Ein Beispiel für zwei unabhängige Ereignisse wäre das Ereignis \(A\): „Eine Person hat schwarze Haare“ und das Ereignis \(C\): „Diese Person ist über 1,70m groß“. Oder, wenn man es auf die Spitze treiben will: das Ereignis \(A\): „eine Person hat schwarze Haare“ und Ereignis \(B\): „Gestern hat es geschneit“ sind ganz bestimmt voneinander unabhängig.

Klausuraufgaben
Im eBook-Shop gibt es Klausuraufgaben zu diesem Thema!
Zu den eBooks

Sobald man mehr als ein Ereignis betrachtet, ist es essentiell zu wissen ob diese Ereignisse voneinander abhängig sind oder nicht. Die Unabhängigkeit zweier Ereignisse ist ein wichtiges Konzept, da sie viele Berechnungen immens vereinfacht. Sind zum Beispiel zwei Ereignisse voneinander unabhängig, kann man ihre gemeinsame Wahrscheinlichkeit viel einfacher berechnen als wenn sie abhängig sind.

Vereinfachungen wenn zwei Ereignisse unabhängig sind

  1. Wenn zwei Ereignisse voneinander unabhängig sind, ist die bedingte Wahrscheinlichkeit gleich der unbedingten Wahrscheinlichkeit:
    \[ \mathbb{P}(A|B) = \mathbb{P}(A) \] Dieses Gesetz gilt auch umgekehrt:
    \[ \mathbb{P}(B|A) = \mathbb{P}(B) \] Das leuchtet ein, da das Eintreten von \(B\) keine genauere Information über das Eintreten von \(A\) (oder umgekehrt) liefert. Um auf das oben aufgeführte Beispiel zurückzugreifen: Die bedingte Wahrscheinlichkeit dass eine Person schwarze Haare hat, gegeben es hat gestern geregnet, ist genau gleich der unbedingten Wahrscheinlichkeit, dass eine Person schwarze Haare hat. Die Tatsache dass es gestern geregnet hat, liefert keine zusätzliche Information. (Anders wäre es mit Ereignis \(D\): „diese Person hat braune Augen“. Das wäre eine hilfreiche Information.)
  2. Außerdem kann man bei zwei unabhängigen Ereignissen die gemeinsame Wahrscheinlichkeit für das Eintreten beider Ereignisse einfach durch das Produkt der einzelnen Wahrscheinlichkeiten berechnen:
    \[ \mathbb{P}(A \cap B) = \mathbb{P}(A) \cdot \mathbb{P}(B) \] Falls zwei Ereignisse abhängig sind, gilt diese Formel nicht, sondern man verwendet in einem der beiden Faktoren die bedingte Wahrscheinlichkeit:
    \[ \mathbb{P}(A \cap B) = \mathbb{P}(A|B) \cdot \mathbb{P}(B) \] Für unabhängige \(A\) und \(B\) reduziert sich der erste Faktor zur unbedingten Wahrscheinlichkeit, da in diesem Fall \(\mathbb{P}(A|B) = \mathbb{P}(A)\) gilt.

Der Satz der totalen Wahrscheinlichkeit

Mit dem Satz der totalen Wahrscheinlichkeit kann man die Wahrscheinlichkeit für ein Ereignis \(A\) berechnen, wenn man nur bedingte oder gemeinsame Wahrscheinlichkeiten abhängig von einem zweiten Ereignis \(B\) gegeben hat.

Klausuraufgaben
Im eBook-Shop gibt es Klausuraufgaben zu diesem Thema!
Zu den eBooks

Als Beispiel sei hier die Parkinson-Krankheit genannt. Da mehr Männer als Frauen an Parkinson erkranken, sind hauptsächlich geschlechtsspezifische Zahlen veröffentlicht. Möchte man aber die Wahrscheinlichkeit der Erkrankung für eine zufällige Person unabhängig vom Geschlecht bestimmen, braucht man dafür den Satz der totalen Wahrscheinlichkeit. Mit Hilfe der Erkrankungsrate pro Geschlecht, dem Verhältnis von Frauen und Männern in der Gesamtbevölkerung, und der entsprechenden Formel erhält man dann die Gesamtwahrscheinlichkeit einer Parkinsonerkrankung.

In einem Venn-Diagramm kann man das Aufteilen einer totalen Wahrscheinlichkeit wie folgt illustrieren:

venn_totaleWsk_gesamt

Es ist also

\[\mathbb{P}(A) = \mathbb{P}(A \cap B) + \mathbb{P}(A \cap \bar{B}). \]

In unserem Beispiel der Parkinson-Krankheit hieße das: Die Wahrscheinlichkeit für eine beliebige Person, an Parkinson zu erkranken, setzt sich zusammen als die Summe der Wahrscheinlichkeit, ein Mann zu sein und an Parkinson zu erkranken, plus die Wahrscheinlichkeit, eine Frau zu sein und an Parkinson zu erkanken.

Meist sind nicht die gemeinsamen Wahrscheinlichkeiten \(\mathbb{P}(A \cap B)\), sondern die bedingten Wahrscheinlichkeiten \(\mathbb{P}(A | B)\) gegeben. Man kann die gemeinsamen Wahrscheinlichkeiten aber erhalten, indem man die Formel der bedingten Wahrscheinlichkeiten etwas umstellt:

\[ \mathbb{P}(A \cap B) = \mathbb{P}(A | B) \cdot \mathbb{P}(B) \]

Wir erhalten also die verbreitetste Version der Formel für die totale Wahrscheinlichkeit:

\[\mathbb{P}(A) =\mathbb{P}(A | B) \cdot \mathbb{P}(B) +\mathbb{P}(A | \bar{B}) \cdot \mathbb{P}(\bar{B}). \]

Je nachdem, ob in einer Aufgabe die bedingten oder die gemeinsamen Wahrscheinlichkeiten gegeben sind, nimmt man die eine oder andere dieser beiden Formeln. In den allermeisten Fällen arbeitet man aber mit bedingten Wahrscheinlichkeiten.

Beispielaufgabe

Mit dieser Formel können wir nun für eine zufällige Person beliebigen Geschlechts die totale Wahrscheinlichkeit berechnen, an Parkinson zu erkranken. Wir benötigen dazu die folgenden Notationen:

  • \(A\): Die Person erkrankt an Parkinson
  • \(B\): Die Person ist männlich.
  • \(\bar{B}\): Das Gegenteil von \(B\), also: Die Person ist weiblich.

Aus einer Onlinepublikation über die Prävalenz von Parkinson erhalten wir die folgenden Wahrscheinlichkeiten:

  • Die Wahrscheinlichkeit für einen Mann, an Parkinson zu erkranken, liegt bei 0,309%. In unserer Formel bedeutet das: \(\mathbb{P}(A|B) = 0.00309\).
  • Die Wahrscheinlichkeit für eine Frau, an Parkinson zu erkranken, liegt bei 0,241%. Analog dazu: \(\mathbb{P}(A|\bar{B}) = 0.00241\).
  • Es gibt minimal mehr Männer in der Gesamtbevölkerung, nämlich 51,1%. Also: \(\mathbb{P}(B) = 0.511\).

Mit diesen Werten können wir nun die Gesamtwahrscheinlichkeit für eine beliebige Person berechnen:

\[\begin{array}{rclcl} \mathbb{P}(A) & = & \mathbb{P}(A | B) \cdot \mathbb{P}(B) +\mathbb{P}(A | \bar{B}) \cdot \mathbb{P}(\bar{B}) = \\ & & 0.00309 \cdot 0.511 + 0.00241 \cdot 0.489 = \\ & & 0.00275748 \end{array}\]

Wir enden also bei einer Wahrscheinlichkeit von 0,276% für eine Person beliebigen Geschlechts, an Parkinson zu erkranken. Wichtig ist hier, dass das nicht genau der Mittelwert zwischen \(\mathbb{P}(A|B) = 0.00309\) und \(\mathbb{P}(A|\bar{B}) = 0.00241\) ist, sondern dass diese Werte mit dem Geschlechterverhältnis gewichtet werden, das zwar nahe an 50/50 liegt, aber eben nicht genau gleich ist.

Mehr als zwei Gruppen in \(B\)

Man kann die totale Wahrscheinlichkeit auch bestimmen, wenn es sich um mehr als zwei Gruppen handelt. Dann arbeitet man nicht mit den beiden Ereignissen \(B\) und \(\bar{B}\), sondern z.B. mit drei Ereignissen \(B_1\), \(B_2\), und \(B_3\). Wichtig ist hier, dass diese Gruppen disjunkt sind, d.h. dass sie sich nicht überschneiden. Die Folge dieser Voraussetzung ist, dass sich ihre Wahrscheinlichkeiten zu 1 summieren, dass also jedes mögliche Ereignis in eines, und genau eines der drei Unterereignisse fällt:

\[ \mathbb{P}(B_1) +\mathbb{P}(B_2) +\mathbb{P}(B_3) = 1 \]

Für drei Untergruppen (und analog auch für beliebig viele Untergruppen) des Ereignisses \(B\) bestimmt man die totale Wahrscheinlichkeit wie folgt:

\[ \begin{array}{rclcl} \mathbb{P}(A) & = & \mathbb{P}(A|B_1)\cdot \mathbb{P}(B_1) + \\ & &\mathbb{P}(A|B_2)\cdot \mathbb{P}(B_2) + \\ & &\mathbb{P}(A|B_3)\cdot \mathbb{P}(B_3) \end{array} \]

Bedingte Wahrscheinlichkeiten

Mit Hilfe von bedingten Wahrscheinlichkeiten kann man die Wahrscheinlichkeit für ein Ereignis genauer bestimmen, wenn zusätzliche Information vorhanden ist. Diese zusätzliche Information ist ein anderes Ereignis, das schon eingetreten ist, und wodurch wir nun eine genauere Einschätzung der Wahrscheinlichkeit haben.

Klausuraufgaben
Im eBook-Shop gibt es Klausuraufgaben zu diesem Thema!
Zu den eBooks

Dazu ein Beispiel: Möchten wir an einem Junitag die Wahrscheinlichkeit \(\mathbb{P}(A)\) bestimmen, dass morgen ein sonniger Tag wird, können wir zum Beispiel das Wetter an allen Junitagen der letzten zehn Jahre anschauen, und abzählen, an wievielen dieser Tage die Sonne schien. Wir können aber eine genauere Aussage über diese Wahrscheinlichkeit machen, wenn wir zusätzlich wissen dass es heute stark regnet. Wenn wir das Ereignis „Heute regnet es“ mit dem Buchstaben \(B\) bezeichnen, können wir die Wahrscheinlichkeit dass es morgen sonnig wird, gegeben heute regnet es stark, ausdrücken durch

\[ \mathbb{P}(A|B). \]

Man spricht diese Schreibweise aus als „Die Wahrscheinlichkeit von \(A\), gegeben \(B\)“.

Veranschaulichung an Venn-Diagrammen

Die Tatsache, dass man durch die Kenntnis des Eintretens von Ereignis \(B\) eine genauere Aussage über die Wahrscheinlichkeit des Eintretens von \(A\) machen kann, kann man mit Hilfe eines Venn-Diagramms veranschaulichen. Wenn wir wissen, dass \(B\) eingetreten ist, reduziert sich der gesamte Ergebnisraum \(\Omega\) auf \(B\):

venn_bedingteWsk

Links: Die Wahrscheinlichkeit für \(A\) ohne zusätzliche Information ist der ausgefüllte Kreis. Rechts: Wissen wir, dass \(B\) eingetreten ist, können wir die Wahrscheinlichkeit für \(A\) gegeben \(B\) berechnen. Die ausgefüllte Fläche in der Mitte ist hier \(A \cap B\).

Die Idee hinter bedingten Wahrscheinlichkeiten ist einfach, aber deren Berechnung kann zu Beginn oft kompliziert sein. Mit etwas Übung ist dieses Thema aber auch leicht zu bewältigen.

Etwas Übung

Sehen wir uns für eine Beispielrechnung die Studenten einer Statistikvorlesung an. Wir beobachten, wieviele der Studenten auf die Klausur lernen bzw. nicht lernen, und wieviele der Studenten die Klausur bestehen. Uns interessiert am Ende die Wahrscheinlichkeit, die Klausur zu bestehen, gegeben man hat auf sie gelernt.

Wir haben insgesamt \(n=50\) Studenten beobachtet. Von ihnen haben 25 auf die Klausur gelernt, und die übrigen 25 haben nicht gelernt. 30 der Studenten haben die Klausur bestanden. Von den 25 Studenten, die nicht auf die Klausur gelernt haben, haben 10 Studenten bestanden, und die übrigen 15 sind durchgefallen.

Erstelle aus diesen Angaben zuerst eine Kreuztabelle der Merkmale \(L\)=“Auf die Klausur gelernt“ und \(B\)=“Klausur bestanden“.

Lösung (klick)
\(B\) = Bestanden \(\bar{B}\) = Nicht bestanden Summe
\(L\) = Gelernt 20 5 25
\(\bar{L}\) = Nicht gelernt 10 15 25
Summe 30 20 50

Angenommen, wir nehmen aus dieser Gruppe Studenten nun eine zufällige Person heraus, können wir für sie die Wahrscheinlichkeit \(\mathbb{P}(B)\) bestimmen, dass sie die Klausur bestanden hat. Von 50 Studenten haben 30 die Klausur bestanden:

\[ \mathbb{P}(B) = \frac{30}{50} = 0.6 \]

Wenn wir aber nun zusätzlich wissen, dass diese Person gelernt hat, befinden wir uns nur in der ersten Zeile der obigen Kreuztabelle (vergleiche auch die bedingten Häufigkeiten im Artikel zu Kreuztabellen). Von insgesamt 25 Studenten, die auf die Klausur gelernt haben, haben sie 20 Studenten bestanden. Es ist also

\[ \mathbb{P}(B|L) = \frac{20}{25} = 0.8, \]

und somit ist die Wahrscheinlichkeit, dass der Student bestanden hat, gegeben er hat auf die Klausur gelernt, 80%.

Mathematisch drückt man die obige Formel wie folgt aus:

\[ \mathbb{P}(B|L) = \frac{\mathbb{P}(B \cap L)}{\mathbb{P}(L)} \]

Das ist somit die allgemeine Formel für die bedingte Wahrscheinlichkeit. Meistens werden in einer Formelsammlung natürlich statt \(B\) und \(L\) die Buchstaben \(A\) und \(B\) verwendet, aber das ist nur eine Sache der Notation, und macht sonst keinen Unterschied.

Beispielaufgabe

Wir werfen einen normalen Würfel, und betrachten die Ereignisse \(A\) = „Es kommt eine gerade Zahl“, und \(B\) = „Es kommt eine Zahl kleiner oder gleich 3“.

a) Bestimme die Wahrscheinlichkeit für \(A\).
b) Bestimme die Wahrscheinlichkeit für \(A\), gegeben \(B\) ist bereits eingetreten.

Lösung (klick)

a) Durch einfaches Abzählen finden wir die Laplace-Wahrscheinlichkeit. Im Zähler steht die Anzahl der „gewünschten“ Ergebnisse, das ist die 2, 4, und 6, also insgesamt 3 Ergebnisse. Im Nenner steht die Anzahl aller möglichen Ergebnisse, das ist bei einem Würfel 6:

\[\mathbb{P}(A) = \frac{3}{6} = 0.5\]

b) Hier möchten wir \(\mathbb{P}(A|B)\) bestimmen. Das tun wir mit der Formel über \(\mathbb{P}(A|B) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}\).
Wir müssen jetzt also wieder durch Abzählen der Ereignisse die Laplace-Wahrscheinlichkeit für \(\mathbb{P}(A \cap B)\) sowie \(\mathbb{P}(B)\) bestimmen:

Für das Ereignis \(A \cap B\) brauchen wir im Zähler die Anzahl der Ergebnisse, die gerade und kleiner gleich 3 sind. Da kommt nur die Zahl 2 in Frage, d.h. nur ein mögliches Ergebnis – im Zähler steht also 1. Im Nenner steht die 6, da es bei einem Würfel 6 mögliche Ergebnisse gibt:

\[ \mathbb{P}(A \cap B) = \frac{1}{6} \]

Für das Ereignis \(B\) gibt es drei mögliche Ergebnisse, nämlich die 1, 2, und 3. Daher steht hier im Zähler die 3:

\[ \mathbb{P}(B) = \frac{3}{6} = \frac{1}{2} \]

Diese Werte können wir nun einsetzen und erhalten für die gesuchte Wahrscheinlichkeit:

\[ \mathbb{P}(A|B) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)} = \frac{1/6}{1/2} = \frac{1}{3} \]

Das bedeutet: Gegeben jemand hat uns schon verraten, dass das Ergebnis des Würfels eine Zahl kleiner gleich 3 ist, dann ist die Wahrscheinlichkeit dass die Zahl gerade ist, ein Drittel.

Das kann man sich auch leicht erklären: Nachdem unser Informant gesagt hat, dass der Würfel eine Zahl kleiner gleich 3 zeigt, wissen wir dass es nur noch drei mögliche Ergebnisse des Würfels gibt, nämlich die 1, 2, oder 3. Und nur eine davon ist gerade. Das heißt, eins von drei Ergebnissen ist für uns günstig, daher die letztendliche Wahrscheinlichkeit von \(\frac{1}{3}\).

Mengenlehre und Venn-Diagramme

Man verwendet Venn-Diagramme, um zwei oder mehrere Mengen und deren Beziehungen zueinander darzustellen. Man kann es auch gut dazu verwenden, um Regeln der Wahrscheinlichkeitsrechnung sehr einfach zu visualisieren, weshalb wir sie uns hier anschauen werden.

Klausuraufgaben
Im eBook-Shop gibt es Klausuraufgaben zu diesem Thema!
Zu den eBooks

Ein Venn-Diagramm für zwei Mengen \(A\) und \(B\) sieht wie folgt aus:

venn

Wir halten uns dabei durchgehend an ein beispielhaftes Zufallsexperiment:

Wir werfen einen Würfel, und notieren uns die Augenzahl. Die möglichen Ergebnisse sind also \(\{ 1, 2, 3, 4, 5, 6\}\) (die Menge aller möglichen Ereignisse wird mit \(\Omega\) bezeichnet). Wir definieren außerdem zwei Ereignisse \(A\) und \(B\):

\[ A: \text{Es wurde eine gerade Zahl }\mathrm{gew\ddot{u}rfelt} \]

\[ B: \text{Es wurde eine Zahl von 1 bis 3 }\mathrm{gew\ddot{u}rfelt} \]

Das Ereignis \(A\) beinhaltet also die Zahlen 2, 4, und 6, und das Ereignis \(B\) umfasst die 1, 2, und 3. Hier fällt auf, dass die 2 in beiden Ereignissen vorkommt. In unserem Venn-Diagram wären die Ereignisse so aufgeteilt:

venn-beispiel

Man sieht hier ein großes Rechteck, das das ganze „Universum“ \(\Omega\), also alle möglichen Ereignisse darstellt. Innerhalb aller möglichen Eregnisse befinden sich die Mengen \(A\) und \(B\), die jeweils nur einen Teil aller möglichen Ereignisse beschreiben. Im Kreis von \(B\) liegen zum Beispiel die 1, 2, und 3. Die 2 liegt zudem auch im Kreis von \(A\). Die 5 kommt weder in \(A\), noch in \(B\) vor, liegt also im Bereich von \(\Omega\), also außerhalb beider Kreise.

Die Menge \(B\) lässt sich nun durch diesen blauen Kreis darstellen:

venn-B

Wenn ich dich den Würfel rollen lasse, und sage, bei einem Ergebnis aus \(B\) hast du gewonnen, dann hoffst du also auf eine 1, 2, oder 3 als Ergebnis. Vergleiche dieses Bild nochmal mit dem oberen Bild, in dem die Zahlen eingetragen sind, falls du gerade nicht folgen konntest.

Die Menge \(\Omega\) ist, wie schon gesagt, die Menge aller möglichen Ereignisse:

venn-omega

Angenommen, du spielst nun dasselbe Spiel, aber ich sage dir dass du bei einem Ergebnis aus \(\Omega\) gewonnen hast, welche Zahlen sind also günstig für dich?

Lösung (klick)

Die Menge \(\Omega\) umfasst alle möglichen Ergebnisse, also die Zahlen 1, 2, 3, 4, 5, und 6. Du kannst also den Würfel rollen, und wegsehen, weil du auf jeden Fall gewinnst!

Der „nicht“-Operator

Wenn man am Gegenteil eines Ereignisses interessiert ist, setzt man einen Querbalken darüber. Am Beispiel des Ereignisses \(A\) sieht das so aus:

venn-A-neben-nicht-A

 

Links ist das Ereignis \(A\) abgebildet (welche Zahlen auf dem Würfel beinhaltet das?), und rechts sein Gegenteil, nämlich \(\bar{A}\). Überlege dir auch, welche Zahlen das Ereignis \(\bar{A}\) beinhaltet.

Lösung (klick)

Wenn \(A = \{2, 4, 6\}\), dann muss \(\bar{A}\) sein Gegenteil, also \(\bar{A}=\{1, 3, 5\}\) sein. Beachte, dass das nicht dasselbe wie \(B\) ist; wenn das noch nicht ganz klar ist, schau dir die Bilder von \(B\) sowie \(\bar{A}\) nochmal an!

Der „oder“-Operator (Vereinigungsmengen)

Möchte man die einzelnen Elemente zweier Mengen \(A\) und \(B\) in einen Topf werfen, also vereinigen, verwendet man dazu das Symbol \(\cup\). Die Menge aller Elemente, die in \(A\) oder \(B\) enthalten sind, ist also \(A \cup B\).

Versuche, die Menge \(A \cup B\) in einem Venn-Diagramm zu zeichnen. Überlege dir auch, welche Elemente sie beinhaltet (und welche nicht).

Lösung (klick)

Die Menge \(A \cup B\) enthält die Zahlen 1, 2, 3, 4, und 6. Es sind also alle Zahlen außer der 5 in dieser Vereinigungsmenge enthalten. Das Venn-Diagramm sieht wie folgt aus:

venn-A-oder-B

Die Zahl 2 kommt zwar in beiden Mengen, \(A\) und \(B\) vor, ist aber in der Vereinigungsmenge nur einmal enthalten: \(A \cup B = \{ 1,2,3,4,6 \}\).

Der „und“-Operator (Schnittmengen)

Mit dem „und“-Operator \(\cap\) bezeichnet man die Schnittmenge zweier Mengen \(A\) und \(B\). Man erhält als Ergebnis nur die Elemente, die sowohl in \(A\) als auch in \(B\) enthalten sind:

venn-A-und-B

Für unser Beispiel mit den Würfeln bedeutet das: In \(A \cap B\) sind die Zahlen enthalten, die sowohl gerade als auch kleiner oder gleich 3 sind – also nur die 2: \(A \cap B = \{2\}\).

Kombinationen von Operatoren

Mit diesen drei Operatoren, der Vereinigungs- und Schnittmenge sowie der Negation (also dem Querbalken), kann man nun zusammen jede mögliche Kombination der beiden Mengen \(A\) und \(B\) erstellen. Zum Beispiel kann man sich alle Elemente ansehen, die zwar in \(A\), aber nicht in \(B\) enthalten sind:

venn-A-und-nicht-B

Diese Menge \(A \cap \bar{B}\) enthält die Zahlen 4 und 6, da das die geraden Zahlen aus \(A\) sind, die nicht in der Menge \(B\) vorkommen.

Eine weitere Möglichkeit, diese Menge darzustellen, ist mit dem Differenzoperator \(\setminus\). Es bedeutet also \(A \setminus B\) „A ohne B“, also dasselbe wie \(A \cap \bar{B}\).

Zwei abschließende Aufgaben zum Verständnis

(a) Zeichne die Menge \(B \cup \bar{A}\) in einem Venn-Diagramm und bestimme, um welche Zahlen auf dem Würfel es sich in unserem Beispiel handelt.

(b) Zeichne die Menge \(\bar{A} \cap \bar{B}\) und bestimme ebenso die resultierende Menge im Beispiel.

Lösung (klick)

(a) Hier handelt es sich um alle Zahlen, die in \(B\) enthalten sind, oder nicht in \(A\). In \(B\) sind die Zahlen 1, 2, und 3, und in \(\bar{A}\) sind die Zahlen 1, 3, und 5 enthalten. Die Vereinigungsmenge daraus ist also \(B \cup \bar{A} = \{1, 2, 3, 5\}\).

 

venn-B-oder-nicht-A

(b) Die Menge \(\bar{A} \cap \bar{B}\) bezeichnet alle Elemente, die weder in \(A\), noch in \(B\) enthalten sind. Das ist nur die Zahl 5.

venn-nicht-A-und-nicht-B

Die Menge \(\bar{A} \cap \bar{B}\) lässt sich übrigens äquivalent als \(\overline{A \cup B}\) ausdrücken. Das ist eine der Rechenregeln für Mengenoperationen, auf die wir hier aber nicht näher eingehen.

Wahrscheinlichkeiten mit Venn-Diagrammen

Man kann nun Laplace-Wahrscheinlichkeiten mit Venn-Diagrammen illustrieren. Möchte ich in dem oben verwendeten Beispiel die Wahrscheinlichkeit für das Ereignis \(B \cup \bar{A}\) bestimmen, können wir durch ein Venn-Diagramm schnell bestimmen, dass das Ereignis \(B \cup \bar{A}\) die Zahlen 1, 2, 3 und 5 auf dem Würfel umfasst. Das sind 4 verschiedene Ergebnisse von 6 möglichen Ergebnissen, also ist

\[ \mathbb{P}(B \cup \bar{A}) = \frac{4}{6} = \frac{2}{3} \]

Beachte aber, dass das einfache Abzählen (also die Idee „4 von 6 möglichen Ergebnissen, das heißt eine Wahrscheinlichkeit von \(\frac{4}{6}\)“) nur bei Laplace-Experimenten funktioniert, d.h. nur bei Experimenten, wo jedes mögliche Ergebnis mit derselben Wahrscheinlichkeit auftritt.

Was ist eine Wahrscheinlichkeit?

Eine Wahrscheinlichkeit ist ein Maß für die möglichen Ergebnisse eines Zufallsexperiments. Bei einem Zufallsexperiment wissen wir, welche möglichen Ereignisse eintreten können (z.B. „morgen regnet es“ und „morgen scheint die Sonne“), aber wir wissen noch nicht, welches Ereignis auftritt. Mit Wahrscheinlichkeiten können wir aber jedem Ereignis eine Art Gewicht geben, und z.B. beschreiben, dass morgen ziemlich sicher die Sonne scheint (mit einer Wahrscheinlichkeit von 90%), und es ziemlich sicher nicht regnet (nämlich nur mit 10%).

Klausuraufgaben
Im eBook-Shop gibt es Klausuraufgaben zu diesem Thema!
Zu den eBooks

Wahrscheinlichkeiten können ausgedrückt werden durch

  • Prozentzahlen wie z.B. 50%,
  • Brüche, wie z.B. \(\frac{1}{2}\), oder
  • Dezimalzahlen wie 0.5

Alle drei Darstellungen bedeuten dasselbe, und sind daher auch richtig. Welche man verwendet, bleibt einem selbst überlassen.

Verschiedene Definitionen der Wahrscheinlichkeit

Eine immer wieder gesehene Klausuraufgabe frägt nach den verschiedenen Auffassungen bzw. Definitionen der Wahrscheinlichkeit. Für die gibt es nämlich keine eindeutige Beschreibung, sondern mehrere. Vier davon sehen wir uns hier an:

Laplace-Wahrscheinlichkeit

Diese Definition der Wahrscheinlichkeit setzt voraus, dass alle elementaren Ergebnisse die gleiche Wahrscheinlichkeit haben. Es ist also möglich bei Zufallsexperimenten wie einem Münzwurf (Kopf und Zahl je mit Wahrscheinlichkeit 0.5), oder einem Rouletterad (die Zahlen 0 bis 36 mit jeweils einer Wahrscheinlichkeit von 1/37).

Die Laplace-Wahrscheinlichkeit für ein Ereignis \(E\) ist definiert als

\[ \mathbb{P}(E) = \frac{\text{Anzahl der „}\mathrm{g\ddot{u}nstigen}\text{“ Ergebnisse}}{\text{Anzahl aller } \mathrm{m\ddot{o}glichen}\text{ Ergebnisse}} \]

Dazu eine Beispielaufgabe: Wie groß ist die Wahrscheinlichkeit, bei einem Roulettespiel eine schwarze Zahl zu erhalten? (Vergiss die „0“ nicht!)

Roulette_frz

Lösung (klick)

Das Ereignis \(E =\) „schwarze Zahl“ hat 18 Ergebnisse. Insgesamt gibt es 37 mögliche Ergebnisse. Die Laplace-Wahrscheinlichkeit ist also \(\mathbb{P}(E) = \frac{18}{37} = 48.6\%\).

Objektive oder frequentistische Wahrscheinlichkeit

Wenn man ein Experiment beliebig oft wiederholen kann (man lässt zum Beispiel ein Reiskorn auf ein Schachbrett fallen, und will wissen, mit welcher Wahrscheinlichkeit man im oberen linken Feld landet), kann man die relative Häufigkeit berechnen, indem man einfach die Anzahl der Treffer durch die Anzahl der gesamten Versuche teilt. Der Grenzwert dieses Bruchs, also der Wert der herauskommt wenn die Anzahl der Versuche unendlich groß wird, ist nun die gesuchte Wahrscheinlichkeit.

Dieses Konzept beschreibt die objektive, oder frequentistische Definition der Wahrscheinlichkeit.

Subjektive Wahrscheinlichkeit

Manchmal kann man Experimente nicht beliebig oft wiederholen. Die Aussage „Die Klausur bestehe ich zu 80%“ basiert z.B. auf einer subjektiven Wahrscheinlichkeitsauffassung, da sie geschätzt und nicht berechnet wurde.

Diese Wahrscheinlichkeit kann man auch als Grad persönlicher Überzeugung auffassen, so wie es der Bayes’sche Wahrscheinlichkeitsbegriff tut.

Axiomatische Definition (nach Kolmogorov)

Axiome sind Aussagen, die nicht bewiesen werden, sondern ohne Beweis vorausgesetzt werden. Mathematische Gebiete beruhen oft auf einigen wenigen Axiomen, mithilfe derer dann alles andere bewiesen wird.

Die drei Axiome, die die Wahrscheinlichkeitstheorie begründen sind die folgenden:

  1. Die Wahrscheinlichkeit für jedes erdenkliche Ergebnis liegt zwischen 0 und 1 (jeweils einschließlich). Es gibt also keine Wahrscheinlichkeit von -0.5, und keine Wahrscheinlichkeit von 2.4.
  2. Ein Zufallsexperiment muß ein Ergebnis haben. Die Wahrscheinlichkeit, dass irgendein Ergebnis herauskommt, ist also 1.
  3. Die Wahrscheinlichkeit, dass irgendeines von zwei Ergebnissen eintritt, ist die Summe der Wahrscheinlichkeiten der beiden einzelnen Ergebnisse. Dies gilt nur, falls sich die beiden Ergebnisse gegenseitig ausschließen.
    Es ist also nicht gültig für \(E_1 = \text{Der }\mathrm{W\ddot{u}rfel}\text{ zeigt eine gerade Zahl}\) und \(E_2 = \text{Der }\mathrm{W\ddot{u}rfel}\text{ zeigt die 4}\), da falls \(E_2\) eintritt, automatisch auch \(E_1\) stimmt.
    Falls aber \(E_1 = \text{Der }\mathrm{W\ddot{u}rfel}\text{ zeigt eine gerade Zahl}\) und \(E_2 = \text{Der }\mathrm{W\ddot{u}rfel}\text{ zeigt die 1}\), so kann man die Wahrscheinlichkeit für \(E_1\) oder \(E_2\) als ihre Summe berechnen:
    \[ \mathbb{P}(E_1 \text{ oder } E_2) = \mathbb{P}(E_1) + \mathbb{P}(E_2) = \frac{3}{6} + \frac{1}{6} = \frac{4}{6} \]

Diese drei Axiome wurden natürlich in mathematischen Formeln verpackt. Man versteht diese Formeln am besten, wenn man sie mit der obigen Textinterpretation vergleicht. So sehen die dazugehörigen Formeln aus:

  1. \(0 \leq \mathbb{P}(E) \leq 1\) für alle möglichen Ereignisse \(E\).
  2. \(\mathbb{P}(\Omega) = 1\), wobei \(\Omega\) für das sichere Ereignis steht.
  3. Falls \(E_1 \cap E_2 = \emptyset\), dann ist \(\mathbb{P}(E_1 \cup E_2) = \mathbb{P}(E_1) + \mathbb{P}(E_2)\).