Wahrscheinlichkeitstheorie
Die Wahrscheinlichkeitstheorie oder Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik, das aus der Formalisierung der Modellierung und der Untersuchung von Zufallsgeschehen hervorgegangen ist. Gemeinsam mit der mathematischen Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik. Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariablen und stochastische Prozesse.
Axiomatischer Aufbau
Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie mengentheoretisch formuliert und auf axiomatischen Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind Ereignisse, die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.
Diese Definitionen geben keinen Hinweis darauf, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was Zufall und was Wahrscheinlichkeit eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen, ihre Ergebnisse sind dennoch exakt und vom jeweiligen Verständnis des Wahrscheinlichkeitsbegriffs unabhängig.
Definitionen
Konzeptionell wird als Grundlage der mathematischen Betrachtung von einem
Zufallsvorgang oder Zufallsexperiment
ausgegangen. Alle möglichen Ergebnisse dieses Zufallsvorgangs fasst man in der
Ergebnismenge
zusammen. Häufig interessiert man sich jedoch gar nicht für das genaue Ergebnis
,
sondern nur dafür, ob es in einer bestimmten Teilmenge der Ergebnismenge liegt
was so interpretiert werden kann, dass ein Ereignis eingetreten ist oder nicht.
Ein Ereignis ist also als eine Teilmenge
von
definiert. Enthält das Ereignis genau ein Element der Ergebnismenge, handelt es
sich um ein Elementarereignis.
Zusammengesetzte Ereignisse enthalten mehrere Ergebnisse. Das Ergebnis ist also
ein Element der Ergebnismenge, das Ereignis jedoch eine Teilmenge.
Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen
kann, werden sie in einem Mengensystem aufgeführt, der Ereignisalgebra oder dem
Ereignissystem
über
,
einer Menge von Teilmengen von
,
für die gilt: Sie enthält
und ist ein σ-Körper,
d.h., sie ist gegenüber den Mengenoperationen der Vereinigung und der
Komplementbildung (relativ bzgl.
)
abgeschlossen genauso wie gegenüber der unendlichen Vereinigung abzählbar vieler
Mengen. Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung
des Ereignisraums in das Intervall [0,1]. Solch eine Abbildung heißt Wahrscheinlichkeitsmaß.
Das Tripel
wird als Wahrscheinlichkeitsraum
bezeichnet.
Axiome von Kolmogorow
Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von Andrei Nikolajewitsch Kolmogorow entwickelt. Ein Wahrscheinlichkeitsmaß muss demnach folgende drei Axiome erfüllen:
Axiome:
- Für jedes Ereignis
ist die Wahrscheinlichkeit von
eine reelle Zahl zwischen 0 und 1:
.
- Das sichere Ereignis
hat die Wahrscheinlichkeit 1:
.
- Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler
inkompatibler Ereignisse ist gleich der Summe der Wahrscheinlichkeiten
der einzelnen Ereignisse. Dabei heißen Ereignisse
inkompatibel, wenn sie paarweise disjunkt sind, also bei
für alle
. Es gilt daher
. Diese Eigenschaft wird auch σ-Additivität genannt.
Beispiel: Im Rahmen einer physikalischen Modellbildung wird ein Wahrscheinlichkeitsmaß zur Beschreibung des Ergebnisses eines Münzwurfes angesetzt, die möglichen Ergebnisse (Ereignisse genannt) mögen Zahl und Kopf lauten.
- Dann ist die Ergebnismenge
.
- Als Ereignisraum kann die Potenzmenge
gewählt werden, also
.
- Für das Wahrscheinlichkeitsmaß
steht aufgrund der Axiome fest:
Zusätzliche physikalische Annahmen über die Beschaffenheit der Münze können
nun etwa zur Wahl
führen.
Folgerungen
Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:
1. Aus der Additivität der Wahrscheinlichkeit disjunkter Ereignisse folgt,
dass komplementäre Ereignisse (Gegenereignisse) komplementäre
Wahrscheinlichkeiten (Gegenwahrscheinlichkeiten) haben: .
- Beweis: Es ist
sowie
. Folglich nach Axiom (3):
und dann nach Axiom (2):
. Umgestellt ergibt sich:
.
2. Daraus folgt, dass das unmögliche Ereignis, die leere Menge, die
Wahrscheinlichkeit Null hat: .
- Beweis: Es ist
und
, also nach Axiom (3):
. Hieraus folgt
.
3. Für die Vereinigung nicht notwendig disjunkter Ereignisse folgt: .

- Beweis: Die für den Beweis erforderlichen Mengen sind im obigen
Bild dargestellt. Die Menge
kann danach als Vereinigung von drei disjunkten Mengen dargestellt werden:

- Hieraus folgt nach (3):
.
- Andererseits ist nach (3) sowohl
als auch
.
- Addition liefert:
.
- Umstellen ergibt
.
- Die Siebformel von Poincaré-Sylvester verallgemeinert diese Behauptung im Falle n verschiedener (nicht notwendig disjunkter) Teilmengen.
Im Weiteren ist zwischen abzählbaren und überabzählbaren Ergebnismengen zu unterscheiden.
Abzählbare Ergebnismenge
Bei einer abzählbaren Ergebnismenge kann jedem Elementarereignis eine
positive Wahrscheinlichkeit zugewiesen werden. Wenn
endlich oder abzählbar unendlich ist, kann man für die σ-Algebra
die Potenzmenge von
wählen. Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus
ist hier 1.
Überabzählbare Ergebnismenge
Ein Prototyp einer überabzählbaren Ergebnismenge ist die Menge der reellen
Zahlen. In vielen Modellen ist es nicht möglich, allen Teilmengen der
reellen Zahlen sinnvoll eine Wahrscheinlichkeit zuzuordnen. Als Ereignissystem
wählt man statt der Potenzmenge der reellen Zahlen hier meist die Borelsche
σ-Algebra, das ist die kleinste σ-Algebra, die alle Intervalle von reellen
Zahlen als Elemente enthält. Die Elemente dieser σ-Algebra nennt man Borelsche
Mengen oder auch (Borel)-messbar.
Wenn die Wahrscheinlichkeit
jeder Borelschen Menge
als Integral
über eine Wahrscheinlichkeitsdichte
geschrieben werden kann, wird
absolut
stetig genannt. In diesem Fall (aber nicht nur in diesem) haben alle
Elementarereignisse {x} die Wahrscheinlichkeit 0. Die Wahrscheinlichkeitsdichte
eines absolut stetigen Wahrscheinlichkeitsmaßes
ist nur fast überall eindeutig bestimmt, d.h., sie kann auf einer
beliebigen Lebesgue-Nullmenge,
also einer Menge vom Lebesgue-Maß
0, abgeändert werden, ohne dass
verändert wird. Wenn die erste Ableitung der Verteilungsfunktion
von
existiert, so ist sie eine Wahrscheinlichkeitsdichte von P. Die Werte der
Wahrscheinlichkeitsdichte werden jedoch nicht als Wahrscheinlichkeiten
interpretiert.
Spezielle Eigenschaften im Fall diskreter Wahrscheinlichkeitsräume
Laplace-Experimente
Wenn man annimmt, dass nur endlich viele Elementarereignisse
möglich und alle gleichberechtigt sind, d.h. mit der gleichen
Wahrscheinlichkeit eintreten (wie zum Beispiel beim Werfen einer idealen Münze,
wobei {Zahl} und {Kopf} jeweils die Wahrscheinlichkeit 0,5 besitzen), so spricht
man von einem Laplace-Experiment.
Dann lassen sich Wahrscheinlichkeiten einfach berechnen: Wir nehmen eine
endliche Ergebnismenge
an, die die Mächtigkeit
besitzt, d.h., sie hat
Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach
.
- Beweis: Wenn
ist, dann gibt es
Elementarereignisse
. Es ist dann einerseits
und andererseits sind je zwei Elementarereignisse disjunkt (inkompatibel: wenn das eine eintritt, kann das andere nicht eintreten). Also sind die Voraussetzungen für Axiom (3) erfüllt, und es gilt:
- Da nun andererseits
sein soll, ist
und daher umgestellt:
, wie behauptet.
Als Konsequenz folgt, dass für Ereignisse, die sich aus mehreren
Elementarereignissen zusammensetzen, die entsprechend vielfache
Wahrscheinlichkeit gilt. Ist
ein Ereignis der Mächtigkeit
,
so ist
die Vereinigung von
Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit
,
also ist
.
Man erhält also den einfachen Zusammenhang
Bei Laplace-Versuchen ist die Wahrscheinlichkeit eines Ereignisses gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse.
Nachstehend ein Beispiel beim Würfeln mit einem idealen Würfel.
⚀⚁⚂⚃⚄⚅
⚄⚅
Das Ereignis
= Hohe Augenzahl (5 oder 6) hat die Wahrscheinlichkeit 1/3.
Ein typischer Laplace-Versuch ist auch das Ziehen einer Karte aus einem Spiel
mit
Karten oder das Ziehen einer Kugel aus einer Urne
mit
Kugeln. Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit. Um die
Anzahl der Elementarereignisse bei Laplace-Versuchen zu bestimmen, werden häufig
Methoden der Kombinatorik
verwendet.
Das Konzept der Laplace-Experimente lässt sich auf den Fall einer stetigen Gleichverteilung verallgemeinern.
Bedingte Wahrscheinlichkeit
Unter einer bedingten
Wahrscheinlichkeit versteht man die Wahrscheinlichkeit für das Eintreten
eines Ereignisses
unter der Voraussetzung, dass das Eintreten eines anderen Ereignisses
bereits bekannt ist. Natürlich muss
eintreten können, es darf also nicht das unmögliche Ereignis sein. Man schreibt
dann
oder seltener
für „Wahrscheinlichkeit von
unter der Voraussetzung
“,
kurz „
von
,
vorausgesetzt
“.
Beispiel: Die Wahrscheinlichkeit, aus einem Skatblatt
eine Herz-Karte zu ziehen (Ereignis ),
beträgt 1/4, denn es gibt 32 Karten und darunter 8 Herz-Karten. Dann ist
.
Das Gegenereignis ist dann Karo, Pik oder Kreuz und hat deshalb die
Wahrscheinlichkeit
.

Wenn nun aber bereits das Ereignis
„Die Karte ist rot“ eingetreten ist (es wurde eine Herz- oder Karo-Karte
gezogen, es ist aber nicht bekannt, welche der beiden Farben), man also nur noch
die Auswahl unter den 16 roten Karten hat, dann ist
die Wahrscheinlichkeit, dass es sich dann um das Herz-Blatt handelt.
Diese Überlegung galt für einen Laplaceversuch. Für den allgemeinen Fall
definiert man die bedingte Wahrscheinlichkeit von „,
vorausgesetzt
“
als
Dass diese Definition sinnvoll ist, zeigt sich daran, dass die so definierte
Wahrscheinlichkeit den Axiomen von Kolmogorow genügt, wenn man sich auf
als neue Ergebnismenge beschränkt; d.h., dass gilt:
- Wenn
paarweise disjunkt sind, so ist
Beweis:
ist Quotient zweier Wahrscheinlichkeiten, für welche nach Axiom (1) gilt
und
. Da
nicht das unmögliche Ereignis sein soll, ist sogar
. Also gilt auch für den Quotienten
. Ferner sind
und
disjunkt, und ihre Vereinigung ist
. Also ist nach Axiom (3):
.
Daist, folgt
und daher
.
- Es ist
- Des Weiteren ergibt sich:
-
-
- Dies war zu zeigen.
Beispiel: Es sei wie oben
das Ereignis „Ziehen einer Herz-Karte“ und
das Ereignis „Es ist eine rote Karte“. Dann ist:
und
Folglich gilt:
Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen:
Verbundwahrscheinlichkeit (Schnittmengen von Ereignissen)
Das gleichzeitige Eintreten zweier Ereignisse
und
entspricht mengentheoretisch dem Eintreten des Verbund-Ereignisses
.
Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen
Wahrscheinlichkeit oder Verbundwahrscheinlichkeit
Beweis: Nach Definition der bedingten Wahrscheinlichkeit ist einerseits
und andererseits auch
Umstellen nach
liefert dann sofort die Behauptung.
Beispiel: Es wird eine Karte aus 32 Karten gezogen.
sei das Ereignis: „Es ist ein König“.
sei das Ereignis: „Es ist eine Herz-Karte“. Dann ist
das gleichzeitige Eintreten von
und
,
also das Ereignis: „Die gezogene Karte ist ein Herz-König“. Offenbar ist
.
Ferner ist
,
denn es gibt nur eine Herz-Karte unter den vier Königen. Und in der Tat ist dann
die Wahrscheinlichkeit für den Herz-König.
Satz von Bayes
Die bedingte Wahrscheinlichkeit von
unter der Bedingung
lässt sich durch die bedingte Wahrscheinlichkeit von
unter der Bedingung
durch
ausdrücken, wenn man die totalen
Wahrscheinlichkeiten
und
kennt (Satz
von Bayes).
Abhängigkeit und Unabhängigkeit von Ereignissen
Ereignisse nennt man unabhängig voneinander, wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst. Im umgekehrten Fall nennt man sie abhängig. Man definiert:
- Zwei Ereignisse
und
sind unabhängig, wenn
gilt.
- Ungenau, aber einprägsam formuliert: Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.
Dass dies dem Begriff „Unabhängigkeit“ gerecht wird, erkennt man durch
Umstellen nach :
Das bedeutet: Die totale Wahrscheinlichkeit für
ist ebenso groß wie die Wahrscheinlichkeit für
,
vorausgesetzt
;
das Eintreten von
beeinflusst also die Wahrscheinlichkeit von
nicht.
Beispiel: Es wird eine aus 32 Karten gezogen.
sei das Ereignis „Es ist eine Herz-Karte“.
sei das Ereignis „Es ist eine Bild-Karte“. Diese Ereignisse sind unabhängig,
denn das Wissen, dass man eine Bild-Karte zieht, beeinflusst nicht die
Wahrscheinlichkeit, dass es eine Herz-Karte ist (Der Anteil der Herz-Karten
unter den Bilder-Karten ist ebenso groß wie der Anteil der Herz-Karten an allen
Karten). Offenbar ist
und
.
ist das Ereignis „Es ist eine Herz-Bildkarte“. Da es davon drei gibt, ist
.
Und in der Tat stellt man fest, dass
ist.
Maßtheoretische Sichtweise
Die klassische Wahrscheinlichkeitsrechnung betrachtet nur Wahrscheinlichkeiten auf diskreten Wahrscheinlichkeitsräumen und stetige Modelle mit Dichtefunktionen. Diese beiden Ansätze lassen sich durch die moderne Formulierung der Wahrscheinlichkeitstheorie, die auf den Konzepten und Ergebnissen der Maß- und Integrationstheorie beruht, vereinheitlichen und verallgemeinern.
Wahrscheinlichkeitsräume
In dieser Sichtweise ist ein Wahrscheinlichkeitsraum
ein Maßraum
mit einem Wahrscheinlichkeitsmaß
.
Das bedeutet, die Ergebnismenge
ist eine beliebige Menge, der Ereignisraum
ist eine σ-Algebra
mit Grundmenge
und
ist ein Maß,
das durch
normiert ist.
Wichtige Standardfälle von Wahrscheinlichkeitsräumen sind:
ist eine abzählbare Menge und
ist die Potenzmenge von
. Dann ist jedes Wahrscheinlichkeitsmaß
eindeutig festgelegt durch seine Werte
auf den einelementigen Teilmengen von
und für alle
gilt
-
.
ist eine Teilmenge von
und
ist die Borelsche σ-Algebra auf
. Ist das Wahrscheinlichkeitsmaß
absolut stetig bezüglich des Lebesgue-Maßes, dann besitzt
nach dem Satz von Radon-Nikodým eine Lebesgue-Dichte
, d.h., für alle
gilt
-
.
- Umgekehrt wird für eine nichtnegative messbare Funktion
, welche die Normierungsbedingung
erfüllt, durch diese Formel ein Wahrscheinlichkeitsmaß auf
definiert.
ist ein kartesisches Produkt und
ist die Produkt-σ-Algebra von σ-Algebren
auf
. Sind Wahrscheinlichkeitsmaße
auf
gegeben, dann wird durch das Produktmaß
ein Wahrscheinlichkeitsmaß auf
definiert, das die unabhängige Hintereinanderausführung der Einzelexperimente
modelliert.
Zufallsvariable
Eine Zufallsvariable ist das mathematische Konzept für eine Größe, deren Wert
vom Zufall abhängig ist. Aus maßtheoretischer Sicht handelt es sich um eine messbare Funktion
auf einem Wahrscheinlichkeitsraum
in einen Messraum
bestehend aus einer Menge
und einer σ-Algebra
auf
.
Messbarkeit bedeutet dabei, dass für alle
das Urbild
ein Element der σ-Algebra
ist. Die Verteilung
von
ist dann nichts anderes als das Bildmaß
,
das von
auf dem Messraum
induziert wird und diesen zu einem Wahrscheinlichkeitsraum
macht.
Der Erwartungswert
einer reellwertigen Zufallsvariable
mittelt die möglichen Ergebnisse. Er lässt sich abstrakt definieren als Integral von
bezüglich des Wahrscheinlichkeitsmaßes
:
.
Wahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und mathematische Statistik werden zusammenfassend auch als Stochastik bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:
- Statistische Verteilungen werden regelmäßig unter der Annahme modelliert, dass sie das Resultat zufälliger Prozesse sind.
- Statistische Verfahren können auf numerische Weise Anhaltspunkte für das Verhalten von Wahrscheinlichkeitsverteilungen liefern.
Anwendungsgebiete
Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen Glücksspielen. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.
Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der mathematischen Statistik. Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie, um Umfrageergebnisse zu analysieren oder Wirtschaftsprognosen zu erstellen.
Große Bereiche der Physik wie die Thermodynamik und die Quantenmechanik nutzen die Wahrscheinlichkeitstheorie zur theoretischen Beschreibung ihrer Resultate.
Sie ist ferner die Grundlage für mathematische Disziplinen wie die Zuverlässigkeitstheorie, die Erneuerungstheorie und die Warteschlangentheorie und das Werkzeug zur Analyse in diesen Bereichen.
Auch in der Mustererkennung ist die Wahrscheinlichkeitstheorie von zentraler Bedeutung.
Siehe auch


© biancahoegel.de
Datum der letzten Änderung: Jena, den: 13.11. 2025
