Tschebyscheffsche Ungleichung
Die Tschebyscheffsche Ungleichung, auch Tschebyscheff-Ungleichung oder Bienaymé-Tschebyscheff-Ungleichung genannt, ist eine Ungleichung in der Stochastik, einem Teilgebiet der Mathematik. Sie ist nach Irénée-Jules Bienaymé und Pafnuti Lwowitsch Tschebyscheff benannt; dessen Name findet sich in der Literatur in verschiedenen Schreibungen, unter anderem Tschebyschew, Chebyshev, Čebyšev oder Tschebyschow. In der Tschebyscheffschen Ungleichung wird die Wahrscheinlichkeit, dass eine Zufallsvariable mehr als einen vorgegebenen Schwellenwert vom Erwartungswert abweicht, durch die Varianz abgeschätzt.
Aussage
Sei eine Zufallsvariable mit Erwartungswert
und endlicher Varianz
- .
Dann gilt für alle reellen Zahlen :
- .
Durch Übergang zum komplementären Ereignis erhält man
- .
Güte der Abschätzung
Die von der tschebyscheffschen Ungleichung angegebenen Grenzen sind scharf in dem Sinne, dass Zufallsvariablen existieren, für die bei der Abschätzung Gleichheit gilt.
Dies ist beispielsweise der Fall für eine diskrete Zufallsvariable mit
und
- ,
wobei eine echt positive reelle Zahl ist und . Dann ist und , damit folgt die Abschätzung
- ,
die für mit Gleichheit erfüllt ist, da dann gilt.
Im Allgemeinen sind die Abschätzungen aber eher schwach. Beispielsweise sind sie für trivial. Dennoch ist der Satz oft nützlich, weil er ohne Verteilungsannahmen über die Zufallsvariablen auskommt und somit für alle Verteilungen mit endlicher Varianz (insbesondere auch solche, die sich stark von der Normalverteilung unterscheiden) anwendbar ist. Außerdem sind die Schranken einfach zu berechnen.
Varianten
Abweichungen ausgedrückt durch die Standardabweichung
Ist die Standardabweichung von Null verschieden und eine positive Zahl, so erhält man mit eine oft zitierte Variante der tschebyscheffschen Ungleichung:
- .
Diese Ungleichung liefert nur für eine sinnvolle Abschätzung, für ist sie trivial, denn Wahrscheinlichkeiten sind stets durch 1 beschränkt.
Verallgemeinerung auf höhere Momente
Die tschebyscheffsche Ungleichung lässt sich auf höhere Momente verallgemeinern. Man bezeichnet diese verallgemeinerte Ungleichung nicht selten (vereinfachend) ebenfalls als tschebyscheffsche Ungleichung (englisch Chebyshev’s inequality), während sie im Rahmen der Wahrscheinlichkeitstheorie manchmal auch als markoffsche Ungleichung (bzw. als markovsche Ungleichung o.ä., englisch Markov’s inequality) genannt wird. Bei einigen Autoren findet man die verallgemeinerte Ungleichung auch unter der Bezeichnung tschebyscheff-markoffsche Ungleichung (bzw. chebyshev-markovsche Ungleichung o.ä.).
Die verallgemeinerte Ungleichung besagt, dass für einen Maßraum und eine messbare Funktion und stets die Ungleichung
- .
gilt.
Dies folgt aus
Die oben genannte Version der Ungleichung erhält man als Spezialfall, indem man , und setzt, denn dann ist
- .
Geschichte
In den meisten Lehrbüchern trägt die Ungleichung lediglich den Namen von Pafnuti Lwowitsch Tschebyschow. Er veröffentlichte seinen Beweis für diskrete Zufallsvariablen im Jahre 1867 simultan in St. Petersburg und in Paris, dort in Joseph Liouvilles Journal Journal de Mathématiques Pures et Appliquées. Ein allgemeinerer Beweis wurde jedoch schon 1853 von Irénée-Jules Bienaymé in dem Paper Considérations a l’appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés. veröffentlicht. Dieses wurde sogar direkt vor Tschebyscheffs Veröffentlichung in Liouvilles Journal nochmals in ebendiesem abgedruckt. In einer späteren Veröffentlichung erkannte Tschebyscheff die Erstveröffentlichung von Bienaymé an.
Anwendungen
- Die tschebyscheffsche Ungleichung geht wesentlich ein in die Beweise des Borel-Cantelli-Lemmas und des Schwachen Gesetzes der großen Zahlen.
- Die Verallgemeinerung auf höhere Momente kann benutzt werden, um zu zeigen, dass aus der -Konvergenz von Funktionenfolgen die Konvergenz im Maß folgt.
- Für den Median gilt .
Beispiele
Beispiel 1
Nehmen wir zum Beispiel an, dass die Länge von Wikipedia-Artikeln einen Erwartungswert von 1000 Zeichen mit einer Standardabweichung von 200 Zeichen hat. Aus der tschebyscheffschen Ungleichung kann man dann ableiten, dass mit mindestens 75 % Wahrscheinlichkeit ein Wikipedia-Artikel eine Länge zwischen 600 und 1400 Zeichen hat ().
Der Wert für die Wahrscheinlichkeit wird auf folgende Weise berechnet:
Beispiel 2
Eine andere Folgerung aus dem Satz ist, dass für jede Wahrscheinlichkeitsverteilung mit Mittelwert und endlicher Standardabweichung mindestens die Hälfte der Werte im Intervall liegen ().
Beispiel 3
Ein Zufallsereignis tritt bei einem Versuch mit Wahrscheinlichkeit ein. Der Versuch wird -mal wiederholt; das Ereignis trete dabei -mal auf. ist dann binomialverteilt und hat Erwartungswert und Varianz ; die relative Häufigkeit des Eintretens hat somit Erwartungswert und Varianz . Für die Abweichung der relativen Häufigkeit vom Erwartungswert liefert die tschebyscheffsche Ungleichung
- ,
wobei für die zweite Abschätzung die unmittelbar aus der Ungleichung vom arithmetischen und geometrischen Mittel folgende Beziehung verwendet wurde.
Bei dieser Formel handelt es sich um den Spezialfall eines schwachen Gesetzes der großen Zahlen, das die stochastische Konvergenz der relativen Häufigkeiten gegen den Erwartungswert zeigt.
Die tschebyscheffsche Ungleichung liefert für dieses Beispiel nur eine grobe Abschätzung, eine quantitative Verbesserung liefert die Chernoff-Ungleichung.
Beweisskizze
Die meisten Autoren führen die tschebyscheffsche Ungleichung als Spezialfall der Markow-Ungleichung
mit und der Funktion ein.
Wie man die Markow-Ungleichung mit schulgemäßen Mitteln aus einem unmittelbar einsichtigen Flächenvergleich folgern und dann daraus diese Fassung der Ungleichung von Tschebyscheff herleiten kann, findet man zum Beispiel bei Wirths. Für einen direkten Beweis definiert man
- .
Bezeichnet die Indikatorfunktion auf der Menge , so gilt für alle die Ungleichung
- .
Denn ist , so ist die rechte Seite null und die Ungleichung erfüllt. Ist , so hat die linke Seite nach Definition der Mengen mindestens den Wert , und die Ungleichung ist wiederum erfüllt. Mit der Monotonie des Erwartungswertes und seinen elementaren Rechenregeln folgt über die Definition der Varianz
- .
Teilen durch liefert die Ungleichung.
Verwandte Resultate
Literatur
- Heinz Bauer: Wahrscheinlichkeitstheorie (= De Gruyter Lehrbuch). 5., durchgesehene und verbesserte Auflage. de Gruyter, Berlin / New York 2002, ISBN 3-11-017236-4.
- Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. 7. Auflage. Vieweg Verlag, Wiesbaden 2003, ISBN 3-528-67259-5.
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 11.04. 2020