Tschebyscheffsche Ungleichung

Die Tschebyscheffsche Ungleichung, auch Tschebyscheff-Ungleichung oder Bienaymé-Tschebyscheff-Ungleichung genannt, ist eine Ungleichung in der Stochastik, einem Teilgebiet der Mathematik. Sie ist nach Irénée-Jules Bienaymé und Pafnuti Lwowitsch Tschebyscheff benannt; dessen Name findet sich in der Literatur in verschiedenen Schreibungen, unter anderem Tschebyschew, Chebyshev, Čebyšev oder Tschebyschow. In der Tschebyscheffschen Ungleichung wird die Wahrscheinlichkeit, dass eine Zufallsvariable mehr als einen vorgegebenen Schwellenwert vom Erwartungswert abweicht, durch die Varianz abgeschätzt.

Aussage

Sei X eine Zufallsvariable mit Erwartungswert

{\displaystyle \mu :=\operatorname {E} (X)}

und endlicher Varianz

{\displaystyle \sigma ^{2}:=\operatorname {Var} (X)}.

Dann gilt für alle reellen Zahlen k>0:

{\displaystyle \operatorname {P} \left(\left|X-\mu \right|\geq k\right)\leq {\frac {\sigma ^{2}}{k^{2}}}}.

Durch Übergang zum komplementären Ereignis erhält man

{\displaystyle \operatorname {P} \left(\left|X-\mu \right|<k\right)\geq 1-{\frac {\sigma ^{2}}{k^{2}}}}.

Güte der Abschätzung

Die von der tschebyscheffschen Ungleichung angegebenen Grenzen sind scharf in dem Sinne, dass Zufallsvariablen existieren, für die bei der Abschätzung Gleichheit gilt.

Dies ist beispielsweise der Fall für eine diskrete Zufallsvariable X mit

{\displaystyle \operatorname {P} \left(X=0\right)=1-p}

und

{\displaystyle \operatorname {P} \left(X=-a\right)=\operatorname {P} \left(X=a\right)=p/2},

wobei a eine echt positive reelle Zahl ist und {\displaystyle p\in (0,1)}. Dann ist {\displaystyle \mu =\operatorname {E} (X)=0} und {\displaystyle \sigma ^{2}=\operatorname {Var} (X)=a^{2}p}, damit folgt die Abschätzung

{\displaystyle P(|X-0|\geq k)\leq {\frac {a^{2}p}{k^{2}}}},

die für {\displaystyle k=a} mit Gleichheit erfüllt ist, da dann {\displaystyle P(|X|\geq k)=P(|X|\geq a)=p} gilt.

Im Allgemeinen sind die Abschätzungen aber eher schwach. Beispielsweise sind sie für k\leq \sigma trivial. Dennoch ist der Satz oft nützlich, weil er ohne Verteilungsannahmen über die Zufallsvariablen auskommt und somit für alle Verteilungen mit endlicher Varianz (insbesondere auch solche, die sich stark von der Normalverteilung unterscheiden) anwendbar ist. Außerdem sind die Schranken einfach zu berechnen.

Varianten

Abweichungen ausgedrückt durch die Standardabweichung

Ist die Standardabweichung \sigma von Null verschieden und \lambda eine positive Zahl, so erhält man mit k=\lambda \sigma eine oft zitierte Variante der tschebyscheffschen Ungleichung:

{\displaystyle \operatorname {P} \left(\left|X-\mu \right|\geq \lambda \sigma \right)\leq {\frac {1}{\lambda ^{2}}}}.

Diese Ungleichung liefert nur für \lambda > 1 eine sinnvolle Abschätzung, für 0<\lambda \leq 1 ist sie trivial, denn Wahrscheinlichkeiten sind stets durch 1 beschränkt.

Verallgemeinerung auf höhere Momente

Die tschebyscheffsche Ungleichung lässt sich auf höhere Momente verallgemeinern. Man bezeichnet diese verallgemeinerte Ungleichung nicht selten (vereinfachend) ebenfalls als tschebyscheffsche Ungleichung (englisch Chebyshev’s inequality), während sie im Rahmen der Wahrscheinlichkeitstheorie manchmal auch als markoffsche Ungleichung (bzw. als markovsche Ungleichung o.ä., englisch Markov’s inequality) genannt wird. Bei einigen Autoren findet man die verallgemeinerte Ungleichung auch unter der Bezeichnung tschebyscheff-markoffsche Ungleichung (bzw. chebyshev-markovsche Ungleichung o.ä.).

Die verallgemeinerte Ungleichung besagt, dass für einen Maßraum (\Omega,\Sigma,\nu) und eine messbare Funktion f\colon\Omega\to\R_0^+ und \varepsilon ,p\in \mathbb{R} ^{+} stets die Ungleichung

\nu(\{x\mid f(x)\geq \varepsilon\})\leq \frac{1}{\varepsilon^p}\int_\Omega f^p {\rm d}\nu.

gilt.

Dies folgt aus

\int_\Omega f^p \;{\rm d}\nu \geq \int_{\{x\mid f(x)\geq \varepsilon\}} f^p \;{\rm d}\nu \geq \int_{\{x\mid f(x)\geq \varepsilon\}} \varepsilon^p \;{\rm d}\nu = \varepsilon^p\nu(\{x\mid f(x)\geq \varepsilon\})

Die oben genannte Version der Ungleichung erhält man als Spezialfall, indem man \nu =P, f=|X-\mu | und p=2 setzt, denn dann ist

P(|X-\mu| \ge k) = P(|X-\mu|^2 \ge k^2) \le \frac{1}{k^2}\int_\Omega |X-\mu|^2 \;{\rm d}P = \frac{\sigma^2}{k^2}.

Geschichte

In den meisten Lehrbüchern trägt die Ungleichung lediglich den Namen von Pafnuti Lwowitsch Tschebyschow. Er veröffentlichte seinen Beweis für diskrete Zufallsvariablen im Jahre 1867 simultan in St. Petersburg und in Paris, dort in Joseph Liouvilles Journal Journal de Mathématiques Pures et Appliquées. Ein allgemeinerer Beweis wurde jedoch schon 1853 von Irénée-Jules Bienaymé in dem Paper Considérations a l’appui de la découverte de Laplace sur la loi de probabilité dans la méthode des moindres carrés. veröffentlicht. Dieses wurde sogar direkt vor Tschebyscheffs Veröffentlichung in Liouvilles Journal nochmals in ebendiesem abgedruckt. In einer späteren Veröffentlichung erkannte Tschebyscheff die Erstveröffentlichung von Bienaymé an.

Anwendungen

Beispiele

Beispiel 1

Nehmen wir zum Beispiel an, dass die Länge von Wikipedia-Artikeln einen Erwartungswert von 1000 Zeichen mit einer Standardabweichung von 200 Zeichen hat. Aus der tschebyscheffschen Ungleichung kann man dann ableiten, dass mit mindestens 75 % Wahrscheinlichkeit ein Wikipedia-Artikel eine Länge zwischen 600 und 1400 Zeichen hat (k=400,~\mu =1000,~\sigma =200).

Der Wert für die Wahrscheinlichkeit wird auf folgende Weise berechnet:

{\displaystyle \operatorname {P} \left(\left|X-1000\right|<400\right)\geq 1-{\frac {200^{2}}{400^{2}}}=0{,}75=75\ \%}

Beispiel 2

Eine andere Folgerung aus dem Satz ist, dass für jede Wahrscheinlichkeitsverteilung mit Mittelwert \mu und endlicher Standardabweichung \sigma mindestens die Hälfte der Werte im Intervall (\mu -{\sqrt  {2}}\sigma ,\mu +{\sqrt  {2}}\sigma ) liegen (k^{2}=2\sigma ^{2}).

Beispiel 3

Ein Zufallsereignis tritt bei einem Versuch mit Wahrscheinlichkeit p ein. Der Versuch wird n-mal wiederholt; das Ereignis trete dabei k-mal auf. k ist dann binomialverteilt und hat Erwartungswert np und Varianz np(1-p); die relative Häufigkeit \tfrac{k}{n} des Eintretens hat somit Erwartungswert p und Varianz \tfrac{p(1-p)}{n}. Für die Abweichung der relativen Häufigkeit vom Erwartungswert liefert die tschebyscheffsche Ungleichung

{\displaystyle \operatorname {P} \left(\left|{\frac {k}{n}}-p\right|\geq \epsilon \right)\leq {\frac {p(1-p)}{\epsilon ^{2}n}}\leq {\frac {1}{4\epsilon ^{2}n}}},

wobei für die zweite Abschätzung die unmittelbar aus der Ungleichung vom arithmetischen und geometrischen Mittel folgende Beziehung \sqrt{p(1-p)}\leq \tfrac{1}{2} verwendet wurde.

Bei dieser Formel handelt es sich um den Spezialfall eines schwachen Gesetzes der großen Zahlen, das die stochastische Konvergenz der relativen Häufigkeiten gegen den Erwartungswert zeigt.

Die tschebyscheffsche Ungleichung liefert für dieses Beispiel nur eine grobe Abschätzung, eine quantitative Verbesserung liefert die Chernoff-Ungleichung.

Beweisskizze

Die meisten Autoren führen die tschebyscheffsche Ungleichung als Spezialfall der Markow-Ungleichung

{\displaystyle P\left(Y\geq k\right)\leq {\frac {\operatorname {E} \left(h(Y)\right)}{h(k)}}.}

mit {\displaystyle Y=|X-\mu |} und der Funktion {\displaystyle h(x)=x^{2}} ein.

Wie man die Markow-Ungleichung mit schulgemäßen Mitteln aus einem unmittelbar einsichtigen Flächenvergleich folgern und dann daraus diese Fassung der Ungleichung von Tschebyscheff herleiten kann, findet man zum Beispiel bei Wirths. Für einen direkten Beweis definiert man

{\displaystyle A_{k}=\{\omega \in \Omega \mid |X-\mu |\geq k\}}.

Bezeichnet {\displaystyle \mathbf {1} _{A}} die Indikatorfunktion auf der Menge A, so gilt für alle \omega die Ungleichung

{\displaystyle |X(\omega )-\mu |^{2}\geq k^{2}\mathbf {1} _{A_{k}}(\omega )}.

Denn ist {\displaystyle \omega \notin A_{k}}, so ist die rechte Seite null und die Ungleichung erfüllt. Ist {\displaystyle \omega \in A_{k}}, so hat die linke Seite nach Definition der Mengen A_{k} mindestens den Wert {\displaystyle k^{2}}, und die Ungleichung ist wiederum erfüllt. Mit der Monotonie des Erwartungswertes und seinen elementaren Rechenregeln folgt über die Definition der Varianz

{\displaystyle \sigma ^{2}=\operatorname {Var} (X)=\operatorname {E} (|X-\mu |^{2})\geq \operatorname {E} (k^{2}\mathbf {1} _{A_{k}})=k^{2}P(A_{k})=k^{2}P(|X-\mu |\geq k)}.

Teilen durch {\displaystyle k^{2}} liefert die Ungleichung.

Verwandte Resultate

Literatur

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 11.04. 2020