Theorie großer Abweichungen – Wikipedia

before-content-x4

Zweig der Wahrscheinlichkeitstheorie

after-content-x4

In der Wahrscheinlichkeitstheorie ist die Theorie von große Abweichungen betrifft das asymptotische Verhalten entfernter Schwänze von Sequenzen von Wahrscheinlichkeitsverteilungen. Während einige Grundgedanken der Theorie auf Laplace zurückgeführt werden können, begann die Formalisierung mit der Versicherungsmathematik, nämlich der Ruinentheorie mit Cramér und Lundberg. Eine einheitliche Formalisierung der Theorie großer Abweichungen wurde 1966 in einem Artikel von Varadhan entwickelt.[1] Die Theorie großer Abweichungen formalisiert die heuristischen Ideen von Konzentration der Maßnahmen und verallgemeinert weitgehend den Begriff der Konvergenz von Wahrscheinlichkeitsmaßen.

Grob gesagt befasst sich die Theorie der großen Abweichungen mit dem exponentiellen Rückgang der Wahrscheinlichkeitsmaße bestimmter Arten von Extremen oder Schwanz Veranstaltungen.

Einführungsbeispiele[edit]

Ein elementares Beispiel[edit]

Betrachten Sie eine Folge von unabhängigen Würfen einer fairen Münze. Die möglichen Ergebnisse könnten Kopf oder Zahl sein. Bezeichnen wir das mögliche Ergebnis des i-ten Versuchs mit

X.ich,{ displaystyle X_ {i},}

wo wir Kopf als 1 und Schwanz als 0 codieren. Nun lassen wir

M.N.{ displaystyle M_ {N}}

bezeichnen den Mittelwert nach

N.{ displaystyle N}

Versuche, nämlich

after-content-x4

Dann

M.N.{ displaystyle M_ {N}}

liegt zwischen 0 und 1. Aus dem Gesetz der großen Zahlen folgt, dass mit zunehmendem N die Verteilung von

M.N.{ displaystyle M_ {N}}

konvergiert zu

0,5=E.[X]{ displaystyle 0.5 = operatorname {E} [X]}}

(der erwartete Wert eines einzelnen Münzwurfs).

Darüber hinaus folgt aus dem zentralen Grenzwertsatz, dass

M.N.{ displaystyle M_ {N}}

ist ungefähr normal für große verteilt

N.{ displaystyle N}

. Der zentrale Grenzwertsatz kann detailliertere Informationen über das Verhalten von liefern

M.N.{ displaystyle M_ {N}}

als das Gesetz der großen Zahlen. Zum Beispiel können wir ungefähr eine Schwanzwahrscheinlichkeit von finden

M.N.{ displaystyle M_ {N}}

,

P.((M.N.>x){ displaystyle P (M_ {N}> x)}

M.N.{ displaystyle M_ {N}}

ist größer als

x{ displaystyle x}

für einen festen Wert von

N.{ displaystyle N}

. Die Annäherung durch den zentralen Grenzwertsatz ist jedoch möglicherweise nicht genau, wenn

x{ displaystyle x}

ist weit entfernt von

E.[Xi]{ displaystyle operatorname {E} [X_{i}]}}

es sei denn

N.{ displaystyle N}

ist ausreichend groß. Es liefert auch keine Informationen über die Konvergenz der Schwanzwahrscheinlichkeiten als

N.{ displaystyle N to infty}

. Die Theorie der großen Abweichung kann jedoch Antworten auf solche Probleme liefern.

Lassen Sie uns diese Aussage präzisieren. Für einen bestimmten Wert

0,5<x<1{ displaystyle 0.5

{ displaystyle 0.5 <x<1}Berechnen wir die Schwanzwahrscheinlichkeit

P.((M.N.>x){ displaystyle P (M_ {N}> x)}

ich((x)=xlnx+((1– –x)ln((1– –x)+ln2.{ displaystyle I (x) = x ln {x} + (1-x) ln (1-x) + ln {2}.}

Beachten Sie, dass die Funktion

ich((x){ displaystyle I (x)}

ist eine konvexe, nicht negative Funktion, die bei Null ist

x=12{ displaystyle x = { tfrac {1} {2}}}

und erhöht sich als

x{ displaystyle x}

nähert sich

1{ displaystyle 1}

. Es ist das Negative der Bernoulli-Entropie mit

p=12;;{ displaystyle p = { tfrac {1} {2}};}

Dass es für Münzwürfe geeignet ist, ergibt sich aus der asymptotischen Equipartition-Eigenschaft, die auf einen Bernoulli-Versuch angewendet wurde. Dann kann durch Chernoffs Ungleichung gezeigt werden, dass

P.((M.N.>x)<exp((– –N.ich((x)).{ displaystyle P (M_ {N}> x) < exp (-NI (x)).}

[2] Diese Grenze ist in dem Sinne ziemlich scharf

ich((x){ displaystyle I (x)}

kann nicht durch eine größere Zahl ersetzt werden, die eine strikte Ungleichung für alle Positiven ergeben würde

N..{ displaystyle N.}

[3] (Die Exponentialgrenze kann jedoch immer noch um einen subexponentiellen Faktor in der Größenordnung von reduziert werden

1/.N.{ displaystyle 1 / { sqrt {N}}}

;; Dies folgt aus der Stirling-Näherung, die auf den in der Bernoulli-Verteilung auftretenden Binomialkoeffizienten angewendet wird.) Daher erhalten wir das folgende Ergebnis:

after-content-x4