Gesetz der totalen Varianz – Wikipedia
In der Wahrscheinlichkeitstheorie ist die Gesetz der Gesamtvarianz[1] oder Varianzzerlegungsformel oder bedingte Varianzformeln oder Gesetz der iterierten Varianzen auch bekannt als Evas Gesetz[2]gibt an, dass wenn X. und Y. sind Zufallsvariablen im gleichen Wahrscheinlichkeitsraum und die Varianz von Y. ist also endlich
In einer Sprache, die Statistikern vielleicht besser bekannt ist als Wahrscheinlichkeitstheoretikern, sind die beiden Begriffe die “ungeklärten” und die “erklärten” Komponenten der Varianz (vgl. Bruchteil der unerklärlichen Varianz, erklärte Variation). In der versicherungsmathematischen Wissenschaft, insbesondere der Glaubwürdigkeitstheorie, wird die erste Komponente als Erwartungswert der Prozessvarianz bezeichnet (EVPV) und die zweite heißt die Varianz der hypothetischen Mittel (VHM).[3] Diese beiden Komponenten sind auch die Quelle des Begriffs “Evas Gesetz” aus den Initialen EV VE für “Erwartung der Varianz” und “Varianz der Erwartung”.
Es gibt eine allgemeine Varianzzerlegungsformel für c ≥ 2 Komponenten (siehe unten).[4] Zum Beispiel mit zwei konditionierenden Zufallsvariablen:
was sich aus dem Gesetz der totalen bedingten Varianz ergibt:[4]
Beachten Sie, dass der bedingte Erwartungswert E ( Y. | X. ) ist eine eigenständige Zufallsvariable, deren Wert vom Wert von abhängt X.. Beachten Sie, dass der bedingte Erwartungswert von Y. Angenommen Veranstaltung X. = x ist eine Funktion von x (Hier wird die Einhaltung der konventionellen und streng fallabhängigen Notation der Wahrscheinlichkeitstheorie wichtig!). Wenn wir E schreiben ( Y. | X. = x ) = G((x) dann die Zufallsvariable E ( Y. | X. ) ist nur G((X.). Ähnliche Kommentare gelten für die bedingte Varianz.
Ein Sonderfall (ähnlich dem Gesetz der totalen Erwartung) besagt, dass wenn
ist eine Aufteilung des gesamten Ergebnisraums, dh diese Ereignisse schließen sich gegenseitig aus und sind dann erschöpfend
In dieser Formel ist die erste Komponente die Erwartung der bedingten Varianz; Die anderen beiden Zeilen sind die Varianz der bedingten Erwartung.
Das Gesetz der totalen Varianz kann unter Verwendung des Gesetzes der totalen Erwartung bewiesen werden.[5] Zuerst,
aus der Definition der Varianz. Wiederum haben wir aus der Definition der Varianz
Nun schreiben wir den bedingten zweiten Moment von Y in Bezug auf seine Varianz und den ersten Moment neu:
Da die Erwartung einer Summe die Summe der Erwartungen ist, können die Begriffe jetzt neu gruppiert werden:
Schließlich erkennen wir die Begriffe in Klammern als die Varianz der bedingten Erwartung E.[Y | X]::
Allgemeine Varianzzerlegung für dynamische Systeme[edit]
Die folgende Formel zeigt, wie die allgemeine Formel zur Messung der theoretischen Varianzzerlegung angewendet wird [4] zu stochastischen dynamischen Systemen. Lassen Y.((t) ist der Wert einer Systemvariablen zum Zeitpunkt t. Angenommen, wir haben die internen Geschichten (natürliche Filtrationen)
, wobei jede der Historie (Trajektorie) einer anderen Sammlung von Systemvariablen entspricht. Die Sammlungen müssen nicht disjunkt sein. Die Varianz von Y.((t) kann für alle Zeiten zerlegt werden tin c ≥ 2 Komponenten wie folgt:
In Fällen, in denen (Y., X.) sind so, dass der bedingte Erwartungswert linear ist; dh in Fällen, in denen
aus der Bilinearität der Kovarianz folgt, dass
und
und die erklärte Komponente der Varianz geteilt durch die Gesamtvarianz ist nur das Quadrat der Korrelation zwischen Y. und X.;; dh in solchen Fällen
Ein Beispiel für diese Situation ist, wenn (X., Y.) haben eine bivariate Normalverteilung (Gaußsche Verteilung).
Allgemeiner, wenn die bedingte Erwartung E ( Y. | X. ) ist eine nichtlineare Funktion von X.
- [4]
was als die geschätzt werden kann R. Quadrat aus einer nichtlinearen Regression von Y. auf X.unter Verwendung von Daten aus der gemeinsamen Verteilung von (X.,Y.). Wann E ( Y. | X. ) hat eine Gaußsche Verteilung (und ist eine invertierbare Funktion von X.), oder Y. selbst hat eine (marginale) Gaußsche Verteilung, diese erklärte Komponente der Variation setzt eine Untergrenze für die gegenseitige Information:[4]
Höhere Momente[edit]
Ein ähnliches Gesetz für den dritten zentralen Moment μ3 sagt
Für höhere Kumulanten besteht eine Verallgemeinerung. Siehe Gesetz der Gesamtkumulation.
Siehe auch[edit]
Verweise[edit]
- ^ Neil A. Weiss, Ein Kurs in Wahrscheinlichkeit, Addison-Wesley, 2005, Seiten 385–386.
- ^ Joseph K. Blitzstein und Jessica Hwang: “Einführung in die Wahrscheinlichkeit”
- ^ Mahler, Howard C.; Dean, Curtis Gary (2001). “Kapitel 8: Glaubwürdigkeit” (PDF). In Casualty Actuarial Society (Hrsg.). Grundlagen der Unfallversicherungsmathematik (4. Aufl.). Unfallversicherungsgesellschaft. S. 525–526. ISBN 978-0-96247-622-8. Abgerufen 25. Juni, 2015.
- ^ ein b c d e Bowsher, CG und PS Swain, Identifizierung von Variationsquellen und Informationsfluss in biochemischen Netzwerken, PNAS 15. Mai 2012 109 (20) E1320-E1328.
- ^ Neil A. Weiss, Ein Kurs in Wahrscheinlichkeit, Addison-Wesley, 2005, Seiten 380–383.
- Blitzstein, Joe. “Stat 110 Final Review (Evas Gesetz)” (PDF). stat110.net. Harvard University, Institut für Statistik. Abgerufen 9. Juli 2014.
- Billingsley, Patrick (1995). Wahrscheinlichkeit und Maß. New York, NY: ISBN von John Wiley & Sons, Inc. 0-471-00710-2. (Problem 34.10 (b))
Recent Comments