Bedingte Wahrscheinlichkeitsverteilung – Wikipedia

before-content-x4

In Wahrscheinlichkeitstheorie und Statistik bei zwei gemeinsam verteilten Zufallsvariablen

x{displaystyle X}

und

Ja{displaystyle Y}

, das bedingte Wahrscheinlichkeitsverteilung von Ja gegeben x ist die Wahrscheinlichkeitsverteilung von

Ja{displaystyle Y}

Wenn

x{displaystyle X}

ist als besonderer Wert bekannt; in einigen Fällen können die bedingten Wahrscheinlichkeiten als Funktionen ausgedrückt werden, die den nicht spezifizierten Wert enthalten

x{displaystyle x}

von

x{displaystyle X}

als Parameter. Wenn beide

x{displaystyle X}

und

Ja{displaystyle Y}

kategoriale Variablen sind, wird normalerweise eine bedingte Wahrscheinlichkeitstabelle verwendet, um die bedingte Wahrscheinlichkeit darzustellen. Die bedingte Verteilung steht im Gegensatz zur Randverteilung einer Zufallsvariablen, also ihrer Verteilung ohne Bezug auf den Wert der anderen Variablen.

Wenn die bedingte Verteilung von

Ja{displaystyle Y}

gegeben

x{displaystyle X}

eine stetige Verteilung ist, dann ist ihre Wahrscheinlichkeitsdichtefunktion bekannt als bedingte Dichtefunktion.[1] Die Eigenschaften einer bedingten Verteilung, wie beispielsweise die Momente, werden oft mit entsprechenden Namen wie dem bedingten Mittelwert und der bedingten Varianz bezeichnet.

Allgemeiner kann man sich auf die bedingte Verteilung einer Teilmenge einer Menge von mehr als zwei Variablen beziehen; diese bedingte Verteilung hängt von den Werten aller verbleibenden Variablen ab, und wenn mehr als eine Variable in der Teilmenge enthalten ist, dann ist diese bedingte Verteilung die bedingte gemeinsame Verteilung der eingeschlossenen Variablen.

Bedingte diskrete Verteilungen[edit]

Für diskrete Zufallsvariablen ist die bedingte Wahrscheinlichkeits-Massenfunktion von

Ja{displaystyle Y}

gegeben

x=x{displaystyle X=x}

kann nach seiner Definition geschrieben werden als:

PJa|x(ja|x)P(Ja=ja|x=x)=P({x=x}{Ja=ja})P(x=x){displaystyle p_{Y|X}(ymid x)triangleq P(Y=ymid X=x)={frac {P({X=x}cap {Y=y })}{P(X=x)}}}

Aufgrund des Auftretens von

P(x=x){displaystyle P(X=x)}

in einem Nenner ist dies nur für Nicht-Null definiert (daher streng positiv)

P(x=x).{displaystyle P(X=x).}

Der Zusammenhang mit der Wahrscheinlichkeitsverteilung von

x{displaystyle X}

gegeben

Ja{displaystyle Y}

ist:

Beispiel[edit]

Betrachten Sie den Wurf eines fairen Würfels und lassen Sie

x=1{displaystyle X=1}

wenn die Zahl gerade ist (dh 2, 4 oder 6) und

x=0{displaystyle X=0}

Andernfalls. Lassen Sie außerdem

Ja=1{displaystyle Y=1}

wenn die Zahl eine Primzahl ist (dh 2, 3 oder 5) und

Ja=0{displaystyle Y=0}

Andernfalls.

D 1 2 3 4 5 6
x 0 1 0 1 0 1
Ja 0 1 1 0 1 0

Dann ist die unbedingte Wahrscheinlichkeit, dass

x=1{displaystyle X=1}

ist 3/6 = 1/2 (da es sechs mögliche Würfelwürfe gibt, von denen drei gerade sind), während die Wahrscheinlichkeit, dass

x=1{displaystyle X=1}

bedingt auf

Ja=1{displaystyle Y=1}

ist 1/3 (da es drei mögliche Primzahlenwürfe gibt – 2, 3 und 5 – von denen einer gerade ist).

Bedingte stetige Verteilungen[edit]

Ähnlich ist für stetige Zufallsvariablen die bedingte Wahrscheinlichkeitsdichtefunktion von

Ja{displaystyle Y}

gegeben das Auftreten des Wertes

x{displaystyle x}

von

x{displaystyle X}

kann geschrieben werden als[2]: P. 99

FJa|x(ja|x)=Fx,Ja(x,ja)Fx(x){displaystyle f_{Ymid X}(ymid x)={frac {f_{X,Y}(x,y)}{f_{X}(x)}}}

wo

Fx,Ja(x,ja){displaystyle f_{X,Y}(x,y)}

ergibt die Fugendichte von

x{displaystyle X}

und

Ja{displaystyle Y}

, während

Fx(x){displaystyle f_{X}(x)}

gibt die Randdichte für

x{displaystyle X}

. Auch in diesem Fall ist es notwendig, dass

Fx(x)>0{displaystyle f_{X}(x)>0}

x{displaystyle X}

gegeben

Ja{displaystyle Y}

wird gegeben von:

Das Konzept der bedingten Verteilung einer kontinuierlichen Zufallsvariablen ist nicht so intuitiv, wie es scheinen mag: Das Borelsche Paradoxon zeigt, dass bedingte Wahrscheinlichkeitsdichtefunktionen unter Koordinatentransformationen nicht invariant sein müssen.

Beispiel[edit]

Die Grafik zeigt eine bivariate normale Gelenkdichte für Zufallsvariablen

x{displaystyle X}

und

Ja{displaystyle Y}

. Um die Verteilung von zu sehen

Ja{displaystyle Y}

bedingt auf

x=70{displaystyle X=70}

, kann man sich zuerst die Linie vorstellen

x=70{displaystyle X=70}

in dem

x,Ja{displaystyle X,Y}

Ebene, und visualisieren Sie dann die Ebene, die diese Linie enthält und senkrecht zu der

x,Ja{displaystyle X,Y}

Flugzeug. Der Schnittpunkt dieser Ebene mit der gemeinsamen Normalendichte ist, sobald er neu skaliert wurde, um eine Einheitsfläche unter dem Schnittpunkt zu ergeben, die relevante bedingte Dichte von

Ja{displaystyle Y}

.

Ja|x=70 ~ n(μ1+σ1σ2ρ(70μ2),(1ρ2)σ12).{displaystyle Ymid X=70\sim{mathcal{N}}left(mu_{1}+{frac {sigma_{1}}{sigma_{2}}} rho (70-mu_{2}),,(1-rho^{2})sigma_{1}^{2}right).}

Bezug zur Unabhängigkeit[edit]

Zufällige Variablen

x{displaystyle X}

,

Ja{displaystyle Y}

sind genau dann unabhängig, wenn die bedingte Verteilung von

Ja{displaystyle Y}

gegeben

x{displaystyle X}

ist für alle möglichen Realisierungen von

x{displaystyle X}

, gleich der unbedingten Verteilung von

Ja{displaystyle Y}

. Für diskrete Zufallsvariablen bedeutet dies

P(Ja=ja|x=x)=P(Ja=ja){displaystyle P(Y=y|X=x)=P(Y=y)}

für alles möglich

ja{displaystyle y}

und

x{displaystyle x}

mit

P(x=x)>0{displaystyle P(X=x)>0}

x{displaystyle X}

und

Ja{displaystyle Y}

, mit einer gemeinsamen Dichtefunktion, bedeutet dies

FJa(ja|x=x)=FJa(ja){displaystyle f_{Y}(y|X=x)=f_{Y}(y)}

für alles möglich

ja{displaystyle y}

und

x{displaystyle x}

mit

Fx(x)>0{displaystyle f_{X}(x)>0}

Eigenschaften[edit]

Gesehen als Funktion von

ja{displaystyle y}

für gegeben

x{displaystyle x}

,

P(Ja=ja|x=x){displaystyle P(Y=y|X=x)}

ist eine Wahrscheinlichkeits-Massenfunktion und damit die Summe über alle

ja{displaystyle y}

(oder Integral, wenn es sich um eine bedingte Wahrscheinlichkeitsdichte handelt) ist 1. Gesehen als Funktion von

x{displaystyle x}

für gegeben

ja{displaystyle y}

, es ist eine Likelihood-Funktion, so dass die Summe über alle

x{displaystyle x}

muss nicht 1 sein.

Zusätzlich kann ein Randwert einer gemeinsamen Verteilung als Erwartungswert der entsprechenden bedingten Verteilung ausgedrückt werden. Zum Beispiel,

Px(x)=EJa[pX|Y(X | Y)]{displaystyle p_{X}(x)=E_{Y}[p_{X|Y}(X | Y)]}

.

Maßtheoretische Formulierung[edit]

Lassen

(Ω,F,P){displaystyle (Omega ,{mathcal{F}},P)}

sei ein Wahrscheinlichkeitsraum,

gF{displaystyle {mathcal {G}}subseteq {mathcal {F}}}

ein

σ{displaystyle sigma}

-Feld in

F{displaystyle {mathcal{F}}}

. Gegeben

EINF{displaystyle Ain {mathcal{F}}}

, impliziert der Satz von Radon-Nikodym, dass es[3] ein

g{displaystyle {mathcal {G}}}

-messbare Zufallsvariable

P(EIN|g):ΩR{displaystyle P(Amid {mathcal{G}}):Omegatomathbb{R}}

, genannt die bedingte Wahrscheinlichkeit, so dass

für jeden

gg{displaystyle Gin {mathcal {G}}}

, und eine solche Zufallsvariable ist bis auf Mengen der Wahrscheinlichkeit Null eindeutig definiert. Eine bedingte Wahrscheinlichkeit heißt regulär wenn

P(|B)(ω){displaystyle operatorname {P} (cdot mid {mathcal {B}})(omega)}

ist ein Wahrscheinlichkeitsmaß für

(Ω,F){displaystyle (Omega,{mathcal{F}})}

für alle

ωΩ{displaystyle omegainOmega}

ae

Sonderfälle:

  • Für die triviale Sigma-Algebra
  • Wenn

Lassen

x:ΩE{displaystyle X:Omegato E}

sei ein

(E,E){displaystyle (E,{mathcal{E}})}

-bewertete Zufallsvariable. Für jeden

BE{displaystyle Bin {mathcal {E}}}

, definieren

Für alle

ωΩ{displaystyle omegainOmega}

, die Funktion

μx|g(|g)(ω):ER{displaystyle mu_{X,|{mathcal{G}}}(cdot,|{mathcal{G}})(omega):{mathcal{E}}to mathbb{ R} }

heißt der bedingte Wahrscheinlichkeitsverteilung von

x{displaystyle X}

gegeben

g{displaystyle {mathcal {G}}}

. Wenn es ein Wahrscheinlichkeitsmaß für ist

(E,E){displaystyle (E,{mathcal{E}})}

, dann heißt es regulär.

Für eine reellwertige Zufallsvariable (bezüglich der Borel

σ{displaystyle sigma}

-Gebiet

R1{displaystyle {mathcal{R}}^{1}}

An

R{displaystyle mathbb{R}}

), ist jede bedingte Wahrscheinlichkeitsverteilung regulär.[4] In diesem Fall,

E[XG]=xμ(Dx,){displaystyle E[Xmid {mathcal {G}}]=int_{-infty}^{infty}x,mu(dx,cdot)}

fast sicher.

Beziehung zur bedingten Erwartung[edit]

Für jede Veranstaltung

EINF{displaystyle Ain {mathcal{F}}}

, definieren Sie die Indikatorfunktion:

was eine Zufallsvariable ist. Beachten Sie, dass der Erwartungswert dieser Zufallsvariablen gleich der Wahrscheinlichkeit von EIN selbst:

Angenommen

σ{displaystyle sigma}

-Gebiet

gF{displaystyle {mathcal {G}}subseteq {mathcal {F}}}

, die bedingte Wahrscheinlichkeit

P(EIN|g){displaystyle operatorname {P} (Amid {mathcal {G}})}

ist eine Version der bedingten Erwartung der Indikatorfunktion für

EIN{displaystyle A}

:

Ein Erwartungswert einer Zufallsvariablen bezüglich einer regulären bedingten Wahrscheinlichkeit ist gleich seinem bedingten Erwartungswert.

Siehe auch[edit]

Verweise[edit]

after-content-x4