Distribution de probabilité conditionnelle – Wikipedia wiki

before-content-x4

Concept de théorie des probabilités et de statistiques

after-content-x4

Dans la théorie des probabilités et les statistiques, compte tenu de deux variables aléatoires distribuées conjointes

X {displaystyle x}

et

ET {displaystyle y}

, le Distribution de probabilité conditionnelle de

ET {displaystyle y}

donné

X {displaystyle x}

est la distribution de probabilité de

ET {displaystyle y}

quand

X {displaystyle x}

est connu pour être une valeur particulière; Dans certains cas, les probabilités conditionnelles peuvent être exprimées en fonction contenant la valeur non spécifiée

after-content-x4
X {displaystyle x}

de

X {displaystyle x}

comme paramètre. Lorsque les deux

X {displaystyle x}

et

ET {displaystyle y}

sont des variables catégorielles, un tableau de probabilité conditionnel est généralement utilisé pour représenter la probabilité conditionnelle. La distribution conditionnelle contraste avec la distribution marginale d’une variable aléatoire, qui est sa distribution sans référence à la valeur de l’autre variable.

Si la distribution conditionnelle de

ET {displaystyle y}

donné

X {displaystyle x}

est une distribution continue, alors sa fonction de densité de probabilité est connue sous le nom de fonction de densité conditionnelle . [d’abord] Les propriétés d’une distribution conditionnelle, telles que les moments, sont souvent mentionnées par des noms correspondants tels que la moyenne conditionnelle et la variance conditionnelle.

Plus généralement, on peut se référer à la distribution conditionnelle d’un sous-ensemble d’un ensemble de plus de deux variables; Cette distribution conditionnelle dépend des valeurs de toutes les variables restantes, et si plus d’une variable est incluse dans le sous-ensemble, cette distribution conditionnelle est la distribution de joint conditionnelle des variables incluses.

Distributions discrètes conditionnelles [ modifier ]]

Pour les variables aléatoires discrètes, la fonction de masse de probabilité conditionnelle de

ET {displaystyle y}

donné

X = X {displayStyle x = x}

peut être écrit en fonction de sa définition comme:

En raison de la survenue de

P ( X = X ) {displayStyle p (x = x)}

Dans le dénominateur, cela n’est défini que pour les non-zéro (donc strictement positif)

P ( X = X ) . {displayStyle p (x = x).}

La relation avec la distribution de probabilité de

X {displaystyle x}

donné

ET {displaystyle y}

est:

Exemple [ modifier ]]

Considérez le roule

X = d’abord {displayStyle x = 1}

Si le nombre est uniforme (c’est-à-dire 2, 4 ou 6) et

X = 0 {displayStyle x = 0}

sinon. De plus, laissez

ET = d’abord {displayStyle y = 1}

Si le nombre est premier (c’est-à-dire 2, 3 ou 5) et

ET = 0 {displayStyle y = 0}

sinon.

D d’abord 2 3 4 5 6
X 0 d’abord 0 d’abord 0 d’abord
ET 0 d’abord d’abord 0 d’abord 0

Puis la probabilité inconditionnelle que

X = d’abord {displayStyle x = 1}

est 3/6 = 1/2 (car il y a six rouleaux possibles des dés, dont trois sont égaux), tandis que la probabilité que

X = d’abord {displayStyle x = 1}

sur conditionnelle

ET = d’abord {displayStyle y = 1}

est 1/3 (car il y a trois rouleaux de nombres premiers possibles – 2, 3 et 5 – de lequel est même).

Distributions continues conditionnelles [ modifier ]]

De même pour les variables aléatoires continues, la fonction de densité de probabilité conditionnelle de

ET {displaystyle y}

Compte tenu de l’occurrence de la valeur

X {displaystyle x}

de

X {displaystyle x}

peut être écrit comme [2] : P. 99

F X , ET ( X , et ) {displayStyle f_ {x, y} (x, y)}

donne la densité conjointe de

X {displaystyle x}

et

ET {displaystyle y}

, alors que

F X ( X ) {displayStyle f_ {x} (x)}

donne la densité marginale pour

X {displaystyle x}

. Dans ce cas, il est également nécessaire que

F X ( X ) > 0 {displayStyle f_ {x} (x)> 0}

X {displaystyle x}

donné

ET {displaystyle y}

est donné par:

Le concept de la distribution conditionnelle d’une variable aléatoire continue n’est pas aussi intuitif qu’il pourrait paraître: le paradoxe de Borel montre que les fonctions de densité de probabilité conditionnelle ne doivent pas être invariantes dans les transformations de coordonnées.

Exemple [ modifier ]]

Le graphique montre une densité articulaire normale bivariée pour les variables aléatoires

X {displaystyle x}

et

ET {displaystyle y}

. Pour voir la distribution de

ET {displaystyle y}

sur conditionnelle

X = 70 {displayStyle x = 70}

, on peut d’abord visualiser la ligne

X = 70 {displayStyle x = 70}

dans le

X , ET {displaystyle x, y}

plan, puis visualisez le plan contenant cette ligne et perpendiculaire

X , ET {displaystyle x, y}

avion. L’intersection de ce plan avec la densité normale articulaire, une fois redimensionnée pour donner une zone unitaire sous l’intersection, est la densité conditionnelle pertinente de

ET {displaystyle y}

.

ET X = 70 N ( μ1+ σ1σ2r ( 70 μ2) , ( d’abord ρ2) σ12) . {displayStyle ymid x = 70 sim {mathcal {n}} Left (mu _ {1} + {frac {sigma _ {1}} {sigma _ {2}}} rho (70-mu _ {2}),, (1-rho ^ {2}) Sigma _ {1} ^ {2} droit).}

Relation avec l’indépendance [ modifier ]]

Variables aléatoires

X {displaystyle x}

,

ET {displaystyle y}

sont indépendants si et seulement si la distribution conditionnelle de

ET {displaystyle y}

donné

X {displaystyle x}

est, pour toutes les réalisations possibles de

X {displaystyle x}

, égal à la distribution inconditionnelle de

ET {displaystyle y}

. Pour les variables aléatoires discrètes, cela signifie

P ( ET = et | X = X ) = P ( ET = et ) {DisplayStyle p (y = y | x = x) = p (y = y)}

pour tous possibles

et {displaystyle y}

et

X {displaystyle x}

avec

P ( X = X ) > 0 {displayStyle p (x = x)> 0}

X {displaystyle x}

et

ET {displaystyle y}

, ayant une fonction de densité conjointe, cela signifie

F ET ( et | X = X ) = F ET ( et ) {DisplayStyle f_ {y} (y | x = x) = f_ {y} (y)}

pour tous possibles

et {displaystyle y}

et

X {displaystyle x}

avec

F X ( X ) > 0 {displayStyle f_ {x} (x)> 0}

Propriétés [ modifier ]]

Vu comme une fonction de

et {displaystyle y}

pour donné

X {displaystyle x}

,

P ( ET = et | X = X ) {displayStyle p (y = y | x = x)}

est une fonction de masse de probabilité et donc la somme sur tous

et {displaystyle y}

(ou intégral s’il s’agit d’une densité de probabilité conditionnelle) est 1. considéré comme une fonction de

X {displaystyle x}

pour donné

et {displaystyle y}

, c’est une fonction de vraisemblance, de sorte que la somme sur tous

X {displaystyle x}

n’a pas besoin d’être 1.

De plus, un marginal d’une distribution conjointe peut être exprimé comme l’attente de la distribution conditionnelle correspondante. Par exemple,

p X ( X ) = ET ET [ p X |ET ( X | ET ) ]] {displayStyle p_ {x} (x) = e_ {y} [p_ {x | y} (x | y)]}

.

Formulation théorique de mesure [ modifier ]]

Laisser

( Oh , F , P ) {displayStyle (Omega, {Mathcal {f}}, p)}

être un espace de probabilité,

g F {displayStyle {Mathcal {g}} subseseq {mathcal {f}}}

un

un {DisplayStyle Sigma}

-Field dans

F {displayStyle {Mathcal {f}}}

. Donné

UN F {displayStyle ain {Mathcal {f}}}

, le théorème du radon-nikodym implique qu’il y a [3] un

g {displayStyle {Mathcal {g}}}

-Variable aléatoire mesurable

P ( UN g ) : Oh R {displayStyle p (amid {Mathcal {g}}): Omega à MathBB {R}}

, appelé le probabilite conditionnelle , tel que

pour chaque

g g {displayStyle gin {mathcal {g}}}

, et une telle variable aléatoire est définie de manière unique jusqu’à des ensembles de probabilité zéro. Une probabilité conditionnelle est appelée régulier si

P ( g ) ( Oh ) {displayStyle operatorname {p} (cdot mid {mathcal {g}}) (omega)}

est une mesure de probabilité sur

( Oh , F ) {displayStyle (Omega, {Mathcal {f}})}

pour tous

Oh Oh {DisplayStyle Omega dans Omega}

A.E.

Cas spéciaux:

  • Pour l’algèbre Sigma triviale
  • Si

Laisser

X : Oh ET {displaystyle x: oméga à e}

être un

( ET , ET ) {displayStyle (e, {mathcal {e}})}

-Valué variable aléatoire. Pour chaque

B ET m Discutez de ce Yrintylextor Hyarry Empiest Repjoys.

, définir

Pour toute

Oh Oh {DisplayStyle Omega dans Omega}

, la fonction

m X | G( | g ) ( Oh ) : ET R {displayStyle mu _ {x, | {mathcal {g}}} (cdot, | {mathcal {g}}) (omega): {mathcal {e}} à mathbb {r}}

est appelé le Distribution de probabilité conditionnelle de

X {displaystyle x}

donné

g {displayStyle {Mathcal {g}}}

. S’il s’agit d’une mesure de probabilité

( ET , ET ) {displayStyle (e, {mathcal {e}})}

, alors ça s’appelle régulier .

Pour une variable aléatoire à valeur réelle (en ce qui concerne le borel

un {DisplayStyle Sigma}

-champ

Rd’abord {displayStyle {Mathcal {r}} ^ {1}}

sur

R {displayStyle Mathbb {r}}

), chaque distribution de probabilité conditionnelle est régulière. [4] Dans ce cas,

ET [ X g ]] = X m ( d X , ) {displayStyle e [xmid {mathcal {g}}] = int _ {- infty} ^ {infty} x, mu (dx, cdot)}

presque sûrement.

Relation avec les attentes conditionnelles [ modifier ]]

Pour tout événement

UN F {displayStyle ain {Mathcal {f}}}

, Définissez la fonction d’indicateur:

qui est une variable aléatoire. Notez que l’attente de cette variable aléatoire est égale à la probabilité de UN lui-même:

Donné un

un {DisplayStyle Sigma}

-champ

g F {displayStyle {Mathcal {g}} subseseq {mathcal {f}}}

, la probabilité conditionnelle

P ( UN g ) {displayStyle operatorname {p} (au milieu {mathcal {g}})}

est une version de l’attente conditionnelle de la fonction d’indicateur pour

UN {displaystyle a}

:

L’attente d’une variable aléatoire par rapport à une probabilité conditionnelle régulière est égale à son attente conditionnelle.

Voir également [ modifier ]]

Les références [ modifier ]]

Citations [ modifier ]]

Sources [ modifier ]]

after-content-x4