übergangmatrix – Wikipedia Wikipedia

before-content-x4

En mathématiques, en particulier la théorie des probabilités et les statistiques, on sert Matrice de transition (aussi Matrice de processus ou Matrice stochastique ) Pour exprimer les probabilités de transition des chaînes markow (discrètes et continues). En conséquence, les développements futurs peuvent être prédits. Dans la théorie des chaînes Markow, des matrices de transition à dimension infinie sont également définies. Dans cet article, cependant, seules les matrices dans le sens de l’algèbre linéaire sont traitées.

after-content-x4

Un Matrice de transition est une matrice carrée, dont la ligne ou la colonne est un seul et dont les éléments sont entre zéro et un. [d’abord]

Procéder des matrices Servir également pour le calcul futur des développements dynamiques. Contrairement aux matrices stochastiques, cependant, vous n’avez pas besoin d’avoir des sommes de ligne ou de colonne de 1. Cependant, comme la matrice stochastique, ils sont carrés.

  • Une matrice de transition est appelée stochastique de ligne si toutes les entrées de la matrice sont comprises entre 0 et 1 et le résultat de la ligne 1.
  • Une matrice de transition est appelée colonne stochastique lorsque toutes les entrées de la matrice sont comprises entre 0 et 1 et la colonne résume 1 résultat.
  • Une matrice de transition est appelée double stochastique lorsqu’elle est à la fois en ligne et en colonne stochastique.

La définition suivante est équivalente: une matrice est appelée ligne (colonne) stochastiquement si elle se compose de vecteurs de modes de probabilité de lignes (colonne).

Parfois, les matrices avec des entrées entre 0 et 1, les sommets de ligne (ou les sommes de colonne) sont plus petites que 1, également comme gamin désigné. Dans les stochastiques, les matrices stochastiques linéaires sont utilisées presque exclusivement. La distinction est i. A. peu commun parce que les matrices ont fusionné par transposition.

Valeurs égales et auto-vecteurs [ Modifier | Modifier le texte source ]]

Les auto-valeurs et les auto-vecteurs d’une matrice stochastique jouent un rôle spécial dans les stochastiques. Est

after-content-x4
dans {DisplayStyle V}

Vecteur égal au Valon Eigen

l = d’abord {displaystyle lambda = 1}

, il correspond à une distribution stationnaire de la chaîne Markow (voir ci-dessous). En général, chaque matrice stochastique a la propre valeur 1. est z. B.

P {displaystyle p}

Ligne stochastique, suit avec la norme de ligne standard qui

P = d’abord {displaystyle Vert PVert _{infty }=1}

. Étant donné que le rayon spectral d’une matrice est toujours aussi grand que sa norme, toutes les valeurs propres doivent être plus petites ou égales à 1. Est maintenant

d’abord {displaystyle mathbf {1}}

Un vecteur one (c’est-à-dire un vecteur avec seulement 1 comme entrées), donc s’applique

P d’abord = d’abord {displayStyle pmathbf {1} = mathbf {1}}

et 1 est particulier de

P {displaystyle p}

. Les preuves des matrices stochastiques de colonne fonctionnent de manière analogue, mais avec la norme de la colonne au lieu de l’étalon de la norme de ligne. Il s’ensuit directement que 1 est toujours la plus grande particularité. De plus, 1 est toujours une particularité à demi-temps. La dimension de l’espace propre peut être calculée un peu plus fortement. Avec la phrase de Perron-Frobenius suit:

  • Si la matrice stochastique n’est pas pertinente, la dimension du propre espace appartenant à la particularité est égale à 1.

Ceci est en particulier le cas si les entrées d’une matrice stochastique sont vraiment supérieures à 0.

Convexité, normes et achèvement [ Modifier | Modifier le texte source ]]

La quantité de matrices de transition est convexe. Aussi

P {displaystyle p}

et

Q {displayStyle Q}

Matrices stochastiques de ligne ou de colonne, aussi

l P + ( d’abord l ) Q {DisplayStyle Lambda P + (1-Lambda) Q}

Encore une fois une ligne stochastique de ligne ou de colonne pour tout le monde

l [ 0 , d’abord ]] {DisplayStyle Lambda dans [0,1]}

.

Il résulte directement de la définition que la norme Mummery de ligne est une matrice stochastique de ligne 1, tout comme la norme de somme de colonne d’une matrice stochastique de colonne.

De plus, les matrices de transition sont complètes concernant la multiplication de la matrice: sont

UN , B {displaystyle a, b}

Matrices stochastiques de colonne ou de ligne,

UN B {displaystyle acdot b}

Également une colonne ou une matrice stochastique de ligne.

Le polynôme caractéristique

( 3 × 3 ) {displayStyle (3Times 3)}

– La matrice de transition peut être calculée très facilement.

Avec la voie

S : = Éperon ( P ) {displayStyle s: = opératorname {spur} (p)}

et le déterminant

D : = le ( P ) {DisplayStyle d: = det (p)}

est applicable:

De la dernière ligne, il suit que

l = d’abord {displaystyle lambda = 1}

La matrice P est toujours particulière, quel que soit le choix de P. Les deux autres valeurs propres peuvent ensuite être calculées via la formule P-Q.

Est

P {displaystyle p}

Une matrice stochastique de ligne peut être caractérisée de la manière suivante, une chaîne Markow variante dans le temps avec un espace finalement étatique:

Les entrées

p je J {displayStyle p_ {ij}}

La matrice

P {displaystyle p}

sont exactement les probabilités de transition de la condition

je {displayStyle i}

dans l’état

J {displaystyle j}

:

p je , J : = P ( X t + d’abord = J X t = je ) {displayStyle p_ {i, j}: = p (x_ {t + 1} = jmid x_ {t} = i)}

. Est maintenant

X 0 {displayStyle x_ {0}}

Un vecteur de probabilité (qui est souvent défini en stochastique comme un vecteur de ligne et avec

Pi {displaystyle pi}

est appelé), alors décrit

X 0 {displayStyle x_ {0}}

l’état du système au temps 0 (le

je {displayStyle i}

-Te entrée de

X 0 {displayStyle x_ {0}}

La probabilité de résidence au temps 0 dans l’État

je {displayStyle i}

). La probabilité de résidence au temps 1 résulte de la multiplication de gauche à gauche de

P {displaystyle p}

avec

X 0 {displayStyle x_ {0}}

:

La probabilité de résidence à tout moment

k {displaystyle k}

En fonction de la condition de départ

X 0 {displayStyle x_ {0}}

Sont alors

Pour les matrices stochastiques des colonnes, vous pouvez procéder de manière analogue, juste que la vectorielle est effectuée à droite et que le vecteur auto-auto-ordinaire est calculé pour la particularité 1. Alternativement, vous pouvez également transposer la matrice et utiliser la procédure décrite ci-dessus.

Les vecteurs à main gauche de la matrice ont un rôle spécial

P {displaystyle p}

À la valeur propre

l = d’abord {displaystyle lambda = 1}

Être, parce que ceux-ci représentent les distributions hospitalières de la chaîne Markow.

Un exemple axé sur l’application de cette utilisation des matrices de transition est le calcul du PageRank à l’aide de la matrice Google. Chaque condition correspond à un site Web du World Wide Web, qui indique les probabilités de transition avec la probabilité qu’un utilisateur clique sur un lien. La distribution des frontières est alors la fréquence relative à laquelle l’utilisateur rencontre un site Web et donc une mesure de l’importance de cette page.

Les vecteurs juridiques d’une matrice de transition vers la particularité jouent également un rôle dans l’examen des chaînes de Markow. Si la normalisation convient, ce sont exactement les probabilités d’absorption dans un état absorbant.

De plus, il existe également de nombreuses propriétés d’une chaîne Markow dans la matrice de transition:

Le rat dans la pièce [ Modifier | Modifier le texte source ]]

Peter a un rat. Si le rat n’est pas verrouillé dans la cage, il est soit sous le bureau (condition 3), derrière le placard (condition 2), soit dans la cage à manger (condition 1). Le rat change sa place toutes les 5 minutes. S’il est actuellement dans la cage, il y reste 0,05 avec probabilité, avec une probabilité de 0,4, elle va derrière le placard et avec une probabilité de 0,55 sous le bureau. S’il est derrière le placard, il reste 0,7 avec probabilité, avec une probabilité de 0,2, il passe sous le bureau et avec une probabilité de 0,1, elle entre dans la cage. S’il est sous le bureau, il reste 0,1 avec probabilité, avec une probabilité de 0,1, elle entre dans la cage et avec une probabilité de 0,8, elle s’échappe derrière le placard. Le comportement du rat est dû à la matrice stochastique de ligne

P {displaystyle p}

décrit:

Peter laisse maintenant son rat libre et veut savoir quelle probabilité le rat est dans la cage après 20 minutes. La condition de départ du système est

(Le rat est dans la cage avec probabilité 1). La condition après 20 minutes (après 4 pas de temps) est (arrondie)

Le rat est donc susceptible d’être 0,0952 dans la cage.

Peter part en vacances ce week-end et veut ensuite capturer son rat. Maintenant, la question se pose où chercher le mieux. Depuis que beaucoup de temps s’est écoulé depuis la libération du rat, l’hypothèse est justifiée que le système est en équilibre. Nous recherchons donc un vecteur à main gauche de

P {displaystyle p}

ou un vecteur légal de

P T {displaystyle p ^ {t}}

À la valeur propre 1. par réintroduction, l’auto-vecteur (arrondi) résulte

X = ( 0,095 2 ; 0,692 6 ; 0,212 d’abord ) T {displayStyle x = (0 {,} 0952; 0 {,} 6926; 0 {,} 2121) ^ {t}}

Peter devrait donc d’abord chercher derrière le placard.

Le chat et la souris [ Modifier | Modifier le texte source ]]

Il y a cinq boîtes situées côte à côte, numérotées de un à cinq, et dans la première boîte, il peut y avoir un chat et une souris dans le dernier. Après une période fixe, les animaux passent au hasard vers une boîte voisine. Le jeu macabre touche à sa fin lorsque le chat frappe la souris dans une boîte. Nous désignons les conditions possibles avec (i, j), d. Autrement dit, le chat est dans le I-Ten et la souris dans la boîte J-Ten.
Nous voyons immédiatement que lorsque je suis (impaire), J doit aussi être (impair). Il est immédiatement clair que

je J {displaystyle ileq j}

doit s’appliquer. La chaîne Markow qui décrit ce jeu a les cinq conditions suivantes:

  • (1,3)
  • (1.5)
  • (2,4)
  • (3.5)
  • Fin du jeu (2.2), (3.3) et (4.4).

Le vecteur

dans {DisplayStyle V}

indiquer lequel de ces cinq conditions. Par exemple

dans = [ d’abord , 0 , 0 , 0 , 0 ]] T {displayStyle v = [1,0,0,0,0] ^ {t}}

Pour le premier état de notre liste, c’est-à-dire

( d’abord , 3 ) {DisplayStyle (1,3)}

, et

dans = [ 0 , 0 , 0 , 0 , d’abord ]] T {displayStyle v = [0,0,0,0,1] ^ {t}}

Pour le dernier, c’est-à-dire la fin du jeu (peu importe, dans quelle boîte).

La matrice de transition A est maintenant

Si, par exemple, comme au début du 2ème état

dans = [ 0 , d’abord , 0 , 0 , 0 ]] T {displayStyle v = [0,1,0,0,0] ^ {t}}

Sont, alors nous passerons certainement au 3ème état

dans = [ 0 , 0 , d’abord , 0 , 0 ]] T {displayStyle v = [0,0,1,0,0] ^ {t}}

, Donc chat dans le deuxième et souris dans la quatrième boîte. Par conséquent, la position dans la 2ème colonne et la 3e ligne est une dans la matrice de transition.

À partir de cet état, nous entrons maintenant dans l’une des quatre autres conditions avec une probabilité de 25%, donc toutes les lignes de la 3e colonne sont 1/4 (sauf la 3e ligne – la condition ne peut pas rester la même).

  1. Gerhard Hübner: Stochastique . 2009, S. 162 .
after-content-x4