Kovarianz – Wikipedia

Das Vorzeichen der Kovarianz zweier Zufallsvariablen X. und Y.

In der Wahrscheinlichkeitstheorie und Statistik Kovarianz ist ein Maß für die gemeinsame Variabilität zweier Zufallsvariablen.[1] Wenn die größeren Werte einer Variablen hauptsächlich den größeren Werten der anderen Variablen entsprechen und dasselbe für die kleineren Werte gilt (dh die Variablen zeigen tendenziell ein ähnliches Verhalten), ist die Kovarianz positiv.[2] Im umgekehrten Fall ist die Kovarianz negativ, wenn die größeren Werte einer Variablen hauptsächlich den kleineren Werten der anderen Variablen entsprechen (dh die Variablen neigen dazu, ein entgegengesetztes Verhalten zu zeigen). Das Vorzeichen der Kovarianz zeigt daher die Tendenz in der linearen Beziehung zwischen den Variablen. Die Größe der Kovarianz ist nicht leicht zu interpretieren, da sie nicht normalisiert ist und daher von den Größen der Variablen abhängt. Die normalisierte Version der Kovarianz, der Korrelationskoeffizient, zeigt jedoch durch ihre Größe die Stärke der linearen Beziehung.

Es muss unterschieden werden zwischen (1) der Kovarianz zweier Zufallsvariablen, die ein Populationsparameter ist, der als Eigenschaft der gemeinsamen Wahrscheinlichkeitsverteilung angesehen werden kann, und (2) der Stichproben-Kovarianz, die zusätzlich als Deskriptor dient der Stichprobe dient auch als geschätzter Wert des Populationsparameters.

Definition[edit]

Für zwei gemeinsam verteilte reelle Zufallsvariablen

X.{ displaystyle X}

und

Y.{ displaystyle Y}

Bei endlichen zweiten Momenten wird die Kovarianz als der erwartete Wert (oder Mittelwert) des Produkts ihrer Abweichungen von ihren individuellen erwarteten Werten definiert:[3][4]::p. 119

cov⁡((X.,Y.)=E.⁡[(X−E⁡[X])((Y.– –E.⁡[Y])]]{ displaystyle operatorname {cov} (X, Y) = operatorname {E} {{ big [}(X-operatorname {E} [X]) (Y- operatorname {E} [Y]){groß ]}}}

((Gl.1)

wo

E.⁡[X]{ displaystyle operatorname {E} [X]}}

ist der erwartete Wert von

X.{ displaystyle X}

, auch bekannt als Mittelwert von

X.{ displaystyle X}

. Die Kovarianz wird manchmal auch bezeichnet

σX.Y.{ displaystyle sigma _ {XY}}

oder

σ((X.,Y.){ displaystyle sigma (X, Y)}

in Analogie zur Varianz. Durch Verwendung der Linearitätseigenschaft der Erwartungen kann dies auf den erwarteten Wert ihres Produkts abzüglich des Produkts ihrer erwarteten Werte vereinfacht werden:

cov⁡((X.,Y.)=E.⁡[(X−E⁡[X])((Y.– –E.⁡[Y])]]=E.⁡[XY−XE⁡[Y]– –E.⁡[X]Y.+E.⁡[X]E.⁡[Y]]]=E.⁡[XY]– –E.⁡[X]E.⁡[Y]– –E.⁡[X]E.⁡[Y]+E.⁡[X]E.⁡[Y]=E.⁡[XY]– –E.⁡[X]E.⁡[Y],{ displaystyle { begin {align} operatorname {cov} (X, Y) & = operatorname {E} left[left(X-operatorname {E} left[Xright] right) left (Y- operatorname {E} left[Yright] right) right]\ & = operatorname {E} left[XY-Xoperatorname {E} left[Yright]- operatorname {E} left[Xright]Y + operatorname {E} left[Xright] operatorname {E} left[Yright] right]\ & = operatorname {E} left[XYright]- operatorname {E} left[Xright] operatorname {E} left[Yright]- operatorname {E} left[Xright] operatorname {E} left[Yright]+ operatorname {E} left[Xright] operatorname {E} left[Yright]\ & = operatorname {E} left[XYright]- operatorname {E} left[Xright] operatorname {E} left[Yright], end {align}}}

Diese Gleichung kann jedoch katastrophal aufgehoben werden (siehe Abschnitt über numerische Berechnungen weiter unten).

Die Maßeinheiten der Kovarianz

cov⁡((X.,Y.){ displaystyle operatorname {cov} (X, Y)}

sind die von

X.{ displaystyle X}

mal die von

Y.{ displaystyle Y}

. Im Gegensatz dazu sind Korrelationskoeffizienten, die von der Kovarianz abhängen, ein dimensionsloses Maß für die lineare Abhängigkeit. (Tatsächlich können Korrelationskoeffizienten einfach als normalisierte Version der Kovarianz verstanden werden.)

Definition für komplexe Zufallsvariablen[edit]

Die Kovarianz zwischen zwei komplexen Zufallsvariablen

Z.,W.{ displaystyle Z, W}

ist definiert als[4]::p. 119

cov⁡((Z.,W.)=E.⁡[(Z−E⁡[Z])((W.– –E.⁡[W])¯]]=E.⁡[ZW¯]– –E.⁡[Z]E.⁡[W¯]{ displaystyle operatorname {cov} (Z, W) = operatorname {E} left[(Z-operatorname {E} [Z]) { overline {(W- operatorname {E} [W])}} right]= operatorname {E} left[Z{overline {W}}right]- operatorname {E} [Z] operatorname {E} left[{overline {W}}right]}}

Beachten Sie die komplexe Konjugation des zweiten Faktors in der Definition.

Diskrete Zufallsvariablen[edit]

Wenn das Zufallsvariablenpaar

((X.,Y.){ displaystyle (X, Y)}

kann die Werte annehmen

((xich,yich){ displaystyle (x_ {i}, y_ {i})}

zum

ich=1,…,n{ displaystyle i = 1, ldots, n}

mit gleichen Wahrscheinlichkeiten

pich=1/.n{ displaystyle p_ {i} = 1 / n}

dann kann die Kovarianz in Bezug auf die Mittel gleichwertig geschrieben werden

E.⁡[X]{ displaystyle operatorname {E} [X]}}

und

E.⁡[Y]{ displaystyle operatorname {E} [Y]}}

wie

cov⁡((X.,Y.)=1n∑ich=1n((xich– –E.((X.))((yich– –E.((Y.)).{ displaystyle operatorname {cov} (X, Y) = { frac {1} {n}} sum _ {i = 1} ^ {n} (x_ {i} -E (X)) (y_ { i} -E (Y)).}

Es kann auch äquivalent ausgedrückt werden, ohne sich direkt auf die Mittel zu beziehen, als[5]

cov⁡((X.,Y.)=1n2∑ich=1n∑j=1n12((xich– –xj)((yich– –yj)=1n2∑ich∑j>ich((xich– –xj)((yich– –yj).{ displaystyle operatorname {cov} (X, Y) = { frac {1} {n ^ {2}}} sum _ {i = 1} ^ {n} sum _ {j = 1} ^ { n} { frac {1} {2}} (x_ {i} -x_ {j}) (y_ {i} -y_ {j}) = { frac {1} {n ^ {2}}} sum _ {i} sum _ {j> i} (x_ {i} -x_ {j}) (y_ {i} -y_ {j}).}

n{ displaystyle n}

mögliche Realisierungen von ((X.,Y.){ displaystyle (X, Y)}

nämlich ((xich,yich){ displaystyle (x_ {i}, y_ {i})}

aber mit möglicherweise ungleichen Wahrscheinlichkeiten pich{ displaystyle p_ {i}}

zum ich=1,…,n{ displaystyle i = 1, ldots, n}

dann ist die Kovarianz
cov⁡((X.,Y.)=∑ich=1npich((xich– –E.((X.))((yich– –E.((Y.)).{ displaystyle operatorname {cov} (X, Y) = sum _ {i = 1} ^ {n} p_ {i} (x_ {i} -E (X)) (y_ {i} -E (Y. )).}

Beispiel[edit]

Geometrische Interpretation des Kovarianzbeispiels. Jeder Quader ist der Begrenzungsrahmen seines Punktes (x, y, f((x, y )) und die X. und Y. bedeutet (Magenta-Punkt). Die Kovarianz ist die Summe der Volumina der roten Quader minus blauen Quader.

Nehme an, dass

X.{ displaystyle X}

und

Y.{ displaystyle Y}

haben die folgende gemeinsame Wahrscheinlichkeitsmassenfunktion,[6] in denen die sechs zentralen Zellen die diskreten Gelenkwahrscheinlichkeiten angeben

f((x,y){ displaystyle f (x, y)}

der sechs hypothetischen Realisierungen

((x,y)∈S.={((5,8),((6,8),((7,8),((5,9),((6,9),((7,9)}}{ displaystyle (x, y) in S = left {(5,8), (6,8), (7,8), (5,9), (6,9), (7,9) )Recht}}

::

f((x,y){ displaystyle f (x, y)}

x fY.((y){ displaystyle f_ {Y} (y)}

5 6 7
y 8 0 0,4 0,1 0,5
9 0,3 0 0,2 0,5
fX.((x){ displaystyle f_ {X} (x)}

0,3 0,4 0,3 1

X.{ displaystyle X}

kann dabei drei Werte annehmen (5, 6 und 7)

Y.{ displaystyle Y}

kann zwei (8 und 9) annehmen. Ihre Mittel sind

μX.=5((0,3)+6((0,4)+7((0,1+0,2)=6{ displaystyle mu _ {X} = 5 (0,3) +6 (0,4) +7 (0,1 + 0,2) = 6}

und

μY.=8((0,4+0,1)+9((0,3+0,2)=8.5{ displaystyle mu _ {Y} = 8 (0,4 + 0,1) + 9 (0,3 + 0,2) = 8,5}

. Dann,

cov⁡((X.,Y.)=σX.Y.=∑((x,y)∈S.f((x,y)((x– –μX.)((y– –μY.)=((0)((5– –6)((8– –8.5)+((0,4)((6– –6)((8– –8.5)+((0,1)((7– –6)((8– –8.5)+((0,3)((5– –6)((9– –8.5)+((0)((6– –6)((9– –8.5)+((0,2)((7– –6)((9– –8.5)=– –0,1.{ displaystyle { begin {align} operatorname {cov} (X, Y) = {} & sigma _ {XY} = sum _ {(x, y) in S} f (x, y) links (x- mu _ {X} rechts) links (y- mu _ {Y} rechts) \[4pt]= {} & (0) (5-6) (8-8,5) + (0,4) (6-6) (8-8,5) + (0,1) (7-6) (8-8,5) + {} \[4pt]& (0,3) (5-6) (9-8,5) + (0) (6-6) (9-8,5) + (0,2) (7-6) (9-8,5) \[4pt]= {} & {- 0.1} ;. End {align}}}

Eigenschaften[edit]

Kovarianz mit sich selbst[edit]

Die Varianz ist ein Sonderfall der Kovarianz, bei der die beiden Variablen identisch sind (dh bei der eine Variable immer den gleichen Wert wie die andere annimmt):[4]::p. 121

cov⁡((X.,X.)=var⁡((X.)≡σ2((X.)≡σX.2.{ displaystyle operatorname {cov} (X, X) = operatorname {var} (X) equiv sigma ^ {2} (X) equiv sigma _ {X} ^ {2}.}

Kovarianz linearer Kombinationen[edit]

Wenn

X.{ displaystyle X}

,

Y.{ displaystyle Y}

,

W.{ displaystyle W}

, und

V.{ displaystyle V}

sind reelle Zufallsvariablen und

ein,b,c,d{ displaystyle a, b, c, d}

Wenn es sich um reelle Konstanten handelt, sind die folgenden Tatsachen eine Folge der Definition der Kovarianz:

cov⁡((X.,ein)=0cov⁡((X.,X.)=var⁡((X.)cov⁡((X.,Y.)=cov⁡((Y.,X.)cov⁡((einX.,bY.)=einbcov⁡((X.,Y.)cov⁡((X.+ein,Y.+b)=cov⁡((X.,Y.)cov⁡((einX.+bY.,cW.+dV.)=einccov⁡((X.,W.)+eindcov⁡((X.,V.)+bccov⁡((Y.,W.)+bdcov⁡((Y.,V.){ displaystyle { begin {align} operatorname {cov} (X, a) & = 0 \ operatorname {cov} (X, X) & = operatorname {var} (X) \ operatorname {cov } (X, Y) & = operatorname {cov} (Y, X) \ operatorname {cov} (aX, bY) & = ab , operatorname {cov} (X, Y) \ operatorname { cov} (X + a, Y + b) & = operatorname {cov} (X, Y) \ operatorname {cov} (aX + bY, cW + dV) & = ac , operatorname {cov} ( X, W) + ad , operatorname {cov} (X, V) + bc , operatorname {cov} (Y, W) + bd , operatorname {cov} (Y, V) end {ausgerichtet }}}

Für eine Sequenz

X.1,…,X.n{ displaystyle X_ {1}, ldots, X_ {n}}

von Zufallsvariablen in reellen Werten und Konstanten

ein1,…,einn{ displaystyle a_ {1}, ldots, a_ {n}}

, wir haben

σ2((∑ich=1neinichX.ich)=∑ich=1neinich2σ2((X.ich)+2∑ich,j::ich<jeinicheinjcov⁡((X.ich,X.j)=∑ich,jeinicheinjcov⁡((X.ich,X.j){ displaystyle sigma ^ {2} left ( sum _ {i = 1} ^ {n} a_ {i} X_ {i} right) = sum _ {i = 1} ^ {n} a_ { i} ^ {2} sigma ^ {2} (X_ {i}) + 2 sum _ {i, j ,: , i

Hoeffdings Kovarianzidentität[edit]

Eine nützliche Identität zur Berechnung der Kovarianz zwischen zwei Zufallsvariablen

X.,Y.{ displaystyle X, Y}

ist die Kovarianzidentität des Hoeffding:[7]

cov⁡((X.,Y.)=∫R.∫R.((F.((X.,Y.)((x,y)– –F.X.((x)F.Y.((y))dxdy{ displaystyle operatorname {cov} (X, Y) = int _ { mathbb {R}} int _ { mathbb {R}} left (F _ {(X, Y)} (x, y) -F_ {X} (x) F_ {Y} (y) rechts) , dx , dy}

wo

F.((X.,Y.)((x,y){ displaystyle F _ {(X, Y)} (x, y)}

ist die gemeinsame kumulative Verteilungsfunktion des Zufallsvektors

((X.,Y.){ displaystyle (X, Y)}

und

F.X.((x),F.Y.((y){ displaystyle F_ {X} (x), F_ {Y} (y)}

sind die Ränder.

Unkorrelation und Unabhängigkeit[edit]

Zufallsvariablen, deren Kovarianz Null ist, werden als unkorreliert bezeichnet.[4]::p. 121 In ähnlicher Weise werden die Komponenten von Zufallsvektoren, deren Kovarianzmatrix in jedem Eintrag außerhalb der Hauptdiagonale Null ist, auch als unkorreliert bezeichnet.

Wenn

X.{ displaystyle X}

und

Y.{ displaystyle Y}

sind unabhängige Zufallsvariablen, dann ist ihre Kovarianz Null.[4]::p. 123[8] Dies folgt, weil unter Unabhängigkeit,

E.⁡[XY]=E.⁡[X]⋅E.⁡[Y].{ displaystyle operatorname {E} [XY]= operatorname {E} [X] cdot operatorname {E} [Y].}

Das Gegenteil ist jedoch im Allgemeinen nicht der Fall. Zum Beispiel lassen

X.{ displaystyle X}

gleichmäßig verteilt sein in

[−1,1]{ displaystyle [-1,1]}}

und lass

Y.=X.2{ displaystyle Y = X ^ {2}}

. Deutlich,

X.{ displaystyle X}

und

Y.{ displaystyle Y}

sind nicht unabhängig, aber

cov⁡((X.,Y.)=cov⁡((X.,X.2)=E.⁡[X⋅X2]– –E.⁡[X]⋅E.⁡[X2]=E.⁡[X3]– –E.⁡[X]E.⁡[X2]=0– –0⋅E.⁡[X2]=0.{ displaystyle { begin {align} operatorname {cov} (X, Y) & = operatorname {cov} left (X, X ^ {2} right) \ & = operatorname {E} left[Xcdot X^{2}right]- operatorname {E} [X] cdot operatorname {E} left[X^{2}right]\ & = operatorname {E} left[X^{3}right]- operatorname {E} [X] operatorname {E} left[X^{2}right]\ & = 0-0 cdot operatorname {E} [X^{2}]\ & = 0. end {align}}}

In diesem Fall ist die Beziehung zwischen

Y.{ displaystyle Y}

und

X.{ displaystyle X}

ist nichtlinear, während Korrelation und Kovarianz Maß für die lineare Abhängigkeit zwischen zwei Zufallsvariablen sind. Dieses Beispiel zeigt, dass wenn zwei Zufallsvariablen nicht korreliert sind, dies im Allgemeinen nicht bedeutet, dass sie unabhängig sind. Wenn jedoch zwei Variablen gemeinsam normalverteilt sind (aber nicht, wenn sie nur einzeln normalverteilt sind), ist die Unkorrelation tutUnabhängigkeit implizieren.

Beziehung zu inneren Produkten[edit]

Viele der Eigenschaften der Kovarianz können elegant extrahiert werden, indem beobachtet wird, dass sie ähnliche Eigenschaften wie die eines inneren Produkts erfüllt:

  1. bilinear: für Konstanten
    ein{ displaystyle a}

    und b{ displaystyle b}

    und Zufallsvariablen X.,Y.,Z.{ displaystyle X, Y, Z}

    , cov⁡((einX.+bY.,Z.)=eincov⁡((X.,Z.)+bcov⁡((Y.,Z.){ displaystyle operatorname {cov} (aX + bY, Z) = a operatorname {cov} (X, Z) + b operatorname {cov} (Y, Z)}

  2. symmetrisch:
    cov⁡((X.,Y.)=cov⁡((Y.,X.){ displaystyle operatorname {cov} (X, Y) = operatorname {cov} (Y, X)}

  3. positiv semidefinitiv:
    σ2((X.)=cov⁡((X.,X.)≥0{ displaystyle sigma ^ {2} (X) = operatorname {cov} (X, X) geq 0}

    für alle Zufallsvariablen X.{ displaystyle X}

    , und cov⁡((X.,X.)=0{ displaystyle operatorname {cov} (X, X) = 0}

    impliziert, dass X.{ displaystyle X}

    ist fast sicher konstant.

Tatsächlich implizieren diese Eigenschaften, dass die Kovarianz ein inneres Produkt über dem Quotientenvektorraum definiert, der erhalten wird, indem der Unterraum von Zufallsvariablen mit endlichem zweiten Moment genommen und zwei beliebige identifiziert werden, die sich durch eine Konstante unterscheiden. (Diese Identifizierung wandelt die positive Halbbestimmtheit oben in eine positive Bestimmtheit um.) Dieser Quotientenvektorraum ist isomorph zum Unterraum von Zufallsvariablen mit endlichem zweiten Moment und Mittelwert Null; In diesem Unterraum ist die Kovarianz genau das L.2 inneres Produkt realer Funktionen auf dem Probenraum.

Infolgedessen ist für Zufallsvariablen mit endlicher Varianz die Ungleichung

|cov⁡((X.,Y.)|≤σ2((X.)σ2((Y.){ displaystyle | operatorname {cov} (X, Y) | leq { sqrt { sigma ^ {2} (X) sigma ^ {2} (Y)}}}

gilt über die Cauchy-Schwarz-Ungleichung.

Beweis: Wenn

σ2((Y.)=0{ displaystyle sigma ^ {2} (Y) = 0}

, dann gilt es trivial. Andernfalls lassen Sie eine Zufallsvariable

Z.=X.– –cov⁡((X.,Y.)σ2((Y.)Y..{ displaystyle Z = X – { frac { operatorname {cov} (X, Y)} { sigma ^ {2} (Y)}} Y.}

Dann haben wir

0≤σ2((Z.)=cov⁡((X.– –cov⁡((X.,Y.)σ2((Y.)Y.,X.– –cov⁡((X.,Y.)σ2((Y.)Y.)=σ2((X.)– –((cov⁡((X.,Y.))2σ2((Y.).{ displaystyle { begin {align} 0 leq sigma ^ {2} (Z) & = operatorname {cov} left (X – { frac { operatorname {cov} (X, Y)} { Sigma ^ {2} (Y)}} Y, ; X – { frac { operatorname {cov} (X, Y)} { sigma ^ {2} (Y)}} Y right) \[12pt]& = sigma ^ {2} (X) – { frac {( operatorname {cov} (X, Y)) ^ {2}} { sigma ^ {2} (Y)}}. end {align }}}

Berechnung der Stichproben-Kovarianz[edit]

Die Beispielkovarianzen unter

K.{ displaystyle K}

Variablen basierend auf

N.{ displaystyle N}

Beobachtungen von jedem, die aus einer ansonsten unbeobachteten Bevölkerung stammen, werden von der

K.×K.{ displaystyle K times K}

Matrix

q¯=[qjk]{ displaystyle textstyle { overline { mathbf {q}}} = left[q_{jk}right]}}

mit den Einträgen

qjk=1N.– –1∑ich=1N.((X.ichj– –X.¯j)((X.ichk– –X.¯k),{ displaystyle q_ {jk} = { frac {1} {N-1}} sum _ {i = 1} ^ {N} left (X_ {ij} – { bar {X}} _ {j } right) left (X_ {ik} – { bar {X}} _ {k} right),}

Dies ist eine Schätzung der Kovarianz zwischen Variablen

j{ displaystyle j}

und variabel

k{ displaystyle k}

.

Der Stichprobenmittelwert und die Stichproben-Kovarianzmatrix sind unverzerrte Schätzungen des Mittelwerts und der Kovarianzmatrix des Zufallsvektors

X.{ displaystyle textstyle mathbf {X}}

, ein Vektor, dessen jth Element

((j=1,…,K.){ displaystyle (j = 1, , ldots, , K)}

ist eine der Zufallsvariablen. Der Grund, den die Stichproben-Kovarianzmatrix hat

N.– –1{ displaystyle textstyle N-1}

eher im Nenner als

N.{ displaystyle textstyle N}

ist im Wesentlichen, dass die Bevölkerung bedeuten

E.⁡((X.){ displaystyle operatorname {E} ( mathbf {X})}

ist nicht bekannt und wird durch den Stichprobenmittelwert ersetzt

X.¯{ displaystyle mathbf { bar {X}}}

. Wenn die Bevölkerung meint

E.⁡((X.){ displaystyle operatorname {E} ( mathbf {X})}

bekannt ist, ist die analoge unverzerrte Schätzung gegeben durch

qjk=1N.∑ich=1N.((X.ichj– –E.⁡((X.j))((X.ichk– –E.⁡((X.k)){ displaystyle q_ {jk} = { frac {1} {N}} sum _ {i = 1} ^ {N} left (X_ {ij} – operatorname {E} left (X_ {j}) rechts) rechts) links (X_ {ik} – operatorname {E} links (X_ {k} rechts) rechts)}

.

Verallgemeinerungen[edit]

Autokovarianzmatrix von realen Zufallsvektoren[edit]

Für einen Vektor

X.=[X1X2…Xm]T.{ displaystyle mathbf {X} = { begin {bmatrix} X_ {1} & X_ {2} & dots & X_ {m} end {bmatrix}} ^ { mathrm {T}}}

von

m{ displaystyle m}

gemeinsam verteilte Zufallsvariablen mit endlichen Sekundenmomenten, deren Autokovarianzmatrix (auch bekannt als Varianz-Kovarianz-Matrix oder einfach die Kovarianzmatrix)

K.X.X.{ displaystyle operatorname {K} _ { mathbf {X} mathbf {X}}}

(auch bezeichnet mit

Σ((X.){ displaystyle Sigma ( mathbf {X})}

) ist definiert als[9]::S.335

K.X.X.=cov⁡((X.,X.)=E.⁡[(X−E⁡[X])((X.– –E.⁡[X])T.]]=E.⁡[XXT]– –E.⁡[X]E.⁡[X]T..{ displaystyle { begin {align} operatorname {K} _ { mathbf {XX}} = operatorname {cov} ( mathbf {X}, mathbf {X}) & = operatorname {E} left[(mathbf {X} -operatorname {E} [mathbf {X} ]) ( mathbf {X} – operatorname {E} [mathbf {X} ]) ^ { mathrm {T}} right]\ & = operatorname {E} left[mathbf {XX} ^{mathrm {T} }right]- operatorname {E} [mathbf {X} ] operatorname {E} [mathbf {X} ]^ { mathrm {T}}. end {align}}}

Lassen

X.{ displaystyle mathbf {X}}

sei ein Zufallsvektor mit Kovarianzmatrix Σ, und lass EIN eine Matrix sein, auf die man einwirken kann

X.{ displaystyle mathbf {X}}

auf der linken Seite. Die Kovarianzmatrix des Matrix-Vektor-Produkts AXT ist:

Σ((EINX.)=E.⁡[AXXTAT]– –E.⁡[AX]E.⁡[XTAT]=EINΣEINT..{ displaystyle Sigma ( mathbf {AX}) = operatorname {E} left[mathbf {AXX} ^{mathrm {T} }mathbf {A} ^{mathrm {T} }right]- operatorname {E} [mathbf {AX} ] operatorname {E} left[mathbf {X} ^{mathrm {T} }mathbf {A} ^{mathrm {T} }right]= mathbf {A} Sigma mathbf {A} ^ { mathrm {T}}.}

Dies ist ein direktes Ergebnis der Linearität der Erwartung und nützlich, wenn eine lineare Transformation, wie beispielsweise eine Bleaching-Transformation, auf einen Vektor angewendet wird.

Kreuzkovarianzmatrix realer Zufallsvektoren[edit]

Für echte Zufallsvektoren

X.∈R.m{ displaystyle mathbf {X} in mathbb {R} ^ {m}}

und

Y.∈R.n{ displaystyle mathbf {Y} in mathbb {R} ^ {n}}

, das

m×n{ displaystyle m times n}

Kreuzkovarianzmatrix ist gleich[9]::S.336

K.X.Y.=cov⁡((X.,Y.)=E.⁡[(X−E⁡[X])((Y.– –E.⁡[Y])T.]]=E.⁡[XYT]– –E.⁡[X]E.⁡[Y]T.{ displaystyle { begin {align} operatorname {K} _ { mathbf {X} mathbf {Y}} = operatorname {cov} ( mathbf {X}, mathbf {Y}) & = operatorname {E} left[(mathbf {X} -operatorname {E} [mathbf {X} ]) ( mathbf {Y} – operatorname {E} [mathbf {Y} ]) ^ { mathrm {T}} right]\ & = operatorname {E} left[mathbf {X} mathbf {Y} ^{mathrm {T} }right]- operatorname {E} [mathbf {X} ] operatorname {E} [mathbf {Y} ]^ { mathrm {T}} end {align}}}

((Gl.2)

wo

Y.T.{ displaystyle mathbf {Y} ^ { mathrm {T}}}

ist die Transponierte des Vektors (oder der Matrix)

Y.{ displaystyle mathbf {Y}}

.

Das

((ich,j){ displaystyle (i, j)}

-th Element dieser Matrix ist gleich der Kovarianz

cov⁡((X.ich,Y.j){ displaystyle operatorname {cov} (X_ {i}, Y_ {j})}

zwischen den ich-te Skalarkomponente von

X.{ displaystyle mathbf {X}}

und die j-te Skalarkomponente von

Y.{ displaystyle mathbf {Y}}

. Speziell,

cov⁡((Y.,X.){ displaystyle operatorname {cov} ( mathbf {Y}, mathbf {X})}

ist die Transponierte von

cov⁡((X.,Y.){ displaystyle operatorname {cov} ( mathbf {X}, mathbf {Y})}

.

Numerische Berechnung[edit]

Wann

E.⁡[XY]≈E.⁡[X]E.⁡[Y]{ displaystyle operatorname {E} [XY] approx operatorname {E} [X] operatorname {E} [Y]}}

, Die gleichung

cov⁡((X.,Y.)=E.⁡[XY]– –E.⁡[X]E.⁡[Y]{ displaystyle operatorname {cov} (X, Y) = operatorname {E} left[XYright]- operatorname {E} left[Xright] operatorname {E} left[Yright]}}

ist anfällig für katastrophale Löschung, wenn mit Gleitkomma-Arithmetik berechnet wird, und sollte daher in Computerprogrammen vermieden werden, wenn die Daten zuvor nicht zentriert wurden.[10]In diesem Fall sollten numerisch stabile Algorithmen bevorzugt werden.[11]

Die Kovarianz wird manchmal als Maß für bezeichnet “lineare Abhängigkeit” zwischen den beiden Zufallsvariablen. Das bedeutet nicht dasselbe wie im Kontext der linearen Algebra (siehe lineare Abhängigkeit). Wenn die Kovarianz normalisiert ist, erhält man den Pearson-Korrelationskoeffizienten, der die Güte der Anpassung für die bestmögliche lineare Funktion angibt, die die Beziehung zwischen den Variablen beschreibt. In diesem Sinne ist die Kovarianz ein lineares Maß für die Abhängigkeit.

Anwendungen[edit]

In der Genetik und Molekularbiologie[edit]

Kovarianz ist eine wichtige Maßnahme in der Biologie. Bestimmte DNA-Sequenzen sind unter Spezies stärker konserviert als andere. Um Sekundär- und Tertiärstrukturen von Proteinen oder RNA-Strukturen zu untersuchen, werden Sequenzen in eng verwandten Spezies verglichen. Wenn Sequenzänderungen gefunden werden oder überhaupt keine Änderungen in nichtkodierender RNA (wie z. B. microRNA) gefunden werden, wird festgestellt, dass Sequenzen für gemeinsame Strukturmotive wie eine RNA-Schleife notwendig sind. In der Genetik dient die Kovarianz als Grundlage für die Berechnung der genetischen Beziehungsmatrix (GRM) (auch bekannt als Verwandtschaftsmatrix), die Rückschlüsse auf die Populationsstruktur aus einer Stichprobe ohne bekannte nahe Verwandte sowie Rückschlüsse auf die Abschätzung der Heritabilität komplexer Merkmale ermöglicht.

In der Theorie der Evolution und der natürlichen Auslese ist die Preisgleichung beschreibt, wie sich die Häufigkeit eines genetischen Merkmals im Laufe der Zeit ändert. Die Gleichung verwendet a Kovarianz zwischen einem Merkmal und Fitness, um eine mathematische Beschreibung der Evolution und der natürlichen Selektion zu geben. Es bietet eine Möglichkeit, die Auswirkungen der Genübertragung und der natürlichen Selektion auf den Anteil der Gene in jeder neuen Generation einer Population zu verstehen.[12][13] Die Preisgleichung wurde von George R. Price abgeleitet, um WD Hamiltons Arbeit zur Auswahl von Verwandten abzuleiten. Beispiele für die Preisgleichung wurden für verschiedene Evolutionsfälle konstruiert.

In der Finanzökonomie[edit]

Kovarianzen spielen eine Schlüsselrolle in der Finanzökonomie, insbesondere in der modernen Portfoliotheorie und im Preismodell für Kapitalanlagen. Kovarianzen zwischen den Renditen verschiedener Vermögenswerte werden verwendet, um unter bestimmten Annahmen die relativen Beträge verschiedener Vermögenswerte zu bestimmen, die Anleger (in einer normativen Analyse) (oder in einer positiven Analyse) im Kontext der Diversifikation halten sollten.

Bei der Assimilation meteorologischer und ozeanographischer Daten[edit]

Die Kovarianzmatrix ist wichtig für die Schätzung der Anfangsbedingungen, die für die Ausführung von Wettervorhersagemodellen erforderlich sind. Dieses Verfahren wird als Datenassimilation bezeichnet. Die ‘Prognosefehlerkovarianzmatrix’ wird typischerweise zwischen Störungen um einen Mittelwert (entweder ein klimatologischer oder ein Ensemble-Mittelwert) konstruiert. Die ‘Beobachtungsfehler-Kovarianzmatrix’ ist so konstruiert, dass sie die Größe kombinierter Beobachtungsfehler (auf der Diagonale) und die korrelierten Fehler zwischen Messungen (außerhalb der Diagonale) darstellt. Dies ist ein Beispiel für seine weit verbreitete Anwendung auf die Kalman-Filterung und die allgemeinere Zustandsschätzung für zeitvariable Systeme.

In der Mikrometeorologie[edit]

Die Wirbel-Kovarianz-Technik ist eine wichtige atmosphärische Messtechnik, bei der die Kovarianz zwischen der augenblicklichen Abweichung der vertikalen Windgeschwindigkeit vom Mittelwert und der augenblicklichen Abweichung der Gaskonzentration die Grundlage für die Berechnung der vertikalen turbulenten Flüsse bildet.

In der Signalverarbeitung[edit]

Die Kovarianzmatrix wird verwendet, um die spektrale Variabilität eines Signals zu erfassen.[14]

In Statistik und Bildverarbeitung[edit]

Die Kovarianzmatrix wird in der Hauptkomponentenanalyse verwendet, um die Merkmalsdimensionalität bei der Datenvorverarbeitung zu reduzieren.

Siehe auch[edit]

Verweise[edit]

  1. ^ Rice, John (2007). Mathematische Statistik und Datenanalyse. Belmont, Kalifornien: Brooks / Cole Cengage Learning. p. 138. ISBN 978-0534-39942-9.
  2. ^ Weisstein, Eric W. “Kovarianz”. MathWorld.
  3. ^ Oxford Dictionary of Statistics, Oxford University Press, 2002, p. 104.
  4. ^ ein b c d e Park, Kun Il (2018). Grundlagen der Wahrscheinlichkeit und stochastischer Prozesse mit Anwendungen auf die Kommunikation. Springer. ISBN 978-3-319-68074-3.
  5. ^ Yuli Zhang, Huaiyu Wu, Lei Cheng (Juni 2012). Einige neue Verformungsformeln zu Varianz und Kovarianz. Vorträge der 4. Internationalen Konferenz über Modellierung, Identifizierung und Kontrolle (ICMIC2012). S. 987–992.CS1-Wartung: Verwendet den Autorenparameter (Link)
  6. ^ “Kovarianz von X und Y | STAT 414/415”. Die Pennsylvania State University. Archiviert von das Original am 17. August 2017. Abgerufen 4. August 2019.
  7. ^ Papoulis (1991). Wahrscheinlichkeit, Zufallsvariablen und stochastische Prozesse. McGraw-Hill.
  8. ^ Siegrist, Kyle. “Kovarianz und Korrelation”. Universität von Alabama in Huntsville. Abgerufen 4. August 2019.
  9. ^ ein b Gubner, John A. (2006). Wahrscheinlichkeits- und Zufallsprozesse für Elektro- und Computeringenieure. Cambridge University Press. ISBN 978-0-521-86470-1.
  10. ^ Donald E. Knuth (1998). Die Kunst der Computerprogrammierung, Band 2: Seminumerische Algorithmen, 3rd edn., P. 232. Boston: Addison-Wesley.
  11. ^ Schubert, Erich; Gertz, Michael (2018). “Numerisch stabile parallele Berechnung der (Co-) Varianz”. Tagungsband der 30. Internationalen Konferenz für wissenschaftliches und statistisches Datenbankmanagement – SSDBM ’18. Bozen-Bozen, Italien: ACM Press: 1–12. doi:10.1145 / 3221269.3223036. ISBN 9781450365055. S2CID 49665540.
  12. ^ Price, George (1970). “Auswahl und Kovarianz”. Natur. 227 (5257): 520–521. doi:10.1038 / 227520a0. PMID 5428476. S2CID 4264723.
  13. ^ Harman, Oren (2020). “Wenn die Wissenschaft das Leben widerspiegelt: über die Ursprünge der Preisgleichung”. Phil. Trans. R. Soc. B.. 375 (1797): 1–7. doi:10.1098 / rstb.2019.0352. PMC 7133509. PMID 32146891. Abgerufen 2020-05-15.
  14. ^ Sahidullah, Md.; Kinnunen, Tomi (März 2016). “Lokale spektrale Variabilitätsmerkmale zur Sprecherüberprüfung”. Digitale Signalverarbeitung. 50: 1–11. doi:10.1016 / j.dsp.2015.10.011.