Eigenzusammensetzung einer Matrix – Wikipedia

In der linearen Algebra Eigenzersetzung oder manchmal spektrale Zerlegung ist die Faktorisierung einer Matrix in eine kanonische Form, wobei die Matrix in Form ihrer Eigenwerte und Eigenvektoren dargestellt wird. Auf diese Weise können nur diagonalisierbare Matrizen faktorisiert werden.

Grundlegende Theorie von Matrixeigenvektoren und Eigenwerten[edit]

Ein Vektor (ungleich Null) v der Dimension N. ist ein Eigenvektor eines Quadrats N. × N. Matrix EIN wenn es die lineare Gleichung erfüllt

EINv=λv{ displaystyle mathbf {A} mathbf {v} = lambda mathbf {v}}

wo λ ist ein Skalar, der als Eigenwert korrespondierend zu v. Das heißt, die Eigenvektoren sind die Vektoren der linearen Transformation EIN verlängert oder schrumpft lediglich, und der Betrag, um den sie sich verlängern / schrumpfen, ist der Eigenwert. Die obige Gleichung heißt die Eigenwertgleichung oder der Eigenwertproblem.

Dies ergibt eine Gleichung für die Eigenwerte

p(λ)=det(EIN– –λich)=0.{ displaystyle p left ( lambda right) = det left ( mathbf {A} – lambda mathbf {I} right) = 0.}

Wir nennen p(λ) das charakteristisches Polynomund die Gleichung, genannt charakteristische Gleichung, ist ein N.Polynomgleichung der Ordnung im Unbekannten λ. Diese Gleichung wird haben N.λ unterschiedliche Lösungen, wo 1 ≤ N.λN.. Die Menge der Lösungen, dh die Eigenwerte, heißt Spektrum von EIN.[1][2][3]

Wir können faktorisieren p wie

p(λ)=(λ– –λ1)n1(λ– –λ2)n2⋯(λ– –λN.λ)nN.λ=0.{ displaystyle p left ( lambda right) = left ( lambda – lambda _ {1} right) ^ {n_ {1}} left ( lambda – lambda _ {2} right) ^ {n_ {2}} cdots left ( lambda – lambda _ {N _ { lambda}} right) ^ {n_ {N _ { lambda}}} = 0.}

Die ganze Zahl nich wird als bezeichnet algebraische Multiplizität des Eigenwerts λich. Wenn das Feld der Skalare algebraisch geschlossen ist, summieren sich die algebraischen Multiplizitäten zu N.::

∑ich=1N.λnich=N..{ displaystyle sum limitiert _ {i = 1} ^ {N _ { lambda}} {n_ {i}} = N.}

Für jeden Eigenwert λichhaben wir eine spezifische Eigenwertgleichung

(EIN– –λichich)v=0.{ displaystyle left ( mathbf {A} – lambda _ {i} mathbf {I} right) mathbf {v} = 0.}

Es wird____geben 1 ≤ michnich linear unabhängige Lösungen für jede Eigenwertgleichung. Die linearen Kombinationen der mich Lösungen sind die dem Eigenwert zugeordneten Eigenvektoren λich. Die ganze Zahl mich wird als bezeichnet geometrische Vielfalt von λich. Es ist wichtig zu beachten, dass die algebraische Multiplizität nich und geometrische Vielfalt mich kann oder kann nicht gleich sein, aber wir haben immer michnich. Der einfachste Fall ist natürlich, wenn mich = nich = 1. Die Gesamtzahl der linear unabhängigen Eigenvektoren, N.vkann durch Summieren der geometrischen Multiplizitäten berechnet werden

∑ich=1N.λmich=N.v.{ displaystyle sum limitiert _ {i = 1} ^ {N _ { lambda}} {m_ {i}} = N _ { mathbf {v}}.}

Die Eigenvektoren können durch Eigenwerte unter Verwendung eines Doppelindex mit indiziert werden vij das sein jth Eigenvektor für die ichth Eigenwert. Die Eigenvektoren können auch mit der einfacheren Notation eines einzelnen Index indiziert werden vkmit k = 1, 2, …, N.v.

Eigenzersetzung einer Matrix[edit]

Lassen EIN sei ein Quadrat n × n Matrix mit n linear unabhängige Eigenvektoren qich (wo ich = 1, …, n). Dann EIN kann als faktorisiert werden

EIN=Q.ΛQ.– –1{ displaystyle mathbf {A} = mathbf {Q} mathbf { Lambda} mathbf {Q} ^ {- 1}}

wo Q. ist das Quadrat n × n Matrix, deren ichDie dritte Spalte ist der Eigenvektor qich von EIN, und Λ ist die Diagonalmatrix, deren Diagonalelemente die entsprechenden Eigenwerte sind, Λii = λich. Beachten Sie, dass auf diese Weise nur diagonalisierbare Matrizen faktorisiert werden können. Zum Beispiel die defekte Matrix

[1101]{ displaystyle left[{begin{smallmatrix}1&1\0&1end{smallmatrix}}right]}}

(das ist eine Schermatrix) kann nicht diagonalisiert werden.

Das n Eigenvektoren qich sind in der Regel normalisiert, müssen aber nicht sein. Ein nicht normalisierter Satz von n Eigenvektoren, vich kann auch als Spalten von verwendet werden Q.. Dies kann verstanden werden, indem man feststellt, dass die Größe der Eigenvektoren in Q. wird bei der Zerlegung durch das Vorhandensein von aufgehoben Q.−1.

Die Zerlegung kann aus der fundamentalen Eigenschaft von Eigenvektoren abgeleitet werden:

EINv=λvEINQ.=Q.ΛEIN=Q.ΛQ.– –1.{ displaystyle { begin {align} mathbf {A} mathbf {v} & = lambda mathbf {v} \ mathbf {A} mathbf {Q} & = mathbf {Q} mathbf { Lambda} \ mathbf {A} & = mathbf {Q} mathbf { Lambda} mathbf {Q} ^ {- 1}. End {align}}}

Beispiel[edit]

Die 2 × 2 reelle Matrix EIN

EIN=[1013]{ displaystyle mathbf {A} = { begin {bmatrix} 1 & 0 \ 1 & 3 \ end {bmatrix}}}

kann durch Multiplikation einer nicht singulären Matrix in eine diagonale Matrix zerlegt werden B.

B.=[abcd]∈R.2×2.{ displaystyle mathbf {B} = { begin {bmatrix} a & b \ c & d end {bmatrix}} in mathbb {R} ^ {2 times 2}.}

Dann

[abcd]– –1[1013][abcd]=[x00y],{ displaystyle { begin {bmatrix} a & b \ c & d end {bmatrix}} ^ {- 1} { begin {bmatrix} 1 & 0 \ 1 & 3 end {bmatrix}} { begin {bmatrix} a & b \ c & d end {bmatrix}} = { begin {bmatrix} x & 0 \ 0 & y end {bmatrix}},}

für eine echte Diagonalmatrix

[x00y]{ displaystyle left[{begin{smallmatrix}x&0\0&yend{smallmatrix}}right]}}

.

Multiplizieren Sie beide Seiten der Gleichung links mit B.::

[1013][abcd]=[abcd][x00y].{ displaystyle { begin {bmatrix} 1 & 0 \ 1 & 3 end {bmatrix}} { begin {bmatrix} a & b \ c & d end {bmatrix}} = { begin {bmatrix} a & b \ c & d end {bmatrix }} { begin {bmatrix} x & 0 \ 0 & y end {bmatrix}}.}

Die obige Gleichung kann in zwei simultane Gleichungen zerlegt werden:

{[1013][ac]=[axcx][1013][bd]=[bydy].{ displaystyle { begin {case} { begin {bmatrix} 1 & 0 \ 1 & 3 end {bmatrix}} { begin {bmatrix} a \ c end {bmatrix}} = { begin {bmatrix} ax cx end {bmatrix}} \ { begin {bmatrix} 1 & 0 \ 1 & 3 end {bmatrix}} { begin {bmatrix} b \ d end {bmatrix}} = { begin {bmatrix} by \ dy end {bmatrix}} end {case}}.}

Eigenwerte herausrechnen x und y::

{[1013][ac]=x[ac][1013][bd]=y[bd]{ displaystyle { begin {case} { begin {bmatrix} 1 & 0 \ 1 & 3 end {bmatrix}} { begin {bmatrix} a \ c end {bmatrix}} = x { begin {bmatrix} a \ c end {bmatrix}} \ { begin {bmatrix} 1 & 0 \ 1 & 3 end {bmatrix}} { begin {bmatrix} b \ d end {bmatrix}} = y { begin {bmatrix } b \ d end {bmatrix}} end {Fälle}}}

Lassen

ein→=[ac],b→=[bd],{ displaystyle { overrightarrow {a}} = { begin {bmatrix} a \ c end {bmatrix}}, quad { overrightarrow {b}} = { begin {bmatrix} b \ d end {bmatrix}},}

Dies gibt uns zwei Vektorgleichungen:

{EINein→=xein→EINb→=yb→{ displaystyle { begin {case} A { overrightarrow {a}} = x { overrightarrow {a}} \ A { overrightarrow {b}} = y { overrightarrow {b}} end {case} }}

Und kann durch eine einzelne Vektorgleichung dargestellt werden, die zwei Lösungen als Eigenwerte umfasst:

EINu=λu{ displaystyle mathbf {A} mathbf {u} = lambda mathbf {u}}

wo λ repräsentiert die beiden Eigenwerte x und y, und u repräsentiert die Vektoren ein und b.

Verschiebung λu auf der linken Seite und Factoring u aus

(EIN– –λich)u=0{ displaystyle ( mathbf {A} – lambda mathbf {I}) mathbf {u} = mathbf {0}}

Schon seit B. ist nicht singulär, es ist wichtig, dass u ist nicht Null. Deshalb,

det(EIN– –λich)=0{ displaystyle det ( mathbf {A} – lambda mathbf {I}) = 0}

So

(1– –λ)(3– –λ)=0{ displaystyle (1- lambda) (3- lambda) = 0}

Geben Sie uns die Lösungen der Eigenwerte für die Matrix EIN wie λ = 1 oder λ = 3und die resultierende Diagonalmatrix aus der Eigenzusammensetzung von EIN Somit

[1003]{ displaystyle left[{begin{smallmatrix}1&0\0&3end{smallmatrix}}right]}}

.

Setzen Sie die Lösungen wieder in die obigen simultanen Gleichungen ein

{[1013][ac]=1[ac][1013][bd]=3[bd]{ displaystyle { begin {case} { begin {bmatrix} 1 & 0 \ 1 & 3 end {bmatrix}} { begin {bmatrix} a \ c end {bmatrix}} = 1 { begin {bmatrix} a \ c end {bmatrix}} \ { begin {bmatrix} 1 & 0 \ 1 & 3 end {bmatrix}} { begin {bmatrix} b \ d end {bmatrix}} = 3 { begin {bmatrix } b \ d end {bmatrix}} end {Fälle}}}

Wir haben die Gleichungen gelöst

ein=– –2cundb=0,c,d∈R..{ displaystyle a = -2c quad { text {und}} quad b = 0, qquad c, d in mathbb {R}.}

Also die Matrix B. erforderlich für die Eigenzersetzung von EIN ist

B.=[−2c0cd],c,d∈R.,{ displaystyle mathbf {B} = { begin {bmatrix} -2c & 0 \ c & d end {bmatrix}}, qquad c, d in mathbb {R},}

das ist:

[−2c0cd]– –1[1013][−2c0cd]=[1003],c,d∈R.{ displaystyle { begin {bmatrix} -2c & 0 \ c & d end {bmatrix}} ^ {- 1} { begin {bmatrix} 1 & 0 \ 1 & 3 end {bmatrix}} { begin {bmatrix} -2c & 0 c & d end {bmatrix}} = { begin {bmatrix} 1 & 0 \ 0 & 3 end {bmatrix}}, qquad c, d in mathbb {R}}

Matrix invers über Eigendekomposition[edit]

Wenn eine Matrix EIN kann selbstzersetzt sein und wenn keiner seiner Eigenwerte Null ist, dann EIN ist nicht singulär und seine Umkehrung ist gegeben durch

EIN– –1=Q.Λ– –1Q.– –1{ displaystyle mathbf {A} ^ {- 1} = mathbf {Q} mathbf { Lambda} ^ {- 1} mathbf {Q} ^ {- 1}}

Wenn

EIN{ displaystyle mathbf {A}}

ist eine symmetrische Matrix, da

Q.{ displaystyle mathbf {Q}}

wird aus den Eigenvektoren von gebildet

EIN{ displaystyle mathbf {A}}

es ist daher garantiert eine orthogonale Matrix

Q.– –1=Q.T.{ displaystyle mathbf {Q} ^ {- 1} = mathbf {Q} ^ { mathrm {T}}}

. Darüber hinaus weil Λ ist eine diagonale Matrix, deren Umkehrung leicht zu berechnen ist:

[Λ−1]ichich=1λich{ displaystyle left[Lambda ^{-1}right]_ {ii} = { frac {1} { lambda _ {i}}}}

Praktische Auswirkungen[4][edit]

Wenn die Eigendekomposition für eine Matrix gemessener realer Daten verwendet wird, ist die Umkehrung möglicherweise weniger gültig, wenn alle Eigenwerte in der obigen Form unverändert verwendet werden. Dies liegt daran, dass ihr Beitrag zur Inversion groß ist, wenn Eigenwerte relativ klein werden. Diejenigen nahe Null oder am “Rauschen” des Messsystems haben einen unangemessenen Einfluss und könnten Lösungen (Erkennung) unter Verwendung der Umkehrung behindern.

Es wurden zwei Abschwächungen vorgeschlagen: Abschneiden kleiner oder Null-Eigenwerte und Erweitern des niedrigsten zuverlässigen Eigenwerts auf die darunter liegenden.

Die erste Minderungsmethode ähnelt einer spärlichen Probe der ursprünglichen Matrix, bei der Komponenten entfernt werden, die nicht als wertvoll angesehen werden. Wenn sich die Lösung oder der Erkennungsprozess jedoch in der Nähe des Geräuschpegels befindet, können durch Abschneiden Komponenten entfernt werden, die die gewünschte Lösung beeinflussen.

Die zweite Abschwächung erweitert den Eigenwert, so dass niedrigere Werte einen viel geringeren Einfluss auf die Inversion haben, aber dennoch dazu beitragen, dass weiterhin Lösungen in der Nähe des Rauschens gefunden werden.

Der zuverlässige Eigenwert kann gefunden werden, indem angenommen wird, dass Eigenwerte mit extrem ähnlichem und niedrigem Wert eine gute Darstellung des Messrauschens sind (was für die meisten Systeme als niedrig angenommen wird).

Wenn die Eigenwerte nach Wert sortiert sind, kann der zuverlässige Eigenwert durch Minimierung des Laplace-Werts der sortierten Eigenwerte ermittelt werden:[5]

Mindest|∇2λs|{ displaystyle min left | nabla ^ {2} lambda _ { mathrm {s}} right |}

wobei die Eigenwerte mit einem tiefgestellt sind s zu bezeichnen, sortiert zu werden. Die Position der Minimierung ist der niedrigste zuverlässige Eigenwert. In Messsystemen ist die Quadratwurzel dieses zuverlässigen Eigenwerts das durchschnittliche Rauschen über den Komponenten des Systems.

Funktionsrechnung[edit]

Die Eigenzerlegung ermöglicht eine viel einfachere Berechnung von Potenzreihen von Matrizen. Wenn f(x ) ist gegeben durch

f(x)=ein0+ein1x+ein2x2+⋯{ displaystyle f (x) = a_ {0} + a_ {1} x + a_ {2} x ^ {2} + cdots}

dann wissen wir das

f(EIN)=Q.f(Λ)Q.– –1{ displaystyle f left ( mathbf {A} right) = mathbf {Q} f left ( mathbf { Lambda} right) mathbf {Q} ^ {- 1}}

weil Λ ist eine diagonale Matrix, Funktionen von Λ sind sehr einfach zu berechnen:

[f(Λ)]ichich=f(λich){ displaystyle left[fleft(mathbf {Lambda } right)right]_ {ii} = f left ( lambda _ {i} right)}

Die nicht diagonalen Elemente von f (Λ) sind Null; das ist, f(Λ) ist auch eine diagonale Matrix. Daher rechnen f(EIN) reduziert sich auf die Berechnung der Funktion für jeden der Eigenwerte.

Eine ähnliche Technik funktioniert allgemeiner mit der holomorphen Funktionsrechnung unter Verwendung von

EIN– –1=Q.Λ– –1Q.– –1{ displaystyle mathbf {A} ^ {- 1} = mathbf {Q} mathbf { Lambda} ^ {- 1} mathbf {Q} ^ {- 1}}

von oben. Das finden wir wieder einmal

[f(Λ)]ichich=f(λich){ displaystyle left[fleft(mathbf {Lambda } right)right]_ {ii} = f left ( lambda _ {i} right)}

Beispiele[edit]

EIN2=(Q.ΛQ.– –1)(Q.ΛQ.– –1)=Q.Λ(Q.– –1Q.)ΛQ.– –1=Q.Λ2Q.– –1EINn=Q.ΛnQ.– –1exp⁡EIN=Q.exp⁡(Λ)Q.– –1{ displaystyle { begin {align} mathbf {A} ^ {2} & = left ( mathbf {Q} mathbf { Lambda} mathbf {Q} ^ {- 1} right) left ( mathbf {Q} mathbf { Lambda} mathbf {Q} ^ {- 1} right) = mathbf {Q} mathbf { Lambda} left ( mathbf {Q} ^ {- 1} mathbf {Q} right) mathbf { Lambda} mathbf {Q} ^ {- 1} = mathbf {Q} mathbf { Lambda} ^ {2} mathbf {Q} ^ {- 1} \ mathbf {A} ^ {n} & = mathbf {Q} mathbf { Lambda} ^ {n} mathbf {Q} ^ {- 1} \ exp { mathbf {A}} & = mathbf {Q} exp {( mathbf { Lambda})} mathbf {Q} ^ {- 1} end {align}}}

Das sind Beispiele für die Funktionen

f(x)=x2,f(x)=xn,f(x)=exp⁡x{ displaystyle f (x) = x ^ {2}, ; f (x) = x ^ {n}, ; f (x) = exp {x}}

. Außerdem,

exp⁡EIN{ displaystyle exp { mathbf {A}}}

ist die exponentielle Matrix.

Zersetzung für spezielle Matrizen[edit]

Normale Matrizen[edit]

Eine komplexwertige quadratische Matrix EIN ist normal (Bedeutung EIN* *EIN = AA* *, wo EIN* * ist die konjugierte Transponierte) genau dann, wenn sie als zerlegt werden kann

EIN=U.ΛU.∗{ displaystyle mathbf {A} = mathbf {U} mathbf { Lambda} mathbf {U} ^ {*}}

wo U. ist eine einheitliche Matrix (Bedeutung U.* * = U.−1) und Λ = diag (λ1, …, λn) ist eine diagonale Matrix.[6]

Die Säulen u1,…, un von U. bilden eine orthonormale Basis und sind Eigenvektoren von EIN mit entsprechenden Eigenwerten λ1,…, λn.

Wenn EIN ist auf eine hermitische Matrix beschränkt (EIN = EIN* *), dann Λ hat nur echte Einträge. Wenn EIN ist dann auf eine einheitliche Matrix beschränkt Λ nimmt alle seine Werte auf den komplexen Einheitskreis, dh |λich| = 1.

Echte symmetrische Matrizen[edit]

Als Sonderfall für jeden n × n reelle symmetrische Matrix, die Eigenwerte sind reell und die Eigenvektoren können reell und orthonormal gewählt werden. Also eine echte symmetrische Matrix EIN kann zerlegt werden als

EIN=Q.ΛQ.T.{ displaystyle mathbf {A} = mathbf {Q} mathbf { Lambda} mathbf {Q} ^ { mathsf {T}}}

wo Q. ist eine orthogonale Matrix, deren Spalten die Eigenvektoren von sind EIN, und Λ ist eine Diagonalmatrix, deren Einträge die Eigenwerte von sind EIN.[7]

Nützliche Fakten[edit]

Nützliche Fakten zu Eigenwerten[edit]

  • Das Produkt der Eigenwerte ist gleich der Determinante von EIN
    det(EIN)=∏ich=1N.λλichnich{ displaystyle det left ( mathbf {A} right) = prod limitiert _ {i = 1} ^ {N _ { lambda}} { lambda _ {i} ^ {n_ {i}}} }}

    Beachten Sie, dass jeder Eigenwert auf die Potenz angehoben wird nich, die algebraische Multiplizität.

  • Die Summe der Eigenwerte ist gleich der Spur von EIN
    tr⁡(EIN)=∑ich=1N.λnichλich{ displaystyle operatorname {tr} left ( mathbf {A} right) = sum limitiert _ {i = 1} ^ {N _ { lambda}} {{n_ {i}} lambda _ {i }}}

    Beachten Sie, dass jeder Eigenwert mit multipliziert wird nich, die algebraische Multiplizität.

  • Wenn die Eigenwerte von EIN sind λich, und EIN ist invertierbar, dann sind die Eigenwerte von EIN−1 sind einfach λ−1
    ich
    .
  • Wenn die Eigenwerte von EIN sind λich, dann die Eigenwerte von f (EIN) sind einfach f (λich)für jede holomorphe Funktion f.

Nützliche Fakten zu Eigenvektoren[edit]

  • Wenn EIN Ist hermitisch und vollrangig, kann die Basis der Eigenvektoren so gewählt werden, dass sie zueinander orthogonal sind. Die Eigenwerte sind real.
  • Die Eigenvektoren von EIN−1 sind die gleichen wie die Eigenvektoren von EIN.
  • Eigenvektoren werden nur bis zu einer multiplikativen Konstante definiert. Das heißt, wenn Ein V = λv dann cv ist auch ein Eigenvektor für jeden Skalar c ≠ 0. Speziell, – –v und ev (für jedes θ) sind auch Eigenvektoren.
  • Bei entarteten Eigenwerten (ein mehr als einmal auftretender Eigenwert) haben die Eigenvektoren eine zusätzliche Rotationsfreiheit, dh jede lineare (orthonormale) Kombination von Eigenvektoren, die einen Eigenwert (im entarteten Unterraum) teilen, sind selbst Eigenvektoren ( im Unterraum).

Nützliche Fakten zur Eigenzersetzung[edit]

  • EIN kann genau dann selbst zerlegt werden, wenn die Anzahl der linear unabhängigen Eigenvektoren,
    N.v{ displaystyle N _ { mathbf {v}}}

    entspricht der Dimension eines Eigenvektors: N.v=N.{ displaystyle N _ { mathbf {v}} = N ,}

  • Wenn p (λ ) hat keine wiederholten Wurzeln, das heißt, wenn
    N.λ=N.,{ displaystyle N _ { lambda} = N,}

    dann EIN kann eigendekomponiert werden.
  • Die Aussage “EIN kann eigendecomposed sein “tut nicht implizieren das EIN hat eine Umkehrung.
  • Die Aussage “EIN hat eine Umkehrung “tut nicht implizieren das EIN kann eigendekomponiert werden. Ein Gegenbeispiel ist
    [1101]{ displaystyle left[{begin{smallmatrix}1&1\0&1end{smallmatrix}}right]}}

    Dies ist eine invertierbare fehlerhafte Matrix.

Nützliche Fakten zur Matrixinverse[edit]

  • EIN kann genau dann invertiert werden, wenn
    λich≠0∀ich{ displaystyle lambda _ {i} neq 0 quad forall , i}

  • Wenn λich ≠ 0 und N.v = N.ist die Umkehrung gegeben durch
    EIN– –1=Q.Λ– –1Q.– –1{ displaystyle mathbf {A} ^ {- 1} = mathbf {Q} mathbf { Lambda} ^ {- 1} mathbf {Q} ^ {- 1}}

Numerische Berechnungen[edit]

Numerische Berechnung von Eigenwerten[edit]

Angenommen, wir möchten die Eigenwerte einer gegebenen Matrix berechnen. Wenn die Matrix klein ist, können wir sie symbolisch unter Verwendung des charakteristischen Polynoms berechnen. Dies ist jedoch bei größeren Matrizen oft nicht möglich. In diesem Fall müssen wir eine numerische Methode verwenden.

In der Praxis werden Eigenwerte großer Matrizen nicht mit dem charakteristischen Polynom berechnet. Die Berechnung des Polynoms wird an sich teuer, und genaue (symbolische) Wurzeln eines hochgradigen Polynoms können schwierig zu berechnen und auszudrücken sein: Das Abel-Ruffini-Theorem impliziert, dass die Wurzeln hochgradiger (5 oder höher) Polynome im Allgemeinen nicht können einfach mit ausgedrückt werden nth Wurzeln. Daher sind allgemeine Algorithmen zum Finden von Eigenvektoren und Eigenwerten iterativ.

Es gibt iterative numerische Algorithmen zur Approximation der Wurzeln von Polynomen, wie beispielsweise die Newtonsche Methode. Im Allgemeinen ist es jedoch unpraktisch, das charakteristische Polynom zu berechnen und diese Methoden dann anzuwenden. Ein Grund ist, dass kleine Rundungsfehler in den Koeffizienten des charakteristischen Polynoms zu großen Fehlern in den Eigenwerten und Eigenvektoren führen können: Die Wurzeln sind eine extrem schlecht konditionierte Funktion der Koeffizienten.[8]

Eine einfache und genaue iterative Methode ist die Potenzmethode: ein Zufallsvektor v wird ausgewählt und eine Folge von Einheitsvektoren wird berechnet als

EINv‖EINv‖,EIN2v‖EIN2v‖,EIN3v‖EIN3v‖,…{ displaystyle { frac { mathbf {A} mathbf {v}} { left | mathbf {A} mathbf {v} right |}}, { frac { mathbf {A} ^ {2} mathbf {v}} { left | mathbf {A} ^ {2} mathbf {v} right |}}, { frac { mathbf {A} ^ {3} mathbf {v}} { left | mathbf {A} ^ {3} mathbf {v} right |}}, ldots}

Diese Sequenz konvergiert fast immer zu einem Eigenvektor, der dem Eigenwert der größten Größe entspricht, vorausgesetzt, dass v hat eine Nicht-Null-Komponente dieses Eigenvektors in der Eigenvektorbasis (und vorausgesetzt, es gibt nur einen Eigenwert mit der größten Größe). Dieser einfache Algorithmus ist in einigen praktischen Anwendungen nützlich. Google verwendet es beispielsweise, um den Seitenrang von Dokumenten in ihrer Suchmaschine zu berechnen.[9] Die Power-Methode ist auch der Ausgangspunkt für viele komplexere Algorithmen. Zum Beispiel, indem Sie nicht nur den letzten Vektor in der Sequenz beibehalten, sondern stattdessen die Spanne von betrachten alle Mit den Vektoren in der Sequenz kann man eine bessere (schneller konvergierende) Näherung für den Eigenvektor erhalten, und diese Idee ist die Grundlage der Arnoldi-Iteration.[8] Alternativ basiert der wichtige QR-Algorithmus auch auf einer subtilen Transformation einer Leistungsmethode.[8]

Numerische Berechnung von Eigenvektoren[edit]

Sobald die Eigenwerte berechnet sind, könnten die Eigenvektoren durch Lösen der Gleichung berechnet werden

(EIN– –λichich)vich,j=0{ displaystyle left ( mathbf {A} – lambda _ {i} mathbf {I} right) mathbf {v} _ {i, j} = 0}

unter Verwendung der Gaußschen Eliminierung oder einer anderen Methode zum Lösen von Matrixgleichungen.

Bei praktischen großtechnischen Eigenwertverfahren werden die Eigenvektoren jedoch normalerweise auf andere Weise als Nebenprodukt der Eigenwertberechnung berechnet. Bei der Leistungsiteration wird beispielsweise der Eigenvektor tatsächlich vor dem Eigenwert berechnet (der typischerweise durch den Rayleigh-Quotienten des Eigenvektors berechnet wird).[8] Im QR-Algorithmus für eine Hermitianische Matrix (oder eine beliebige normale Matrix) werden die orthonormalen Eigenvektoren als Produkt der erhalten Q. Matrizen aus den Schritten im Algorithmus.[8] (Für allgemeinere Matrizen liefert der QR-Algorithmus zuerst die Schur-Zerlegung, aus der die Eigenvektoren durch ein Rücksubstitutionsverfahren erhalten werden können.[10]) Für hermitianische Matrizen ist der Divide-and-Conquer-Eigenwertalgorithmus effizienter als der QR-Algorithmus, wenn sowohl Eigenvektoren als auch Eigenwerte gewünscht werden.[8]

Zusätzliche Themen[edit]

Verallgemeinerte Eigenräume[edit]

Denken Sie daran, dass die geometrisch Die Multiplizität eines Eigenwerts kann als die Dimension des zugehörigen Eigenraums, des Nullraums von, beschrieben werden λich – – EIN. Die algebraische Multiplizität kann auch als Dimension betrachtet werden: Sie ist die Dimension des Assoziierten verallgemeinerter Eigenraum (1. Sinn), das ist der Nullraum der Matrix (λich – – EIN)k zum ausreichend groß k. Das heißt, es ist der Raum von verallgemeinerte Eigenvektoren(erster Sinn), wobei ein verallgemeinerter Eigenvektor ein beliebiger Vektor ist, der schließlichwird 0 wenn λich – – EIN wird oft genug nacheinander darauf angewendet. Jeder Eigenvektor ist ein verallgemeinerter Eigenvektor, und daher ist jeder Eigenraum im zugehörigen verallgemeinerten Eigenraum enthalten. Dies liefert einen einfachen Beweis dafür, dass die geometrische Multiplizität immer kleiner oder gleich der algebraischen Multiplizität ist.

Diese Verwendung sollte nicht mit der verwechselt werden verallgemeinertes Eigenwertproblem nachstehend beschrieben.

Eigenvektor konjugieren[edit]

EIN konjugierter Eigenvektor oder coneigenvector ist ein Vektor, der nach der Transformation in ein skalares Vielfaches seines Konjugats gesendet wird, wobei der Skalar als konjugierter Eigenwert oder coneigenvalue der linearen Transformation. Die Coneigenvektoren und Coneigenwerte repräsentieren im Wesentlichen die gleiche Information und Bedeutung wie die regulären Eigenvektoren und Eigenwerte, entstehen jedoch, wenn ein alternatives Koordinatensystem verwendet wird. Die entsprechende Gleichung lautet

EINv=λv∗.{ displaystyle mathbf {A} mathbf {v} = lambda mathbf {v} ^ {*}.}

Zum Beispiel in der Theorie der kohärenten elektromagnetischen Streuung die lineare Transformation EIN stellt die vom Streuobjekt ausgeführte Aktion dar, und die Eigenvektoren repräsentieren Polarisationszustände der elektromagnetischen Welle. In der Optik wird das Koordinatensystem vom Standpunkt der Welle aus definiert, der als Forward Scattering Alignment (FSA) bezeichnet wird, und führt zu einer regulären Eigenwertgleichung, während das Radar im Radar vom Standpunkt des Radars aus definiert wird, der als Back bezeichnet wird Scattering Alignment (BSA) und führt zu einer Coneigenvalue-Gleichung.

Verallgemeinertes Eigenwertproblem[edit]

EIN verallgemeinertes Eigenwertproblem (zweiter Sinn) ist das Problem, einen Vektor zu finden v das gehorcht

EINv=λB.v{ displaystyle mathbf {A} mathbf {v} = lambda mathbf {B} mathbf {v}}

wo EIN und B. sind Matrizen. Wenn v gehorcht dieser Gleichung mit einigen λ, dann rufen wir an v das verallgemeinerter Eigenvektor von EIN und B. (im zweiten Sinne) und λ heißt das verallgemeinerter Eigenwertvon EIN und B. (im zweiten Sinne), die dem verallgemeinerten Eigenvektor entspricht v. Die möglichen Werte von λ muss die folgende Gleichung befolgen

det(EIN– –λB.)=0.{ displaystyle det ( mathbf {A} – lambda mathbf {B}) = 0.}

Wenn n linear unabhängige Vektoren {v1, …, vn}} gefunden werden kann, so dass für jeden ich∈ {1, …, n}}, Ein Vich = λichBvich, dann definieren wir die Matrizen P. und D. so dass

P.=(||v1⋯vn||)≡((v1)1⋯(vn)1⋮⋮(v1)n⋯(vn)n){ displaystyle P = { begin {pmatrix} | && | \ mathbf {v} _ {1} & cdots & mathbf {v} _ {n} \ | && | end {pmatrix}} äquiv { begin {pmatrix} ( mathbf {v} _ {1}) _ {1} & cdots & ( mathbf {v} _ {n}) _ {1} \ vdots && vdots \ ( mathbf {v} _ {1}) _ {n} & cdots & ( mathbf {v} _ {n}) _ {n} end {pmatrix}}}

(D.)ichj={λich,wenn ich=j0,Andernfalls{ displaystyle (D) _ {ij} = { begin {case} lambda _ {i}, & { text {if}} i = j \ 0, & { text {else}} end { Fälle}}}

Dann gilt die folgende Gleichheit

EIN=B.P.D.P.– –1{ displaystyle mathbf {A} = mathbf {B} mathbf {P} mathbf {D} mathbf {P} ^ {- 1}}

Und der Beweis ist

EINP.=EIN(||v1⋯vn||)=(||EINv1⋯EINvn||)=(||λ1B.v1⋯λnB.vn||)=(||B.v1⋯B.vn||)D.=B.P.D.{ displaystyle mathbf {A} mathbf {P} = mathbf {A} { begin {pmatrix} | && | \ mathbf {v} _ {1} & cdots & mathbf {v} _ { n} \ | && | end {pmatrix}} = { begin {pmatrix} | && | \ A mathbf {v} _ {1} & cdots & A mathbf {v} _ {n} \ | && | end {pmatrix}} = { begin {pmatrix} | && | \ lambda _ {1} B mathbf {v} _ {1} & cdots & lambda _ {n} B mathbf {v} _ {n} \ | && | end {pmatrix}} = { begin {pmatrix} | && | \ B mathbf {v} _ {1} & cdots & B mathbf {v} _ {n} \ | && | end {pmatrix}} mathbf {D} = mathbf {B} mathbf {P} mathbf {D}}

Und seit P. ist invertierbar, multiplizieren wir die Gleichung von rechts mit ihrer Umkehrung und beenden den Beweis.

Die Menge der Matrizen des Formulars EIN – – λB., wo λ ist eine komplexe Zahl, heißt a Bleistift;; der Begriff Matrixstift kann sich auch auf das Paar beziehen (EIN, B.) von Matrizen.[11]

Wenn B. ist invertierbar, dann kann das ursprüngliche Problem in das Formular geschrieben werden

B.– –1EINv=λv{ displaystyle mathbf {B} ^ {- 1} mathbf {A} mathbf {v} = lambda mathbf {v}}

Das ist ein Standard-Eigenwertproblem. In den meisten Situationen ist es jedoch vorzuziehen, die Inversion nicht durchzuführen, sondern das verallgemeinerte Eigenwertproblem wie ursprünglich angegeben zu lösen. Dies ist besonders wichtig, wenn EIN und B. sind hermitische Matrizen, da in diesem Fall B.−1EIN ist im Allgemeinen nicht hermitisch und wichtige Eigenschaften der Lösung sind nicht mehr ersichtlich.

Wenn EIN und B. sind beide symmetrisch oder hermitisch und B. ist auch eine positiv-definitive Matrix, die Eigenwerte λich sind reelle und Eigenvektoren v1 und v2 mit unterschiedlichen Eigenwerten sind B.-orthogonal (v1* *Bv2 = 0).[12] In diesem Fall können Eigenvektoren so gewählt werden, dass die Matrix P.

oben definiert erfüllt

P.∗B.P.=ich{ displaystyle mathbf {P} ^ {*} mathbf {B} mathbf {P} = mathbf {I}}

oder P.P.∗B.=ich{ displaystyle mathbf {P} mathbf {P} ^ {*} mathbf {B} = mathbf {I}}

,

und es gibt eine Basis von verallgemeinerten Eigenvektoren (es ist kein fehlerhaftes Problem).[11] Dieser Fall wird manchmal als a bezeichnet Hermitianischer Bleistiftoder bestimmter Bleistift .[11]

Siehe auch[edit]

  1. ^ Golub & Van Loan (1996, S. 310)
  2. ^ Kreyszig (1972, S. 273)
  3. ^ Nering (1970, S. 270)
  4. ^ Hayde, AF; Twede, DR (2002). Shen, Sylvia S. (Hrsg.). “Beobachtungen zur Beziehung zwischen Eigenwerten, Instrumentenrauschen und Erkennungsleistung”. Bildgebende Spektrometrie VIII . Verfahren von SPIE. 4816: 355. Bibcode:2002SPIE.4816..355H. doi:10.1117 / 12.453777.
  5. ^ Twede, DR; Hayden, AF (2004). Shen, Sylvia S; Lewis, Paul E (Hrsg.). “Verfeinerung und Verallgemeinerung der Erweiterungsmethode der Kovarianzmatrixinversion durch Regularisierung”. Bildgebende Spektrometrie IX. Verfahren von SPIE. 5159: 299. Bibcode:2004SPIE.5159..299T. doi:10.1117 / 12.506993.
  6. ^ Horn & Johnson (1985), p. 133, Satz 2.5.3
  7. ^ Horn & Johnson (1985), p. 136, Folgerung 2.5.11
  8. ^ ein b c d e f Trefethen, Lloyd N.; Bau, David (1997). Numerische lineare Algebra. SIAM. ISBN 978-0-89871-361-9.
  9. ^ Ipsen, Ilse und Rebecca M. Wills, Analyse und Berechnung des PageRank von Google, 7. Internationales IMACS-Symposium über iterative Methoden im wissenschaftlichen Rechnen, Fields Institute, Toronto, Kanada, 5.-8. Mai 2005.
  10. ^ Quarteroni, Alfio; Sacco, Riccardo; Saleri, Fausto (2000). “Abschnitt 5.8.2”. Numerische Mathematik. Springer. p. 15. ISBN 978-0-387-98959-4.
  11. ^ ein b c Bai, Z.; Demmel, J.; Dongarra, J.; Ruhe, A.; Van Der Vorst, H., Hrsg. (2000). “Verallgemeinerte hermitische Eigenwertprobleme”. Vorlagen zur Lösung algebraischer Eigenwertprobleme: Ein praktischer Leitfaden. Philadelphia: SIAM. ISBN 978-0-89871-471-5.
  12. ^ Parlett, Beresford N. (1998). Das symmetrische Eigenwertproblem (Nachdruck ed.). Philadelphia: Gesellschaft für industrielle und angewandte Mathematik. p. 345. doi:10.1137 / 1.9781611971163. ISBN 978-0-89871-402-9.

Verweise[edit]

  • Franklin, Joel N. (1968). Matrixtheorie. Dover-Veröffentlichungen. ISBN 978-0-486-41179-8.
  • Golub, Gene H.; Van Loan, Charles F. (1996), Matrixberechnungen(3. Aufl.), Baltimore: Johns Hopkins University Press, ISBN 978-0-8018-5414-9
  • Horn, Roger A.; Johnson, Charles R. (1985). Matrixanalyse. Cambridge University Press. ISBN 978-0-521-38632-6.
  • Horn, Roger A.; Johnson, Charles R. (1991). Themen in der Matrixanalyse. Cambridge University Press. ISBN 978-0-521-46713-1.
  • Kreyszig, Erwin (1972), Advanced Engineering Mathematics (3. Aufl.), New York: Wiley, ISBN 978-0-471-50728-4
  • Nering, Evar D. (1970), Lineare Algebra und Matrixtheorie(2. Aufl.), New York: Wiley, LCCN 76091646
  • Strang, G. (1998). Einführung in die lineare Algebra(3. Aufl.). Wellesley-Cambridge Press. ISBN 978-0-9614088-5-5.

Externe Links[edit]