Diagonale Matrix – Wikipedia

Matrizen ähnlich wie Diagonalmatrizen

In der linearen Algebra ist eine quadratische Matrix

EIN{displaystyle A}

wird genannt diagonalisierbar oder fehlerfrei wenn sie einer Diagonalmatrix ähnlich ist, dh wenn eine invertierbare Matrix existiert

P{displaystyle P}

und eine Diagonalmatrix

D{displaystyle D}

so dass

P1EINP=D{displaystyle P^{-1}AP=D}

, oder gleichwertig

EIN=PDP1{displaystyle A=PDP^{-1}}

. (Eine solche

P{displaystyle P}

,

D{displaystyle D}

sind nicht eindeutig.) Für einen endlichdimensionalen Vektorraum

V{displaystyle V}

, eine lineare Karte

T:VV{displaystyle T:Vto V}

wird genannt diagonalisierbar wenn es eine geordnete Basis von gibt

V{displaystyle V}

bestehend aus Eigenvektoren von

T{displaystyle T}

. Diese Definitionen sind äquivalent: wenn

T{displaystyle T}

hat eine Matrixdarstellung

EIN=PDP1{displaystyle A=PDP^{-1}}

wie oben, dann sind die Spaltenvektoren von

P{displaystyle P}

bilden eine Basis bestehend aus Eigenvektoren von

T{displaystyle T}

, und die diagonalen Einträge von

D{displaystyle D}

sind die entsprechenden Eigenwerte von

T{displaystyle T}

; bezüglich dieser Eigenvektorbasis,

EIN{displaystyle A}

wird vertreten durch

D{displaystyle D}

. Diagonale ist der Prozess, das oben genannte zu finden

P{displaystyle P}

und

D{displaystyle D}

.

Diagonalisierbare Matrizen und Abbildungen sind besonders einfach für Berechnungen, wenn ihre Eigenwerte und Eigenvektoren bekannt sind. Man kann eine Diagonalmatrix erstellen

D{displaystyle D}

hoch, indem man einfach die Diagonaleinträge zu dieser Potenz macht, und die Determinante einer Diagonalmatrix ist einfach das Produkt aller Diagonaleinträge; solche Berechnungen lassen sich leicht verallgemeinern zu

EIN=PDP1{displaystyle A=PDP^{-1}}

. Geometrisch ist eine diagonalisierbare Matrix ein inhomogene Dilatation (oder anisotrope Skalierung) — es skaliert den Raum, ebenso wie a homogene Dilatation, aber um einen anderen Faktor entlang jeder Eigenvektorachse, den Faktor, der durch den entsprechenden Eigenwert gegeben ist.

Eine nicht diagonalisierbare quadratische Matrix heißt defekt. Es kann vorkommen, dass eine Matrix

EIN{displaystyle A}

bei reellen Einträgen ist über die reellen Zahlen defekt, d.h

EIN=PDP1{displaystyle A=PDP^{-1}}

ist für jedes Invertible unmöglich

P{displaystyle P}

und diagonal

D{displaystyle D}

bei reellen Einträgen, aber bei komplexen Einträgen ist es möglich, so dass

EIN{displaystyle A}

über den komplexen Zahlen diagonalisierbar ist. Dies ist beispielsweise bei einer generischen Rotationsmatrix der Fall.

Viele Ergebnisse für diagonalisierbare Matrizen gelten nur über einen algebraisch abgeschlossenen Körper (wie die komplexen Zahlen). In diesem Fall liegen diagonalisierbare Matrizen dicht im Raum aller Matrizen, was bedeutet, dass jede defekte Matrix durch eine kleine Störung in eine diagonalisierbare Matrix verformt werden kann; und der Normalformsatz von Jordan besagt, dass jede Matrix eindeutig die Summe einer diagonalisierbaren Matrix und einer nilpotenten Matrix ist. Über einen algebraisch abgeschlossenen Körper sind diagonalisierbare Matrizen äquivalent zu halbeinfachen Matrizen.

Definition[edit]

Ein Quadrat

n×n{displaystyle nmal n}

Matrix

EIN{displaystyle A}

über ein Feld

F{displaystyle F}

wird genannt diagonalisierbar oder fehlerfrei falls es eine invertierbare Matrix gibt

P{displaystyle P}

so dass

P1EINP{displaystyle P^{-1}AP}

ist eine Diagonalmatrix. Formal,

EINFn×n diagonalisierbarP,P1Fn×n:P1EINP Diagonale{displaystyle Ain F^{ntimes n}{text{ diagonalisierbar}}iff exists ,P,P^{-1}in F^{ntimes n}:;P^ {-1}!AP{text{ diagonal}}}

Charakterisierung[edit]

Die grundlegende Tatsache über diagonalisierbare Abbildungen und Matrizen wird wie folgt ausgedrückt:

Eine weitere Charakterisierung: Eine Matrix oder lineare Karte ist über das Feld diagonalisierbar

F{displaystyle F}

genau dann, wenn sein minimales Polynom ein Produkt verschiedener linearer Faktoren über . ist

F{displaystyle F}

. (Anders ausgedrückt ist eine Matrix genau dann diagonalisierbar, wenn alle ihre elementaren Teiler linear sind.)

Die folgende hinreichende (aber nicht notwendige) Bedingung ist oft nützlich.

Lassen

EIN{displaystyle A}

sei eine Matrix über

F{displaystyle F}

. Wenn

EIN{displaystyle A}

diagonalisierbar ist, dann ist es auch jede Potenz davon. Umgekehrt, wenn

EIN{displaystyle A}

ist invertierbar,

F{displaystyle F}

ist algebraisch abgeschlossen, und

EINn{displaystyle A^{n}}

ist für manche diagonalisierbar

n{displaystyle n}

das ist kein ganzzahliges Vielfaches der Charakteristik von

F{displaystyle F}

, dann

EIN{displaystyle A}

ist diagonalisierbar. Beweis: Wenn

EINn{displaystyle A^{n}}

ist diagonalisierbar, dann

EIN{displaystyle A}

wird durch ein Polynom vernichtet

(xnλ1)(xnλk){displaystyle left(x^{n}-lambda_{1}right)cdots left(x^{n}-lambda_{k}right)}

, die keine Mehrfachwurzel hat (da

λJ0{displaystyle lambda_{j}neq 0}

) und wird durch das minimale Polynom von dividiert

EIN{displaystyle A}

.

Über die komplexen Zahlen

C{displaystylemathbb{C}}

, fast jede Matrix ist diagonalisierbar. Genauer gesagt: die Menge der Komplexe

n×n{displaystyle nmal n}

Matrizen, die nicht diagonalisierbar über

C{displaystylemathbb{C}}

, als Teilmenge von betrachtet

Cn×n{displaystylemathbb{C}^{ntimes n}}

, lässt Lebesgue Null messen. Man kann auch sagen, dass die diagonalisierbaren Matrizen eine dichte Teilmenge bezüglich der Zariski-Topologie bilden: Die nicht-diagonalisierbaren Matrizen liegen innerhalb der verschwindenden Menge der Diskriminante des charakteristischen Polynoms, die eine Hyperfläche ist. Daraus folgt auch die Dichte im üblichen (stark) Topologie durch eine Norm gegeben. Das gleiche gilt nicht für

R{displaystyle mathbb{R}}

.

Die Jordan-Chevaley-Zerlegung drückt einen Operator als Summe seines halbeinfachen (dh diagonalisierbaren) Teils und seines nilpotenten Teils aus. Daher ist eine Matrix genau dann diagonalisierbar, wenn ihr nilpotenter Teil null ist. Anders ausgedrückt ist eine Matrix diagonalisierbar, wenn jeder Block in seiner Jordan-Form keinen nilpotenten Teil hat; dh jeder „Block“ ist eine Eins-zu-eins-Matrix.

Diagonale[edit]

Die Diagonalisierung einer symmetrischen Matrix kann als Drehung der Achsen interpretiert werden, um sie an den Eigenvektoren auszurichten.

Wenn eine Matrix

EIN{displaystyle A}

kann diagonalisiert werden, d.h.

dann:

Schreiben

P{displaystyle P}

als Blockmatrix ihrer Spaltenvektoren

αich{displaystyle {boldsymbol {alpha}}_{i}}

die obige Gleichung kann umgeschrieben werden als

Also die Spaltenvektoren von

P{displaystyle P}

sind rechte Eigenvektoren von

EIN{displaystyle A}

, und der entsprechende diagonale Eintrag ist der entsprechende Eigenwert. Die Invertibilität von

P{displaystyle P}

schlägt auch vor, dass die Eigenvektoren linear unabhängig sind und eine Basis von bilden

Fn{displaystyle F^{n}}

. Dies ist die notwendige und hinreichende Bedingung für die Diagonalisierungsfähigkeit und den kanonischen Ansatz der Diagonalisierung. Die Zeilenvektoren von

P1{displaystyle P^{-1}}

sind die linken Eigenvektoren von

EIN{displaystyle A}

.

Wenn eine komplexe Matrix

EINCn×n{displaystyle Ainmathbb{C}^{ntimes n}}

ist eine hermitesche Matrix (oder allgemeiner eine normale Matrix), Eigenvektoren von

EIN{displaystyle A}

kann gewählt werden, um eine Orthonormalbasis von zu bilden

Cn{displaystyle mathbb{C} ^{n}}

, und

P{displaystyle P}

kann als unitäre Matrix gewählt werden. Wenn zusätzlich

EINRn×n{displaystyle Ainmathbb{R}^{ntimes n}}

eine reelle symmetrische Matrix ist, dann können ihre Eigenvektoren als Orthonormalbasis von . gewählt werden

Rn{displaystyle mathbb{R} ^{n}}

und

P{displaystyle P}

kann als orthogonale Matrix gewählt werden.

Für die meisten praktischen Arbeiten werden Matrizen mit Computersoftware numerisch diagonalisiert. Es gibt viele Algorithmen, um dies zu erreichen.

Gleichzeitige Diagonalisierung[edit]

Eine Menge von Matrizen heißt gleichzeitig diagonalisierbar wenn es eine einzige invertierbare Matrix gibt

P{displaystyle P}

so dass

P1EINP{displaystyle P^{-1}AP}

ist eine Diagonalmatrix für jedes

EIN{displaystyle A}

im Satz. Der folgende Satz charakterisiert gleichzeitig diagonalisierbare Matrizen: Eine Menge diagonalisierbarer Matrizen kommutiert genau dann, wenn die Menge gleichzeitig diagonalisierbar ist.[1]: S. 61-63

Der Satz von allen

n×n{displaystyle nmal n}

diagonalisierbare Matrizen (über

C{displaystylemathbb{C}}

) mit

n>1{displaystyle n>1}

[1000]und[1100]{displaystyle {begin{bmatrix}1&0\0&0end{bmatrix}}quad {text{and}}quad {begin{bmatrix}1&1\0&0end{bmatrix}}}

sind diagonalisierbar, aber nicht gleichzeitig diagonalisierbar, da sie nicht kommutieren.

Eine Menge besteht genau dann aus kommutierenden normalen Matrizen, wenn sie gleichzeitig durch eine unitäre Matrix diagonalisierbar ist; das heißt, es existiert eine unitäre Matrix

U{displaystyle U}

so dass

U*EINU{displaystyle U^{*}AU}

ist diagonal für alle

EIN{displaystyle A}

im Satz.

In der Sprache der Lie-Theorie erzeugt eine Menge gleichzeitig diagonalisierbarer Matrizen eine torale Lie-Algebra.

Beispiele[edit]

Diagonale Matrizen[edit]

Matrizen, die nicht diagonalisierbar sind[edit]

Im Allgemeinen ist eine Rotationsmatrix nicht über die reellen Zahlen diagonalisierbar, aber alle Rotationsmatrizen sind über den komplexen Körper diagonalisierbar. Auch wenn eine Matrix nicht diagonalisierbar ist, ist es immer möglich „mach das beste was man kann“, und finden Sie eine Matrix mit den gleichen Eigenschaften, bestehend aus Eigenwerten auf der führenden Diagonale und entweder Einsen oder Nullen auf der Superdiagonalen – bekannt als Jordan-Normalform.

Einige Matrizen sind über kein Feld diagonalisierbar, insbesondere nilpotente Matrizen ungleich null. Dies geschieht allgemeiner, wenn die algebraische und die geometrische Vielfachheit eines Eigenwerts nicht zusammenfallen. Betrachten Sie zum Beispiel

Diese Matrix ist nicht diagonalisierbar: es gibt keine Matrix

U{displaystyle U}

so dass

U1CU{displaystyle U^{-1}CU}

ist eine Diagonalmatrix. In der Tat,

C{displaystyle C}

hat einen Eigenwert (nämlich Null) und dieser Eigenwert hat die algebraische Multiplizität 2 und die geometrische Multiplizität 1.

Einige reelle Matrizen sind nicht über die reellen Zahlen diagonalisierbar. Betrachten Sie zum Beispiel die Matrix

Die Matrix

B{displaystyle B}

hat keine reellen Eigenwerte, also gibt es kein Real Matrix

Q{displaystyle Q}

so dass

Q1BQ{displaystyle Q^{-1}BQ}

ist eine Diagonalmatrix. Wir können jedoch diagonalisieren

B{displaystyle B}

wenn wir komplexe Zahlen zulassen. In der Tat, wenn wir nehmen

dann

Q1BQ{displaystyle Q^{-1}BQ}

ist diagonal. Das ist leicht zu finden

B{displaystyle B}

ist die Rotationsmatrix, die sich um den Winkel gegen den Uhrzeigersinn dreht

θ=3π2{textstyle theta ={frac {3pi}{2}}}

Beachten Sie, dass die obigen Beispiele zeigen, dass die Summe der diagonalisierbaren Matrizen nicht diagonalisierbar sein muss.

Wie man eine Matrix diagonalisiert[edit]

Das Diagonalisieren einer Matrix ist der gleiche Vorgang wie das Finden ihrer Eigenwerte und Eigenvektoren, falls die Eigenvektoren eine Basis bilden. Betrachten Sie zum Beispiel die Matrix

Die Wurzeln des charakteristischen Polynoms

P(λ)=det(λichEIN){displaystyle p(lambda)=det(lambda IA)}

sind die Eigenwerte

λ1=1,λ2=1,λ3=2{displaystyle lambda_{1}=1,lambda_{2}=1,lambda_{3}=2}

. Lösung des linearen Systems

(ichEIN)v=0{displaystyle left(IAright)mathbf {v} =mathbf {0} }

gibt die Eigenvektoren

v1=(1,1,0){displaystyle mathbf {v} _{1}=(1,1,0)}

und

v2=(0,2,1){displaystyle mathbf {v} _{2}=(0,2,1)}

, während

(2ichEIN)v=0{displaystyle left(2I-Aright)mathbf {v} =mathbf {0} }

gibt

v3=(1,0,1){displaystyle mathbf {v} _{3}=(1,0,-1)}

; das ist,

EINvich=λichvich{displaystyle Amathbf{v}_{i}=lambda_{i}mathbf{v}_{i}}

zum

ich=1,2,3{displaystyle i=1,2,3}

. Diese Vektoren bilden eine Basis von

V=R3{displaystyle V=mathbb{R} ^{3}}

, so können wir sie als Spaltenvektoren einer Basisänderungsmatrix zusammenstellen

P{displaystyle P}

bekommen:

Wir können diese Gleichung in Form von Transformationen sehen:

P{displaystyle P}

nimmt die Standardbasis zur Eigenbasis,

Peich=vich{displaystyle Pmathbf{e}_{i}=mathbf{v}_{i}}

, also haben wir:

so dass

P1EINP{displaystyle P^{-1}AP}

hat die Standardbasis als Eigenvektoren, die die definierende Eigenschaft von . ist

D{displaystyle D}

.

Beachten Sie, dass es keine bevorzugte Reihenfolge der Eigenvektoren in gibt

P{displaystyle P}

; Ändern der Reihenfolge der Eigenvektoren in

P{displaystyle P}

ändert einfach die Reihenfolge der Eigenwerte in der diagonalisierten Form von

EIN{displaystyle A}

.[2]

Anwendung auf Matrixfunktionen[edit]

Diagonalisierung kann verwendet werden, um die Potenzen einer Matrix effizient zu berechnen

EIN=PDP1{displaystyle A=PDP^{-1}}

:

und letzteres ist leicht zu berechnen, da es sich nur um die Potenzen einer Diagonalmatrix handelt. Zum Beispiel für die Matrix

EIN{displaystyle A}

mit Eigenwerten

λ=1,1,2{displaystyle lambda=1,1,2}

Im obigen Beispiel berechnen wir:

Dieser Ansatz kann auf Matrixexponential- und andere Matrixfunktionen verallgemeinert werden, die als Potenzreihen definiert werden können. Zum Beispiel definieren

exp(EIN)=ich+EIN+12!EIN2+13!EIN3+{textstyle exp(A)=I+A+{frac {1}{2!}}A^{2}+{frac {1}{3!}}A^{3}+cdots}

, wir haben:

Dies ist besonders nützlich, um Ausdrücke in geschlossener Form für Terme linearer rekursiver Folgen wie die Fibonacci-Zahlen zu finden.

Besondere Anwendung[edit]

Betrachten Sie beispielsweise die folgende Matrix:

Berechnung der verschiedenen Potenzen von

m{displaystyle M}

zeigt ein überraschendes Muster:

Das obige Phänomen lässt sich durch Diagonalisierung erklären

m{displaystyle M}

. Um dies zu erreichen, brauchen wir eine Basis von

R2{displaystyle mathbb{R} ^{2}}

bestehend aus Eigenvektoren von

m{displaystyle M}

. Eine solche Eigenvektorbasis ist gegeben durch

wo eich bezeichnet die Standardbasis von Rn. Der umgekehrte Basiswechsel ist gegeben durch

Einfache Berechnungen zeigen, dass

Daher, ein und B sind die Eigenwerte zu du und v, bzw. Nach Linearität der Matrixmultiplikation haben wir, dass

Zurück zur Standardbasis haben wir

Die vorhergehenden Beziehungen, ausgedrückt in Matrixform, sind

wodurch das obige Phänomen erklärt wird.

Quantenmechanische Anwendung[edit]

In quantenmechanischen und quantenchemischen Berechnungen ist die Matrixdiagonalisierung eines der am häufigsten angewendeten numerischen Verfahren. Der Hauptgrund ist, dass die zeitunabhängige Schrödinger-Gleichung eine Eigenwertgleichung ist, wenn auch in den meisten physikalischen Situationen auf einem unendlich dimensionalen Raum (einem Hilbert-Raum).

Eine sehr verbreitete Näherung besteht darin, den Hilbert-Raum auf endliche Dimensionen zu kürzen, wonach die Schrödinger-Gleichung als Eigenwertproblem einer reellen symmetrischen oder komplexen Hermiteschen Matrix formuliert werden kann. Formal basiert diese Approximation auf dem Variationsprinzip, das für nach unten beschränkte Hamiltonoperatoren gilt.

Die Störungstheorie erster Ordnung führt auch zu einem Matrixeigenwertproblem für entartete Zustände.

Siehe auch[edit]

Verweise[edit]