[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki25\/2021\/10\/28\/diagonale-matrix-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki25\/2021\/10\/28\/diagonale-matrix-wikipedia\/","headline":"Diagonale Matrix \u2013 Wikipedia","name":"Diagonale Matrix \u2013 Wikipedia","description":"before-content-x4 Matrizen \u00e4hnlich wie Diagonalmatrizen Dieser Artikel befasst sich mit der Matrixdiagonalisierung in der linearen Algebra. F\u00fcr andere Verwendungen siehe","datePublished":"2021-10-28","dateModified":"2021-10-28","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki25\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki25\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/7daff47fa58cdfd29dc333def748ff5fa4c923e3","url":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/7daff47fa58cdfd29dc333def748ff5fa4c923e3","height":"","width":""},"url":"https:\/\/wiki.edu.vn\/wiki25\/2021\/10\/28\/diagonale-matrix-wikipedia\/","wordCount":20541,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Matrizen \u00e4hnlich wie DiagonalmatrizenDieser Artikel befasst sich mit der Matrixdiagonalisierung in der linearen Algebra. F\u00fcr andere Verwendungen siehe Diagonalisierung. In der linearen Algebra ist eine quadratische Matrix EIN{displaystyle A} wird genannt diagonalisierbar oder fehlerfrei wenn sie einer Diagonalmatrix \u00e4hnlich ist, dh wenn eine invertierbare Matrix existiert P{displaystyle P} und eine Diagonalmatrix D{displaystyle D} so dass P\u22121EINP=D{displaystyle P^{-1}AP=D}, oder gleichwertig EIN=PDP\u22121{displaystyle A=PDP^{-1}}. (Eine solche P{displaystyle P}, D{displaystyle D} sind nicht eindeutig.) F\u00fcr einen endlichdimensionalen Vektorraum V{displaystyle V}, eine lineare Karte T:V\u2192V{displaystyle T:Vto V} wird genannt diagonalisierbar wenn es eine geordnete Basis von gibt V{displaystyle V} bestehend aus Eigenvektoren von T{displaystyle T}. Diese Definitionen sind \u00e4quivalent: wenn T{displaystyle T} hat eine Matrixdarstellung EIN=PDP\u22121{displaystyle A=PDP^{-1}} wie oben, dann sind die Spaltenvektoren von P{displaystyle P} bilden eine Basis bestehend aus Eigenvektoren von T{displaystyle T}, und die diagonalen Eintr\u00e4ge von D{displaystyle D} sind die entsprechenden Eigenwerte von T{displaystyle T}; bez\u00fcglich dieser Eigenvektorbasis, EIN{displaystyle A} wird vertreten durch D{displaystyle D}. Diagonale ist der Prozess, das oben genannte zu finden P{displaystyle P} und D{displaystyle D}.Diagonalisierbare Matrizen und Abbildungen sind besonders einfach f\u00fcr Berechnungen, wenn ihre Eigenwerte und Eigenvektoren bekannt sind. Man kann eine Diagonalmatrix erstellen D{displaystyle D} hoch, indem man einfach die Diagonaleintr\u00e4ge zu dieser Potenz macht, und die Determinante einer Diagonalmatrix ist einfach das Produkt aller Diagonaleintr\u00e4ge; solche Berechnungen lassen sich leicht verallgemeinern zu EIN=PDP\u22121{displaystyle A=PDP^{-1}}. Geometrisch ist eine diagonalisierbare Matrix ein inhomogene Dilatation (oder anisotrope Skalierung) \u2014 es skaliert den Raum, ebenso wie a homogene Dilatation, aber um einen anderen Faktor entlang jeder Eigenvektorachse, den Faktor, der durch den entsprechenden Eigenwert gegeben ist.Eine nicht diagonalisierbare quadratische Matrix hei\u00dft defekt. Es kann vorkommen, dass eine Matrix EIN{displaystyle A} bei reellen Eintr\u00e4gen ist \u00fcber die reellen Zahlen defekt, d.h EIN=PDP\u22121{displaystyle A=PDP^{-1}} ist f\u00fcr jedes Invertible unm\u00f6glich P{displaystyle P} und diagonal D{displaystyle D} bei reellen Eintr\u00e4gen, aber bei komplexen Eintr\u00e4gen ist es m\u00f6glich, so dass EIN{displaystyle A} \u00fcber den komplexen Zahlen diagonalisierbar ist. Dies ist beispielsweise bei einer generischen Rotationsmatrix der Fall.Viele Ergebnisse f\u00fcr diagonalisierbare Matrizen gelten nur \u00fcber einen algebraisch abgeschlossenen K\u00f6rper (wie die komplexen Zahlen). In diesem Fall liegen diagonalisierbare Matrizen dicht im Raum aller Matrizen, was bedeutet, dass jede defekte Matrix durch eine kleine St\u00f6rung in eine diagonalisierbare Matrix verformt werden kann; und der Normalformsatz von Jordan besagt, dass jede Matrix eindeutig die Summe einer diagonalisierbaren Matrix und einer nilpotenten Matrix ist. \u00dcber einen algebraisch abgeschlossenen K\u00f6rper sind diagonalisierbare Matrizen \u00e4quivalent zu halbeinfachen Matrizen.Table of ContentsDefinition[edit]Charakterisierung[edit]Diagonale[edit]Gleichzeitige Diagonalisierung[edit]Beispiele[edit]Diagonale Matrizen[edit]Matrizen, die nicht diagonalisierbar sind[edit]Wie man eine Matrix diagonalisiert[edit]Anwendung auf Matrixfunktionen[edit]Besondere Anwendung[edit]Quantenmechanische Anwendung[edit]Siehe auch[edit]Verweise[edit]Definition[edit]Ein Quadrat n\u00d7n{displaystyle nmal n} Matrix EIN{displaystyle A} \u00fcber ein Feld F{displaystyle F} wird genannt diagonalisierbar oder fehlerfrei falls es eine invertierbare Matrix gibt P{displaystyle P} so dass P\u22121EINP{displaystyle P^{-1}AP} ist eine Diagonalmatrix. Formal,EIN\u2208Fn\u00d7n diagonalisierbar\u27fa\u2203P,P\u22121\u2208Fn\u00d7n:P\u22121EINP Diagonale{displaystyle Ain F^{ntimes n}{text{ diagonalisierbar}}iff exists ,P,P^{-1}in F^{ntimes n}:;P^ {-1}!AP{text{ diagonal}}}Charakterisierung[edit]Die grundlegende Tatsache \u00fcber diagonalisierbare Abbildungen und Matrizen wird wie folgt ausgedr\u00fcckt:Eine weitere Charakterisierung: Eine Matrix oder lineare Karte ist \u00fcber das Feld diagonalisierbar F{displaystyle F} genau dann, wenn sein minimales Polynom ein Produkt verschiedener linearer Faktoren \u00fcber . ist F{displaystyle F}. (Anders ausgedr\u00fcckt ist eine Matrix genau dann diagonalisierbar, wenn alle ihre elementaren Teiler linear sind.)Die folgende hinreichende (aber nicht notwendige) Bedingung ist oft n\u00fctzlich.Lassen EIN{displaystyle A} sei eine Matrix \u00fcber F{displaystyle F}. Wenn EIN{displaystyle A} diagonalisierbar ist, dann ist es auch jede Potenz davon. Umgekehrt, wenn EIN{displaystyle A} ist invertierbar, F{displaystyle F} ist algebraisch abgeschlossen, und EINn{displaystyle A^{n}} ist f\u00fcr manche diagonalisierbar n{displaystyle n} das ist kein ganzzahliges Vielfaches der Charakteristik von F{displaystyle F}, dann EIN{displaystyle A} ist diagonalisierbar. Beweis: Wenn EINn{displaystyle A^{n}} ist diagonalisierbar, dann EIN{displaystyle A} wird durch ein Polynom vernichtet (xn\u2212\u03bb1)\u22ef(xn\u2212\u03bbk){displaystyle left(x^{n}-lambda_{1}right)cdots left(x^{n}-lambda_{k}right)}, die keine Mehrfachwurzel hat (da \u03bbJ\u22600{displaystyle lambda_{j}neq 0}) und wird durch das minimale Polynom von dividiert EIN{displaystyle A}.\u00dcber die komplexen Zahlen C{displaystylemathbb{C}}, fast jede Matrix ist diagonalisierbar. Genauer gesagt: die Menge der Komplexe n\u00d7n{displaystyle nmal n} Matrizen, die nicht diagonalisierbar \u00fcber C{displaystylemathbb{C}}, als Teilmenge von betrachtet Cn\u00d7n{displaystylemathbb{C}^{ntimes n}}, l\u00e4sst Lebesgue Null messen. Man kann auch sagen, dass die diagonalisierbaren Matrizen eine dichte Teilmenge bez\u00fcglich der Zariski-Topologie bilden: Die nicht-diagonalisierbaren Matrizen liegen innerhalb der verschwindenden Menge der Diskriminante des charakteristischen Polynoms, die eine Hyperfl\u00e4che ist. Daraus folgt auch die Dichte im \u00fcblichen (stark) Topologie durch eine Norm gegeben. Das gleiche gilt nicht f\u00fcr R{displaystyle mathbb{R}}.Die Jordan-Chevaley-Zerlegung dr\u00fcckt einen Operator als Summe seines halbeinfachen (dh diagonalisierbaren) Teils und seines nilpotenten Teils aus. Daher ist eine Matrix genau dann diagonalisierbar, wenn ihr nilpotenter Teil null ist. Anders ausgedr\u00fcckt ist eine Matrix diagonalisierbar, wenn jeder Block in seiner Jordan-Form keinen nilpotenten Teil hat; dh jeder “Block” ist eine Eins-zu-eins-Matrix.Diagonale[edit] Die Diagonalisierung einer symmetrischen Matrix kann als Drehung der Achsen interpretiert werden, um sie an den Eigenvektoren auszurichten.Wenn eine Matrix EIN{displaystyle A} kann diagonalisiert werden, d.h.P\u22121EINP=[\u03bb10\u202600\u03bb2\u20260\u22ee\u22ee\u22f1\u22ee00\u2026\u03bbn],{displaystyle P^{-1}AP={begin{bmatrix}lambda _{1}&0&dots &0\\0&lambda_{2}&dots &0\\vdots &vdots &ddots &vdots \\0&0&dots &lambda_{n}end{bmatrix}},}dann:EINP=P[\u03bb10\u202600\u03bb2\u20260\u22ee\u22ee\u22f1\u22ee00\u2026\u03bbn].{displaystyle AP=P{begin{bmatrix}lambda _{1}&0&dots &0\\0&lambda _{2}&dots &0\\vdots &vdots &ddots &vdots \\ 0&0&dots &lambda_{n}end{bmatrix}}.}Schreiben P{displaystyle P} als Blockmatrix ihrer Spaltenvektoren \u03b1ich{displaystyle {boldsymbol {alpha}}_{i}}P=[\u03b11\u03b12\u22ef\u03b1n],{displaystyle P={begin{bmatrix}{boldsymbol {alpha}}_{1}&{boldsymbol {alpha}}_{2}&cdots &{boldsymbol {alpha}}_{ n}end{bmatrix}},}die obige Gleichung kann umgeschrieben werden alsEIN\u03b1ich=\u03bbich\u03b1ich(ich=1,2,\u2026,n).{displaystyle A{boldsymbol {alpha}}_{i}=lambda_{i}{boldsymbol {alpha}}_{i}qquad (i=1,2,dots,n). }Also die Spaltenvektoren von P{displaystyle P} sind rechte Eigenvektoren von EIN{displaystyle A}, und der entsprechende diagonale Eintrag ist der entsprechende Eigenwert. Die Invertibilit\u00e4t von P{displaystyle P} schl\u00e4gt auch vor, dass die Eigenvektoren linear unabh\u00e4ngig sind und eine Basis von bilden Fn{displaystyle F^{n}}. Dies ist die notwendige und hinreichende Bedingung f\u00fcr die Diagonalisierungsf\u00e4higkeit und den kanonischen Ansatz der Diagonalisierung. Die Zeilenvektoren von P\u22121{displaystyle P^{-1}} sind die linken Eigenvektoren von EIN{displaystyle A}.Wenn eine komplexe Matrix EIN\u2208Cn\u00d7n{displaystyle Ainmathbb{C}^{ntimes n}} ist eine hermitesche Matrix (oder allgemeiner eine normale Matrix), Eigenvektoren von EIN{displaystyle A} kann gew\u00e4hlt werden, um eine Orthonormalbasis von zu bilden Cn{displaystyle mathbb{C} ^{n}}, und P{displaystyle P} kann als unit\u00e4re Matrix gew\u00e4hlt werden. Wenn zus\u00e4tzlich EIN\u2208Rn\u00d7n{displaystyle Ainmathbb{R}^{ntimes n}} eine reelle symmetrische Matrix ist, dann k\u00f6nnen ihre Eigenvektoren als Orthonormalbasis von . gew\u00e4hlt werden Rn{displaystyle mathbb{R} ^{n}} und P{displaystyle P} kann als orthogonale Matrix gew\u00e4hlt werden.F\u00fcr die meisten praktischen Arbeiten werden Matrizen mit Computersoftware numerisch diagonalisiert. Es gibt viele Algorithmen, um dies zu erreichen.Gleichzeitige Diagonalisierung[edit]Eine Menge von Matrizen hei\u00dft gleichzeitig diagonalisierbar wenn es eine einzige invertierbare Matrix gibt P{displaystyle P} so dass P\u22121EINP{displaystyle P^{-1}AP} ist eine Diagonalmatrix f\u00fcr jedes EIN{displaystyle A} im Satz. Der folgende Satz charakterisiert gleichzeitig diagonalisierbare Matrizen: Eine Menge diagonalisierbarer Matrizen kommutiert genau dann, wenn die Menge gleichzeitig diagonalisierbar ist.[1]: S. 61-63Der Satz von allen n\u00d7n{displaystyle nmal n} diagonalisierbare Matrizen (\u00fcber C{displaystylemathbb{C}}) mit 1″\/> ist nicht gleichzeitig diagonalisierbar. Zum Beispiel die Matrizen[1000]und[1100]{displaystyle {begin{bmatrix}1&0\\0&0end{bmatrix}}quad {text{and}}quad {begin{bmatrix}1&1\\0&0end{bmatrix}}}sind diagonalisierbar, aber nicht gleichzeitig diagonalisierbar, da sie nicht kommutieren.Eine Menge besteht genau dann aus kommutierenden normalen Matrizen, wenn sie gleichzeitig durch eine unit\u00e4re Matrix diagonalisierbar ist; das hei\u00dft, es existiert eine unit\u00e4re Matrix U{displaystyle U} so dass U*EINU{displaystyle U^{*}AU} ist diagonal f\u00fcr alle EIN{displaystyle A} im Satz.In der Sprache der Lie-Theorie erzeugt eine Menge gleichzeitig diagonalisierbarer Matrizen eine torale Lie-Algebra.Beispiele[edit]Diagonale Matrizen[edit]Matrizen, die nicht diagonalisierbar sind[edit]Im Allgemeinen ist eine Rotationsmatrix nicht \u00fcber die reellen Zahlen diagonalisierbar, aber alle Rotationsmatrizen sind \u00fcber den komplexen K\u00f6rper diagonalisierbar. Auch wenn eine Matrix nicht diagonalisierbar ist, ist es immer m\u00f6glich “mach das beste was man kann”, und finden Sie eine Matrix mit den gleichen Eigenschaften, bestehend aus Eigenwerten auf der f\u00fchrenden Diagonale und entweder Einsen oder Nullen auf der Superdiagonalen \u2013 bekannt als Jordan-Normalform.Einige Matrizen sind \u00fcber kein Feld diagonalisierbar, insbesondere nilpotente Matrizen ungleich null. Dies geschieht allgemeiner, wenn die algebraische und die geometrische Vielfachheit eines Eigenwerts nicht zusammenfallen. Betrachten Sie zum BeispielC=[0100].{displaystyle C={begin{bmatrix}0&1\\0&0end{bmatrix}}.}Diese Matrix ist nicht diagonalisierbar: es gibt keine Matrix U{displaystyle U} so dass U\u22121CU{displaystyle U^{-1}CU} ist eine Diagonalmatrix. In der Tat, C{displaystyle C} hat einen Eigenwert (n\u00e4mlich Null) und dieser Eigenwert hat die algebraische Multiplizit\u00e4t 2 und die geometrische Multiplizit\u00e4t 1.Einige reelle Matrizen sind nicht \u00fcber die reellen Zahlen diagonalisierbar. Betrachten Sie zum Beispiel die MatrixB=[01\u221210].{displaystyle B=left[{begin{array}{rr}0&1\\!-1&0end{array}}right].}Die Matrix B{displaystyle B} hat keine reellen Eigenwerte, also gibt es kein Real Matrix Q{displaystyle Q} so dass Q\u22121BQ{displaystyle Q^{-1}BQ} ist eine Diagonalmatrix. Wir k\u00f6nnen jedoch diagonalisieren B{displaystyle B} wenn wir komplexe Zahlen zulassen. In der Tat, wenn wir nehmenQ=[1ii1],{displaystyle Q={begin{bmatrix}1&i\\i&1end{bmatrix}},}dann Q\u22121BQ{displaystyle Q^{-1}BQ} ist diagonal. Das ist leicht zu finden B{displaystyle B} ist die Rotationsmatrix, die sich um den Winkel gegen den Uhrzeigersinn dreht \u03b8=3\u03c02{textstyle theta ={frac {3pi}{2}}}Beachten Sie, dass die obigen Beispiele zeigen, dass die Summe der diagonalisierbaren Matrizen nicht diagonalisierbar sein muss.Wie man eine Matrix diagonalisiert[edit]Das Diagonalisieren einer Matrix ist der gleiche Vorgang wie das Finden ihrer Eigenwerte und Eigenvektoren, falls die Eigenvektoren eine Basis bilden. Betrachten Sie zum Beispiel die MatrixEIN=[01\u221220101\u221213].{displaystyle A=left[{begin{array}{rrr}0&1&!!!-2\\0&1&0\\1&!!!-1&3end{array}}right].}Die Wurzeln des charakteristischen Polynoms P(\u03bb)=det(\u03bbich\u2212EIN){displaystyle p(lambda)=det(lambda IA)} sind die Eigenwerte \u03bb1=1,\u03bb2=1,\u03bb3=2{displaystyle lambda_{1}=1,lambda_{2}=1,lambda_{3}=2}. L\u00f6sung des linearen Systems (ich\u2212EIN)v=0{displaystyle left(IAright)mathbf {v} =mathbf {0} } gibt die Eigenvektoren v1=(1,1,0){displaystyle mathbf {v} _{1}=(1,1,0)} und v2=(0,2,1){displaystyle mathbf {v} _{2}=(0,2,1)}, w\u00e4hrend (2ich\u2212EIN)v=0{displaystyle left(2I-Aright)mathbf {v} =mathbf {0} } gibt v3=(1,0,\u22121){displaystyle mathbf {v} _{3}=(1,0,-1)}; das ist, EINvich=\u03bbichvich{displaystyle Amathbf{v}_{i}=lambda_{i}mathbf{v}_{i}} zum ich=1,2,3{displaystyle i=1,2,3}. Diese Vektoren bilden eine Basis von V=R3{displaystyle V=mathbb{R} ^{3}}, so k\u00f6nnen wir sie als Spaltenvektoren einer Basis\u00e4nderungsmatrix zusammenstellen P{displaystyle P} bekommen:P\u22121EINP=[10112001\u22121]\u22121[01\u221220101\u221213][10112001\u22121]=[100010002]=D.{displaystyle P^{-1}AP=left[{begin{array}{rrr}1&0&1\\1&2&0\\0&1&!!!!-1end{array}}right]^{-1}links[{begin{array}{rrr}0&1&!!!-2\\0&1&0\\1&!!!-1&3end{array}}right]links[{begin{array}{rrr}1&,0&1\\1&2&0\\0&1&!!!!-1end{array}}right]={begin{bmatrix}1&0&0\\0&1&0\\0&0&2end{bmatrix}}=D.}Wir k\u00f6nnen diese Gleichung in Form von Transformationen sehen: P{displaystyle P} nimmt die Standardbasis zur Eigenbasis, Peich=vich{displaystyle Pmathbf{e}_{i}=mathbf{v}_{i}}, also haben wir:P\u22121EINPeich=P\u22121EINvich=P\u22121(\u03bbichvich)=\u03bbicheich,{displaystyle P^{-1}APmathbf{e}_{i}=P^{-1}Amathbf{v}_{i}=P^{-1}(lambda_{i} mathbf{v}_{i})=lambda_{i}mathbf{e}_{i},}so dass P\u22121EINP{displaystyle P^{-1}AP} hat die Standardbasis als Eigenvektoren, die die definierende Eigenschaft von . ist D{displaystyle D}. Beachten Sie, dass es keine bevorzugte Reihenfolge der Eigenvektoren in gibt P{displaystyle P}; \u00c4ndern der Reihenfolge der Eigenvektoren in P{displaystyle P} \u00e4ndert einfach die Reihenfolge der Eigenwerte in der diagonalisierten Form von EIN{displaystyle A}.[2]Anwendung auf Matrixfunktionen[edit]Diagonalisierung kann verwendet werden, um die Potenzen einer Matrix effizient zu berechnen EIN=PDP\u22121{displaystyle A=PDP^{-1}}:EINk=(PDP\u22121)k=(PDP\u22121)(PDP\u22121)\u22ef(PDP\u22121)=PD(P\u22121P)D(P\u22121P)\u22ef(P\u22121P)DP\u22121=PDkP\u22121,{displaystyle {begin{ausgerichtet}A^{k}&=left(PDP^{-1}right)^{k}=left(PDP^{-1}right)left(PDP^ {-1}right)cdots left(PDP^{-1}right)\\&=PDleft(P^{-1}Pright)Dleft(P^{-1}P right)cdots left(P^{-1}Pright)DP^{-1}=PD^{k}P^{-1},end{aligned}}}und letzteres ist leicht zu berechnen, da es sich nur um die Potenzen einer Diagonalmatrix handelt. Zum Beispiel f\u00fcr die Matrix EIN{displaystyle A} mit Eigenwerten \u03bb=1,1,2{displaystyle lambda=1,1,2} Im obigen Beispiel berechnen wir:EINk=PDkP\u22121=[10112001\u22121][1k0001k0002k][10112001\u22121]\u22121=[2\u22122k\u22121+2k2\u22122k+1010\u22121+2k1\u22122k\u22121+2k+1].{displaystyle {begin{ausgerichtet}A^{k}=PD^{k}P^{-1}&=left[{begin{array}{rrr}1&,0&1\\1&2&0\\0&1&!!!!-1end{array}}right]{begin{bmatrix}1^{k}&0&0\\0&1^{k}&0\\0&0&2^{k}end{bmatrix}}left[{begin{array}{rrr}1&,0&1\\1&2&0\\0&1&!!!!-1end{array}}right]^{-1}\\[1em]&={begin{bmatrix}2-2^{k}&-1+2^{k}&2-2^{k+1}\\0&1&0\\-1+2^{k}&1-2^ {k}&-1+2^{k+1}end{bmatrix}}.end{ausgerichtet}}}Dieser Ansatz kann auf Matrixexponential- und andere Matrixfunktionen verallgemeinert werden, die als Potenzreihen definiert werden k\u00f6nnen. Zum Beispiel definieren exp\u2061(EIN)=ich+EIN+12!EIN2+13!EIN3+\u22ef{textstyle exp(A)=I+A+{frac {1}{2!}}A^{2}+{frac {1}{3!}}A^{3}+cdots}, wir haben:exp\u2061(EIN)=Pexp\u2061(D)P\u22121=[10112001\u22121][e1000e1000e2][10112001\u22121]\u22121=[2e\u2212e2\u2212e+e22e\u22122e20e0\u2212e+e2e\u2212e2\u2212e+2e2].{displaystyle {begin{ausgerichtet}exp(A)=Pexp(D)P^{-1}&=left[{begin{array}{rrr}1&,0&1\\1&2&0\\0&1&!!!!-1end{array}}right]{begin{bmatrix}e^{1}&0&0\\0&e^{1}&0\\0&0&e^{2}end{bmatrix}}left[{begin{array}{rrr}1&,0&1\\1&2&0\\0&1&!!!!-1end{array}}right]^{-1}\\[1em]&={begin{bmatrix}2e-e^{2}&-e+e^{2}&2e-2e^{2}\\0&e&0\\-e+e^{2}&e-e^{2 }&-e+2e^{2}end{bmatrix}}.end{ausgerichtet}}}Dies ist besonders n\u00fctzlich, um Ausdr\u00fccke in geschlossener Form f\u00fcr Terme linearer rekursiver Folgen wie die Fibonacci-Zahlen zu finden.Besondere Anwendung[edit]Betrachten Sie beispielsweise die folgende Matrix:m=[ab\u2212a0b].{displaystyle M={begin{bmatrix}a&b-a\\0&bend{bmatrix}}.}Berechnung der verschiedenen Potenzen von m{displaystyle M} zeigt ein \u00fcberraschendes Muster:m2=[a2b2\u2212a20b2],m3=[a3b3\u2212a30b3],m4=[a4b4\u2212a40b4],\u2026{displaystyle M^{2}={begin{bmatrix}a^{2}&b^{2}-a^{2}\\0&b^{2}end{bmatrix}},quad M^{ 3}={begin{bmatrix}a^{3}&b^{3}-a^{3}\\0&b^{3}end{bmatrix}},quad M^{4}={begin {bmatrix}a^{4}&b^{4}-a^{4}\\0&b^{4}end{bmatrix}},quadldots}Das obige Ph\u00e4nomen l\u00e4sst sich durch Diagonalisierung erkl\u00e4ren m{displaystyle M}. Um dies zu erreichen, brauchen wir eine Basis von R2{displaystyle mathbb{R} ^{2}} bestehend aus Eigenvektoren von m{displaystyle M}. Eine solche Eigenvektorbasis ist gegeben durchdu=[10]=e1,v=[11]=e1+e2,{displaystyle mathbf {u} ={begin{bmatrix}1\\0end{bmatrix}}=mathbf {e} _{1},quad mathbf {v} ={begin{bmatrix} 1\\1end{bmatrix}}=mathbf{e}_{1}+mathbf{e}_{2},}wo eich bezeichnet die Standardbasis von Rn. Der umgekehrte Basiswechsel ist gegeben durche1=du,e2=v\u2212du.{displaystyle mathbf {e} _{1}=mathbf {u} ,qquad mathbf {e} _{2}=mathbf {v} -mathbf {u} .}Einfache Berechnungen zeigen, dassmdu=eindu,mv=Bv.{displaystyle Mmathbf {u} =amathbf {u} ,qquad Mmathbf {v} =bmathbf {v} .}Daher, ein und B sind die Eigenwerte zu du und v, bzw. Nach Linearit\u00e4t der Matrixmultiplikation haben wir, dassmndu=einndu,mnv=Bnv.{displaystyle M^{n}mathbf {u} =a^{n}mathbf {u} ,qquad M^{n}mathbf {v} =b^{n}mathbf {v} .}Zur\u00fcck zur Standardbasis haben wirmne1=mndu=einne1,mne2=mn(v\u2212du)=Bnv\u2212einndu=(Bn\u2212einn)e1+Bne2.{displaystyle {begin{ausgerichtet}M^{n}mathbf {e} _{1}&=M^{n}mathbf {u} =a^{n}mathbf {e} _{1} ,\\M^{n}mathbf{e}_{2}&=M^{n}left(mathbf{v} -mathbf{u}right)=b^{n}mathbf{ v} -a^{n}mathbf {u} =left(b^{n}-a^{n}right)mathbf {e} _{1}+b^{n}mathbf {e } _{2}.end{ausgerichtet}}}Die vorhergehenden Beziehungen, ausgedr\u00fcckt in Matrixform, sindmn=[anbn\u2212an0bn],{displaystyle M^{n}={begin{bmatrix}a^{n}&b^{n}-a^{n}\\0&b^{n}end{bmatrix}},}wodurch das obige Ph\u00e4nomen erkl\u00e4rt wird.Quantenmechanische Anwendung[edit]In quantenmechanischen und quantenchemischen Berechnungen ist die Matrixdiagonalisierung eines der am h\u00e4ufigsten angewendeten numerischen Verfahren. Der Hauptgrund ist, dass die zeitunabh\u00e4ngige Schr\u00f6dinger-Gleichung eine Eigenwertgleichung ist, wenn auch in den meisten physikalischen Situationen auf einem unendlich dimensionalen Raum (einem Hilbert-Raum).Eine sehr verbreitete N\u00e4herung besteht darin, den Hilbert-Raum auf endliche Dimensionen zu k\u00fcrzen, wonach die Schr\u00f6dinger-Gleichung als Eigenwertproblem einer reellen symmetrischen oder komplexen Hermiteschen Matrix formuliert werden kann. Formal basiert diese Approximation auf dem Variationsprinzip, das f\u00fcr nach unten beschr\u00e4nkte Hamiltonoperatoren gilt.Die St\u00f6rungstheorie erster Ordnung f\u00fchrt auch zu einem Matrixeigenwertproblem f\u00fcr entartete Zust\u00e4nde.Siehe auch[edit]Verweise[edit] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki25\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki25\/2021\/10\/28\/diagonale-matrix-wikipedia\/#breadcrumbitem","name":"Diagonale Matrix \u2013 Wikipedia"}}]}]