[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki20\/2020\/12\/31\/projektion-lineare-algebra-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki20\/2020\/12\/31\/projektion-lineare-algebra-wikipedia\/","headline":"Projektion (lineare Algebra) – Wikipedia","name":"Projektion (lineare Algebra) – Wikipedia","description":"“Orthogonale Projektion” leitet hier weiter. Informationen zum technischen Zeichnungskonzept finden Sie unter Orthographische Projektion. Eine konkrete Diskussion orthogonaler Projektionen in","datePublished":"2020-12-31","dateModified":"2020-12-31","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki20\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki20\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/e\/eb\/Orthogonal_projection.svg\/252px-Orthogonal_projection.svg.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/e\/eb\/Orthogonal_projection.svg\/252px-Orthogonal_projection.svg.png","height":"252","width":"252"},"url":"https:\/\/wiki.edu.vn\/wiki20\/2020\/12\/31\/projektion-lineare-algebra-wikipedia\/","wordCount":35076,"articleBody":"“Orthogonale Projektion” leitet hier weiter. Informationen zum technischen Zeichnungskonzept finden Sie unter Orthographische Projektion. Eine konkrete Diskussion orthogonaler Projektionen in endlichdimensionalen linearen R\u00e4umen finden Sie unter Vektorprojektion. Die Transformation P. ist die orthogonale Projektion auf die Linie m. In der linearen Algebra und Funktionsanalyse a Projektion ist eine lineare Transformation P.{ displaystyle P} von einem Vektorraum zu sich selbst, so dass P.2=P.{ displaystyle P ^ {2} = P}. Das hei\u00dft, wann immer P.{ displaystyle P} Wird zweimal auf einen Wert angewendet, ergibt sich das gleiche Ergebnis, als w\u00fcrde es einmal angewendet (idempotent). Es l\u00e4sst sein Bild unver\u00e4ndert.[1] Obwohl abstrakt, ist diese Definition von “Projektion” formalisiert und verallgemeinert die Idee der grafischen Projektion. Man kann auch die Auswirkung einer Projektion auf ein geometrisches Objekt betrachten, indem man die Auswirkung der Projektion auf Punkte im Objekt untersucht.Table of ContentsDefinitionen[edit]Projektionsmatrix[edit]Beispiele[edit]Orthogonale Projektion[edit]Schr\u00e4gprojektion[edit]Eigenschaften und Klassifizierung[edit]Idempotenz[edit]Komplementarit\u00e4t von Reichweite und Kernel[edit]Spektrum[edit]Produkt von Projektionen[edit]Orthogonale Projektionen[edit]Eigenschaften und Sonderf\u00e4lle[edit]Formeln[edit]Schr\u00e4ge Projektionen[edit]Projektion mit einem inneren Produkt finden[edit]Kanonische Formen[edit]Projektionen auf normierten Vektorr\u00e4umen[edit]Anwendungen und weitere \u00dcberlegungen[edit]Verallgemeinerungen[edit]Siehe auch[edit]Verweise[edit]Externe Links[edit]Definitionen[edit]EIN Projektion auf einem Vektorraum V.{ displaystyle V} ist ein linearer Operator P.::V.\u2192V.{ displaystyle P: V bis V} so dass P.2=P.{ displaystyle P ^ {2} = P}.Wann V.{ displaystyle V} hat ein inneres Produkt und ist vollst\u00e4ndig (dh wann V.{ displaystyle V} ist ein Hilbert-Raum) kann das Konzept der Orthogonalit\u00e4t verwendet werden. Eine Projektion P.{ displaystyle P} auf einem Hilbert-Raum V.{ displaystyle V} hei\u00dft ein orthogonale Projektion wenn es befriedigt \u27e8P.x,y\u27e9=\u27e8x,P.y\u27e9{ displaystyle langle Px, y rangle = langle x, Py rangle} f\u00fcr alle x,y\u2208V.{ displaystyle x, y in V}. Eine Projektion auf einen Hilbert-Raum, der nicht orthogonal ist, wird als bezeichnet Schr\u00e4gprojektion.Projektionsmatrix[edit]Die Eigenwerte einer Projektionsmatrix m\u00fcssen 0 oder 1 sein.Beispiele[edit]Orthogonale Projektion[edit]Zum Beispiel die Funktion, die den Punkt abbildet (x,y,z){ displaystyle (x, y, z)} im dreidimensionalen Raum R.3{ displaystyle mathbb {R} ^ {3}} auf den Punkt (x,y,0){ displaystyle (x, y, 0)} ist eine orthogonale Projektion auf die x– –y Flugzeug. Diese Funktion wird durch die Matrix dargestelltP.=[100010000].{ displaystyle P = { begin {bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 end {bmatrix}}.}Die Wirkung dieser Matrix auf einen beliebigen Vektor istP.(xyz)=(xy0).{ displaystyle P { begin {pmatrix} x \\ y \\ z end {pmatrix}} = { begin {pmatrix} x \\ y \\ 0 end {pmatrix}}.}Um das zu sehen P.{ displaystyle P} ist in der Tat eine Projektion, dh P.=P.2{ displaystyle P = P ^ {2}}berechnen wirP.2(xyz)=P.(xy0)=(xy0)=P.(xyz){ displaystyle P ^ {2} { begin {pmatrix} x \\ y \\ z end {pmatrix}} = P { begin {pmatrix} x \\ y \\ 0 end {pmatrix}} = { begin {pmatrix} x \\ y \\ 0 end {pmatrix}} = P { begin {pmatrix} x \\ y \\ z end {pmatrix}}}.Das beobachten P.T.=P.{ displaystyle P ^ { mathrm {T}} = P} zeigt, dass die Projektion eine orthogonale Projektion ist.Schr\u00e4gprojektion[edit]Ein einfaches Beispiel f\u00fcr eine nicht orthogonale (schr\u00e4ge) Projektion (Definition siehe unten) istP.=[00\u03b11].{ displaystyle P = { begin {bmatrix} 0 & 0 \\ alpha & 1 end {bmatrix}}.}Durch Matrixmultiplikation sieht man dasP.2=[00\u03b11][00\u03b11]=[00\u03b11]=P..{ displaystyle P ^ {2} = { begin {bmatrix} 0 & 0 \\ alpha & 1 end {bmatrix}} { begin {bmatrix} 0 & 0 \\ alpha & 1 end {bmatrix}} = { begin { bmatrix} 0 & 0 \\ alpha & 1 end {bmatrix}} = P.}das zu beweisen P.{ displaystyle P} ist in der Tat eine Projektion.Die Projektion P.{ displaystyle P} ist genau dann orthogonal, wenn \u03b1=0{ displaystyle alpha = 0} denn nur dann P.T.=P.{ displaystyle P ^ { mathrm {T}} = P}.Eigenschaften und Klassifizierung[edit] Die Transformation T. ist die Projektion entlang k auf zu m. Die Reichweite von T. ist m und der Nullraum ist k.Idempotenz[edit]Per Definition eine Projektion P.{ displaystyle P} ist idempotent (dh P.2=P.{ displaystyle P ^ {2} = P}).Komplementarit\u00e4t von Reichweite und Kernel[edit]Lassen W.{ displaystyle W} sei ein endlicher dimensionaler Vektorraum und P.{ displaystyle P} eine Projektion auf sein W.{ displaystyle W}. Angenommen, die Unterr\u00e4ume U.{ displaystyle U} und V.{ displaystyle V} sind die Reichweite und der Kernel von P.{ displaystyle P} beziehungsweise. Dann P.{ displaystyle P} hat folgende Eigenschaften:P.{ displaystyle P} ist der Identit\u00e4tsoperator ich{ displaystyle I} auf U.{ displaystyle U}\u2200x\u2208U.::P.x=x{ displaystyle forall x in U: Px = x}.Wir haben eine direkte Summe W.=U.\u2295V.{ displaystyle W = U oplus V}. Jeder Vektor x\u2208W.{ displaystyle x in W} kann eindeutig als zerlegt werden x=u+v{ displaystyle x = u + v} mit u=P.x{ displaystyle u = Px} und v=x– –P.x=(ich– –P.)x{ displaystyle v = x-Px = (IP) x}, und wo u\u2208U.,v\u2208V.{ displaystyle u in U, v in V}.Der Bereich und der Kern einer Projektion sind komplement\u00e4r, ebenso wie P.{ displaystyle P} und Q.=ich– –P.{ displaystyle Q = IP}. Der Betreiber Q.{ displaystyle Q} ist auch eine Projektion als Bereich und Kernel von P.{ displaystyle P} werde der Kernel und die Reichweite von Q.{ displaystyle Q} und umgekehrt. Wir sagen P.{ displaystyle P} ist eine Projektion entlang V.{ displaystyle V} auf zu U.{ displaystyle U} (Kernel \/ Bereich) und Q.{ displaystyle Q} ist eine Projektion entlang U.{ displaystyle U} auf zu V.{ displaystyle V}.Spektrum[edit]In unendlich dimensionalen Vektorr\u00e4umen ist das Spektrum einer Projektion enthalten {0,1}}{ displaystyle {0,1 }} wie(\u03bbich– –P.)– –1=1\u03bbich+1\u03bb(\u03bb– –1)P..{ displaystyle ( lambda IP) ^ {- 1} = { frac {1} { lambda}} I + { frac {1} { lambda ( lambda -1)}} P.}Nur 0 oder 1 kann ein Eigenwert einer Projektion sein. Dies impliziert eine orthogonale Projektion P.{ displaystyle P} ist immer eine positive semidefinitive Matrix. Im Allgemeinen sind die entsprechenden Eigenr\u00e4ume der Kernel und der Bereich der Projektion. Die Zerlegung eines Vektorraums in direkte Summen ist nicht eindeutig. Daher ein Unterraum gegeben V.{ displaystyle V}kann es viele Projektionen geben, deren Bereich (oder Kernel) ist V.{ displaystyle V}.Wenn eine Projektion nicht trivial ist, hat sie ein minimales Polynom x2– –x=x(x– –1){ displaystyle x ^ {2} -x = x (x-1)}, was zu unterschiedlichen Wurzeln f\u00fchrt, und somit P.{ displaystyle P} ist diagonalisierbar.Produkt von Projektionen[edit]Das Produkt von Projektionen ist im Allgemeinen keine Projektion, auch wenn sie orthogonal sind. Wenn zwei Projektionen pendeln, ist ihr Produkt eine Projektion, aber das Gegenteil ist falsch: Das Produkt zweier nicht pendelnder Projektionen kann eine Projektion sein.Wenn zwei orthogonale Projektionen pendeln, ist ihr Produkt eine orthogonale Projektion. Wenn das Produkt zweier orthogonaler Projektionen eine orthogonale Projektion ist, pendeln die beiden orthogonalen Projektionen (allgemeiner: zwei selbstadjunkte Endomorphismen pendeln genau dann, wenn ihr Produkt selbstadjunkt ist).Orthogonale Projektionen[edit]Wenn der Vektorraum W.{ displaystyle W} hat ein inneres Produkt und ist vollst\u00e4ndig (ist ein Hilbert-Raum), das Konzept der Orthogonalit\u00e4t kann verwendet werden. Ein orthogonale Projektion ist eine Projektion, f\u00fcr die der Bereich U.{ displaystyle U} und der Nullraum V.{ displaystyle V} sind orthogonale Teilr\u00e4ume. Also f\u00fcr jeden x{ displaystyle x} und y{ displaystyle y} im W.{ displaystyle W}, \u27e8P.x,(y– –P.y)\u27e9=\u27e8(x– –P.x),P.y\u27e9=0{ displaystyle langle Px, (y-Py) rangle = langle (x-Px), Py rangle = 0}. Gleichwertig:\u27e8x,P.y\u27e9=\u27e8P.x,P.y\u27e9=\u27e8P.x,y\u27e9{ displaystyle langle x, Py rangle = langle Px, Py rangle = langle Px, y rangle}.Eine Projektion ist genau dann orthogonal, wenn sie selbstadjunkt ist. Verwendung der selbstadjunkten und idempotenten Eigenschaften von P.{ displaystyle P}f\u00fcr jeden x{ displaystyle x} und y{ displaystyle y} im W.{ displaystyle W} wir haben P.x\u2208U.{ displaystyle Px in U}, y– –P.y\u2208V.{ displaystyle y-Py in V}, und\u27e8P.x,y– –P.y\u27e9=\u27e8P.2x,y– –P.y\u27e9=\u27e8P.x,P.(ich– –P.)y\u27e9=\u27e8P.x,(P.– –P.2)y\u27e9=0{ displaystyle langle Px, y-Py rangle = langle P ^ {2} x, y-Py rangle = langle Px, P (IP) y rangle = langle Px, (PP ^ {2} ) y rangle = 0 ,}wo \u27e8\u22c5,\u22c5\u27e9{ displaystyle langle cdot, cdot rangle} ist das innere Produkt, das mit verbunden ist W.{ displaystyle W}. Deshalb, P.x{ displaystyle Px} und y– –P.y{ displaystyle y-Py} sind orthogonale Projektionen.[3]Die andere Richtung, n\u00e4mlich wenn P.{ displaystyle P} ist orthogonal, dann ist es selbstadjunkt, folgt aus\u27e8x,P.y\u27e9=\u27e8P.x,y\u27e9=\u27e8x,P.\u2217y\u27e9{ displaystyle langle x, Py rangle = langle Px, y rangle = langle x, P ^ {*} y rangle}f\u00fcr jeden x{ displaystyle x} und y{ displaystyle y} im W.{ displaystyle W};; so P.=P.\u2217{ displaystyle P = P ^ {*}}.ExistenznachweisLassen H.{ displaystyle H} sei ein vollst\u00e4ndiger metrischer Raum mit einem inneren Produkt und lass U.{ displaystyle U} sei ein geschlossener linearer Unterraum von H.{ displaystyle H} (und damit auch vollst\u00e4ndig).F\u00fcr jeden x{ displaystyle x} der folgende Satz nicht negativer Normwerte {\u2016x– –u\u2016|u\u2208U.}}{ displaystyle { | xu || u in U }} hat ein Infimum und aufgrund der Vollst\u00e4ndigkeit von U.{ displaystyle U} es ist ein Minimum. Wir definieren P.x{ displaystyle Px} als der Punkt in U.{ displaystyle U} wo dieses Minimum erhalten wird.Offensichtlich P.x{ displaystyle Px} ist in U.{ displaystyle U}. Es bleibt zu zeigen, dass P.x{ displaystyle Px} befriedigt \u27e8x– –P.x,P.x\u27e9=0{ displaystyle langle x-Px, Px rangle = 0} und dass es linear ist.Lassen Sie uns definieren ein=x– –P.x{ displaystyle a = x-Px}. F\u00fcr jede Nicht-Null v{ displaystyle v} im U.{ displaystyle U}gilt Folgendes:\u2016ein– –\u27e8ein,v\u27e9\u2016v\u20162v\u20162=\u2016ein\u20162– –\u27e8ein,v\u27e92\u2016v\u20162{ displaystyle | a – { frac { langle a, v rangle} { | v | ^ {2}}} v | ^ {2} = | a | ^ {2} – { frac {{ langle a, v rangle} ^ {2}} { | v | ^ {2}}}}Durch die Definition w=P.x+\u27e8ein,v\u27e9\u2016v\u20162v{ displaystyle w = Px + { frac { langle a, v rangle} { | v | ^ {2}}} v} wir sehen das \u2016x– –w\u2016P.x\u2016{ displaystyle | xw | < | x-Px |} es sei denn \u27e8ein,v\u27e9{ displaystyle langle a, v rangle} verschwindet. Schon seit P.x{ displaystyle Px} wurde als Minimum der oben genannten Menge gew\u00e4hlt, daraus folgt \u27e8ein,v\u27e9{ displaystyle langle a, v rangle} in der Tat verschwindet. Insbesondere (z y=P.x{ displaystyle y = Px}): \u27e8x– –P.x,P.x\u27e9=0{ displaystyle langle x-Px, Px rangle = 0}.Linearit\u00e4t folgt aus dem Verschwinden von \u27e8x– –P.x,v\u27e9{ displaystyle langle x-Px, v rangle} f\u00fcr jeden v\u2208U.{ displaystyle v in U}::\u27e8(x+y)– –P.(x+y),v\u27e9=0{ displaystyle langle left (x + y right) -P left (x + y right), v rangle = 0}\u27e8(x– –P.x)+(y– –P.y),v\u27e9=0{ displaystyle langle left (x-Px right) + left (y-Py right), v rangle = 0}Indem wir den Unterschied zwischen den Gleichungen nehmen, die wir haben\u27e8P.x+P.y– –P.(x+y),v\u27e9=0{ displaystyle langle Px + Py-P left (x + y right), v rangle = 0}Aber da k\u00f6nnen wir w\u00e4hlen v=P.x+P.y– –P.(x+y){ displaystyle v = Px + Py-P (x + y)} (wie es selbst ist in U.{ displaystyle U}) es folgt dem P.x+P.y=P.(x+y){ displaystyle Px + Py = P (x + y)}. Ebenso haben wir \u03bbP.x=P.(\u03bbx){ displaystyle lambda Px = P ( lambda x)} f\u00fcr jeden Skalar \u03bb{ displaystyle lambda}.Eigenschaften und Sonderf\u00e4lle[edit]Eine orthogonale Projektion ist ein begrenzter Operator. Das liegt daran f\u00fcr jeden v{ displaystyle v} im Vektorraum haben wir durch Cauchy-Schwarz-Ungleichung:\u2016P.v\u20162=\u27e8P.v,P.v\u27e9=\u27e8P.v,v\u27e9\u2264\u2016P.v\u2016\u22c5\u2016v\u2016{ displaystyle | Pv | ^ {2} = langle Pv, Pv rangle = langle Pv, v rangle leq | Pv | cdot | v |}So \u2016P.v\u2016\u2264\u2016v\u2016{ displaystyle | Pv | leq | v |}.F\u00fcr endlich dimensionale komplexe oder reale Vektorr\u00e4ume kann das Standard-Innenprodukt ersetzt werden \u27e8\u22c5,\u22c5\u27e9{ displaystyle langle cdot, cdot rangle}.Formeln[edit]Ein einfacher Fall tritt auf, wenn die orthogonale Projektion auf eine Linie erfolgt. Wenn u{ displaystyle u} ist ein Einheitsvektor auf der Linie, dann ist die Projektion durch das \u00e4u\u00dfere Produkt gegebenP.u=uuT..{ displaystyle P_ {u} = uu ^ { mathrm {T}}.}(Wenn u{ displaystyle u} Ist der Wert komplex, wird die Transponierte in der obigen Gleichung durch eine hermitische Transponierte ersetzt. Dieser Operator geht u invariant, und es vernichtet alle Vektoren orthogonal zu u{ displaystyle u}Dies beweist, dass es sich tats\u00e4chlich um die orthogonale Projektion auf die enthaltende Linie handelt u.[4] Eine einfache M\u00f6glichkeit, dies zu sehen, besteht darin, einen beliebigen Vektor zu betrachten x{ displaystyle x} als die Summe einer Komponente auf der Linie (dh des projizierten Vektors, den wir suchen) und einer anderen senkrecht dazu; x=x\u2225+x\u22a5{ displaystyle x = x _ { parallel} + x _ { perp}}. Mit Projektion bekommen wirP.ux=uuT.x\u2225+uuT.x\u22a5=u(sichGn(uT.x\u2225)\u2016x\u2225\u2016)+u\u22c50=x\u2225{ displaystyle P_ {u} x = uu ^ { mathrm {T}} x _ { parallel} + uu ^ { mathrm {T}} x _ { perp} = u left ( mathrm {sign} (u ^ { mathrm {T}} x _ { parallel}) | x _ { parallel} | right) + u cdot 0 = x _ { parallel}}durch die Eigenschaften des Punktprodukts von parallelen und senkrechten Vektoren.Diese Formel kann auf orthogonale Projektionen auf einem Unterraum beliebiger Dimension verallgemeinert werden. Lassen u1,\u2026,uk{ displaystyle u_ {1}, ldots, u_ {k}} eine orthonormale Basis des Unterraums sein U.{ displaystyle U}, und lass EIN{ displaystyle A} bezeichnen die n\u00d7k{ displaystyle n times k} Matrix, deren Spalten sind u1,\u2026,uk{ displaystyle u_ {1}, ldots, u_ {k}}dh EIN=[u1\u2026uk]{ displaystyle A = { begin {bmatrix} u_ {1} & ldots & u_ {k} end {bmatrix}}}. Dann ist die Projektion gegeben durch:[5]P.EIN=EINEINT.{ displaystyle P_ {A} = AA ^ { mathrm {T}}}welches umgeschrieben werden kann alsP.EIN=\u2211ich\u27e8uich,\u22c5\u27e9uich.{ displaystyle P_ {A} = sum _ {i} langle u_ {i}, cdot rangle u_ {i}.}Die Matrix EINT.{ displaystyle A ^ { mathrm {T}}} ist die partielle Isometrie, die auf dem orthogonalen Komplement von verschwindet U.{ displaystyle U} und EIN{ displaystyle A} ist die Isometrie, die eingebettet wird U.{ displaystyle U} in den zugrunde liegenden Vektorraum. Die Reichweite von P.EIN{ displaystyle P_ {A}} ist daher die letzter Raum von EIN{ displaystyle A}. Es ist auch klar, dass EINEINT.{ displaystyle AA ^ { mathrm {T}}} ist der Identit\u00e4tsoperator eingeschaltet U.{ displaystyle U}.Der Orthonormalit\u00e4tszustand kann auch fallengelassen werden. Wenn u1,\u2026,uk{ displaystyle u_ {1}, ldots, u_ {k}} ist eine (nicht unbedingt orthonormale) Basis, und EIN{ displaystyle A} ist die Matrix mit diesen Vektoren als Spalten, dann ist die Projektion:[6][7]P.EIN=EIN(EINT.EIN)– –1EINT..{ displaystyle P_ {A} = A (A ^ { mathrm {T}} A) ^ {- 1} A ^ { mathrm {T}}.}Die Matrix EIN{ displaystyle A} bettet noch ein U.{ displaystyle U} in den zugrunde liegenden Vektorraum, ist aber im Allgemeinen keine Isometrie mehr. Die Matrix (EINT.EIN)– –1{ displaystyle (A ^ { mathrm {T}} A) ^ {- 1}} ist ein “Normalisierungsfaktor” das stellt die Norm wieder her. Zum Beispiel der Operator Rang 1 uuT.{ displaystyle uu ^ { mathrm {T}}} ist keine Projektion wenn \u2016u\u2016\u22601.{ displaystyle | u | neq 1.} Nach dem Teilen durch uT.u=\u2016u\u20162,{ displaystyle u ^ { mathrm {T}} u = | u | ^ {2},} Wir erhalten die Projektion u(uT.u)– –1uT.{ displaystyle u (u ^ { mathrm {T}} u) ^ {- 1} u ^ { mathrm {T}}} auf den von \u00fcberspannten Unterraum u{ displaystyle u}.Im allgemeinen Fall k\u00f6nnen wir eine beliebige positive definitive Matrix haben D.{ displaystyle D} ein inneres Produkt definieren \u27e8x,y\u27e9D.=y\u2020D.x{ displaystyle langle x, y rangle _ {D} = y ^ { dagger} Dx}und die Projektion P.EIN{ displaystyle P_ {A}} ist gegeben durch P.EINx=einrGmichny\u2208reinnGe(EIN)\u2016x– –y\u2016D.2{ displaystyle P_ {A} x = mathrm {argmin} _ {y in mathrm {range} (A)} | xy | _ {D} ^ {2}}. DannP.EIN=EIN(EINT.D.EIN)– –1EINT.D..{ displaystyle P_ {A} = A (A ^ { mathrm {T}} DA) ^ {- 1} A ^ { mathrm {T}} D.}Wenn der Bereichsraum der Projektion von einem Frame generiert wird (dh die Anzahl der Generatoren ist gr\u00f6\u00dfer als seine Dimension), hat die Formel f\u00fcr die Projektion die Form:P.EIN=EINEIN+{ displaystyle P_ {A} = AA ^ {+}}. Hier EIN+{ displaystyle A ^ {+}} steht f\u00fcr die Moore-Penrose-Pseudoinverse. Dies ist nur eine von vielen M\u00f6glichkeiten, den Projektionsoperator zu erstellen.Wenn [AB]{ displaystyle { begin {bmatrix} A & B end {bmatrix}}} ist eine nicht singul\u00e4re Matrix und EINT.B.=0{ displaystyle A ^ { mathrm {T}} B = 0} (dh B.{ displaystyle B} ist die Nullraummatrix von EIN{ displaystyle A}),[8] Folgendes gilt:ich=[AB][AB]– –1[ATBT]– –1[ATBT]=[AB]([ATBT][AB])– –1[ATBT]=[AB][ATAOOBTB]– –1[ATBT]=EIN(EINT.EIN)– –1EINT.+B.(B.T.B.)– –1B.T.{ displaystyle { begin {align} I & = { begin {bmatrix} A & B end {bmatrix}} { begin {bmatrix} A & B end {bmatrix}} ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \\ B ^ { mathrm {T}} end {bmatrix}} ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \\ B ^ { mathrm {T}} end {bmatrix}} \\ & = { begin {bmatrix} A & B end {bmatrix}} left ({ begin {bmatrix} A ^ { mathrm {T}} \\ B ^ { mathrm {T}} end {bmatrix}} { begin {bmatrix} A & B end {bmatrix}} right) ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} B ^ { mathrm {T}} end {bmatrix}} \\ & = { begin {bmatrix} A & B end {bmatrix}} { begin {bmatrix} A ^ { mathrm {T}} A & O O & B ^ { mathrm {T}} B end {bmatrix}} ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \\ B ^ { mathrm {T}} end {bmatrix}} \\[4pt]& = A (A ^ { mathrm {T}} A) ^ {- 1} A ^ { mathrm {T}} + B (B ^ { mathrm {T}} B) ^ {- 1} B ^ { mathrm {T}} end {align}}}Wenn der orthogonale Zustand auf verbessert wird EINT.W.B.=EINT.W.T.B.=0{ displaystyle A ^ { mathrm {T}} WB = A ^ { mathrm {T}} W ^ { mathrm {T}} B = 0} mit W.{ displaystyle W} Nicht singul\u00e4r gilt Folgendes:ich=[AB][(ATWA)\u22121AT(BTWB)\u22121BT]W..{ displaystyle I = { begin {bmatrix} A & B end {bmatrix}} { begin {bmatrix} (A ^ { mathrm {T}} WA) ^ {- 1} A ^ { mathrm {T}} \\ (B ^ { mathrm {T}} WB) ^ {- 1} B ^ { mathrm {T}} end {bmatrix}} W.}Alle diese Formeln gelten auch f\u00fcr komplexe innere Produktr\u00e4ume, sofern die konjugierte Transponierte anstelle der Transponierten verwendet wird. Weitere Details zu Projektorsummen finden sich in Banerjee und Roy (2014).[9] Siehe auch Banerjee (2004)[10] zur Anwendung von Projektorsummen in der sph\u00e4rischen Grundtrigonometrie.Schr\u00e4ge Projektionen[edit]Der Begriff schr\u00e4ge Projektionen wird manchmal verwendet, um sich auf nicht orthogonale Projektionen zu beziehen. Diese Projektionen werden auch verwendet, um r\u00e4umliche Figuren in zweidimensionalen Zeichnungen darzustellen (siehe Schr\u00e4gprojektion), wenn auch nicht so h\u00e4ufig wie orthogonale Projektionen. W\u00e4hrend die Berechnung des angepassten Werts einer gew\u00f6hnlichen Regression der kleinsten Quadrate eine orthogonale Projektion erfordert, erfordert die Berechnung des angepassten Werts einer Regression instrumenteller Variablen eine schr\u00e4ge Projektion.Projektionen werden durch ihren Nullraum und die Basisvektoren definiert, die zur Charakterisierung ihres Bereichs verwendet werden (der das Komplement des Nullraums darstellt). Wenn diese Basisvektoren orthogonal zum Nullraum sind, ist die Projektion eine orthogonale Projektion. Wenn diese Basisvektoren nicht orthogonal zum Nullraum sind, ist die Projektion eine schr\u00e4ge Projektion. Lassen Sie die Vektoren u1,\u2026,uk{ displaystyle u_ {1}, ldots, u_ {k}} bilden eine Basis f\u00fcr den Bereich der Projektion und setzen diese Vektoren in der n\u00d7k{ displaystyle n times k} Matrix EIN{ displaystyle A}. Der Bereich und der Nullraum sind komplement\u00e4re R\u00e4ume, daher hat der Nullraum eine Dimension n– –k{ displaystyle nk}. Daraus folgt, dass das orthogonale Komplement des Nullraums eine Dimension hat k{ displaystyle k}. Lassen v1,\u2026,vk{ displaystyle v_ {1}, ldots, v_ {k}} bilden eine Basis f\u00fcr das orthogonale Komplement des Nullraums der Projektion und setzen diese Vektoren in der Matrix zusammen B.{ displaystyle B}. Dann wird die Projektion definiert durchP.=EIN(B.T.EIN)– –1B.T..{ displaystyle P = A (B ^ { mathrm {T}} A) ^ {- 1} B ^ { mathrm {T}}.}Dieser Ausdruck verallgemeinert die oben angegebene Formel f\u00fcr orthogonale Projektionen.[11][12]Projektion mit einem inneren Produkt finden[edit]Lassen V.{ displaystyle V} sei ein Vektorraum (in diesem Fall eine Ebene), der von orthogonalen Vektoren \u00fcberspannt wird u1,u2,\u22ef,up{ displaystyle u_ {1}, u_ {2}, cdots, u_ {p}}. Lassen y{ displaystyle y} sei ein Vektor. Man kann eine Projektion von definieren y{ displaystyle y} auf zu V.{ displaystyle V} wieprojV.\u2061y=y\u22c5ujuj\u22c5ujuj{ displaystyle operatorname {proj} _ {V} y = { frac {y cdot u ^ {j}} {u ^ {j} cdot u ^ {j}}} u ^ {j}}bei dem die j{ displaystyle j} impliziert Einstein-Summennotation. Der Vektor y{ displaystyle y} kann als orthogonale Summe geschrieben werden, so dass y=projV.\u2061y+z{ displaystyle y = operatorname {proj} _ {V} y + z}. projV.\u2061y{ displaystyle operatorname {proj} _ {V} y} wird manchmal als bezeichnet y^{ displaystyle { hat {y}}}. In der linearen Algebra gibt es einen Satz, der dies besagt z{ displaystyle z} ist die k\u00fcrzeste Entfernung von y{ displaystyle y} zu V.{ displaystyle V} und wird h\u00e4ufig in Bereichen wie maschinelles Lernen verwendet. y wird auf den Vektorraum V projiziert.Kanonische Formen[edit]Jede Projektion P.=P.2{ displaystyle P = P ^ {2}} auf einem Vektorraum der Dimension d{ displaystyle d} \u00fcber einem Feld befindet sich eine diagonalisierbare Matrix, da sich ihre minimalen Polynome teilen x2– –x{ displaystyle x ^ {2} -x}, die sich in verschiedene lineare Faktoren aufteilt. Es gibt also eine Basis, auf der P.{ displaystyle P} hat die FormP.=ichr\u22950d– –r{ displaystyle P = I_ {r} oplus 0_ {dr}}wo r{ displaystyle r} ist der Rang von P.{ displaystyle P}. Hier ichr{ displaystyle I_ {r}} ist die Identit\u00e4tsmatrix der Gr\u00f6\u00dfe r{ displaystyle r}, und 0d– –r{ displaystyle 0_ {dr}} ist die Nullmatrix der Gr\u00f6\u00dfe d– –r{ displaystyle dr}. Wenn der Vektorraum komplex und mit einem inneren Produkt ausgestattet ist, gibt es eine orthonormal Basis, in der die Matrix von P. ist[13]P.=[1\u03c3100]\u2295\u22ef\u2295[1\u03c3k00]\u2295ichm\u22950s{ displaystyle P = { begin {bmatrix} 1 & sigma _ {1} \\ 0 & 0 end {bmatrix}} oplus cdots oplus { begin {bmatrix} 1 & sigma _ {k} \\ 0 & 0 end {bmatrix}} oplus I_ {m} oplus 0_ {s}} .wo "},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki20\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki20\/2020\/12\/31\/projektion-lineare-algebra-wikipedia\/#breadcrumbitem","name":"Projektion (lineare Algebra) – Wikipedia"}}]}]