Projektion (lineare Algebra) – Wikipedia

Die Transformation P. ist die orthogonale Projektion auf die Linie m.

In der linearen Algebra und Funktionsanalyse a Projektion ist eine lineare Transformation

P.{ displaystyle P}

von einem Vektorraum zu sich selbst, so dass

P.2=P.{ displaystyle P ^ {2} = P}

. Das heißt, wann immer

P.{ displaystyle P}

Wird zweimal auf einen Wert angewendet, ergibt sich das gleiche Ergebnis, als würde es einmal angewendet (idempotent). Es lässt sein Bild unverändert.[1] Obwohl abstrakt, ist diese Definition von “Projektion” formalisiert und verallgemeinert die Idee der grafischen Projektion. Man kann auch die Auswirkung einer Projektion auf ein geometrisches Objekt betrachten, indem man die Auswirkung der Projektion auf Punkte im Objekt untersucht.

Definitionen[edit]

EIN Projektion auf einem Vektorraum

V.{ displaystyle V}

ist ein linearer Operator

P.::V.→V.{ displaystyle P: V bis V}

so dass

P.2=P.{ displaystyle P ^ {2} = P}

.

Wann

V.{ displaystyle V}

hat ein inneres Produkt und ist vollständig (dh wann

V.{ displaystyle V}

ist ein Hilbert-Raum) kann das Konzept der Orthogonalität verwendet werden. Eine Projektion

P.{ displaystyle P}

auf einem Hilbert-Raum

V.{ displaystyle V}

heißt ein orthogonale Projektion wenn es befriedigt

⟨P.x,y⟩=⟨x,P.y⟩{ displaystyle langle Px, y rangle = langle x, Py rangle}

für alle

x,y∈V.{ displaystyle x, y in V}

. Eine Projektion auf einen Hilbert-Raum, der nicht orthogonal ist, wird als bezeichnet Schrägprojektion.

Projektionsmatrix[edit]

Die Eigenwerte einer Projektionsmatrix müssen 0 oder 1 sein.

Beispiele[edit]

Orthogonale Projektion[edit]

Zum Beispiel die Funktion, die den Punkt abbildet

(x,y,z){ displaystyle (x, y, z)}

im dreidimensionalen Raum

R.3{ displaystyle mathbb {R} ^ {3}}

auf den Punkt

(x,y,0){ displaystyle (x, y, 0)}

ist eine orthogonale Projektion auf die x– –y Flugzeug. Diese Funktion wird durch die Matrix dargestellt

P.=[100010000].{ displaystyle P = { begin {bmatrix} 1 & 0 & 0 \ 0 & 1 & 0 \ 0 & 0 & 0 end {bmatrix}}.}

Die Wirkung dieser Matrix auf einen beliebigen Vektor ist

P.(xyz)=(xy0).{ displaystyle P { begin {pmatrix} x \ y \ z end {pmatrix}} = { begin {pmatrix} x \ y \ 0 end {pmatrix}}.}

Um das zu sehen

P.{ displaystyle P}

ist in der Tat eine Projektion, dh

P.=P.2{ displaystyle P = P ^ {2}}

berechnen wir

P.2(xyz)=P.(xy0)=(xy0)=P.(xyz){ displaystyle P ^ {2} { begin {pmatrix} x \ y \ z end {pmatrix}} = P { begin {pmatrix} x \ y \ 0 end {pmatrix}} = { begin {pmatrix} x \ y \ 0 end {pmatrix}} = P { begin {pmatrix} x \ y \ z end {pmatrix}}}

.

Das beobachten

P.T.=P.{ displaystyle P ^ { mathrm {T}} = P}

zeigt, dass die Projektion eine orthogonale Projektion ist.

Schrägprojektion[edit]

Ein einfaches Beispiel für eine nicht orthogonale (schräge) Projektion (Definition siehe unten) ist

P.=[00α1].{ displaystyle P = { begin {bmatrix} 0 & 0 \ alpha & 1 end {bmatrix}}.}

Durch Matrixmultiplikation sieht man das

P.2=[00α1][00α1]=[00α1]=P..{ displaystyle P ^ {2} = { begin {bmatrix} 0 & 0 \ alpha & 1 end {bmatrix}} { begin {bmatrix} 0 & 0 \ alpha & 1 end {bmatrix}} = { begin { bmatrix} 0 & 0 \ alpha & 1 end {bmatrix}} = P.}

das zu beweisen

P.{ displaystyle P}

ist in der Tat eine Projektion.

Die Projektion

P.{ displaystyle P}

ist genau dann orthogonal, wenn

α=0{ displaystyle alpha = 0}

denn nur dann

P.T.=P.{ displaystyle P ^ { mathrm {T}} = P}

.

Eigenschaften und Klassifizierung[edit]

Die Transformation T. ist die Projektion entlang k auf zu m. Die Reichweite von T. ist m und der Nullraum ist k.

Idempotenz[edit]

Per Definition eine Projektion

P.{ displaystyle P}

ist idempotent (dh

P.2=P.{ displaystyle P ^ {2} = P}

).

Komplementarität von Reichweite und Kernel[edit]

Lassen

W.{ displaystyle W}

sei ein endlicher dimensionaler Vektorraum und

P.{ displaystyle P}

eine Projektion auf sein

W.{ displaystyle W}

. Angenommen, die Unterräume

U.{ displaystyle U}

und

V.{ displaystyle V}

sind die Reichweite und der Kernel von

P.{ displaystyle P}

beziehungsweise. Dann

P.{ displaystyle P}

hat folgende Eigenschaften:


  1. P.{ displaystyle P}

    ist der Identitätsoperator ich{ displaystyle I}

    auf U.{ displaystyle U}

    ∀x∈U.::P.x=x{ displaystyle forall x in U: Px = x}

    .
  2. Wir haben eine direkte Summe
    W.=U.⊕V.{ displaystyle W = U oplus V}

    . Jeder Vektor x∈W.{ displaystyle x in W}

    kann eindeutig als zerlegt werden x=u+v{ displaystyle x = u + v}

    mit u=P.x{ displaystyle u = Px}

    und v=x– –P.x=(ich– –P.)x{ displaystyle v = x-Px = (IP) x}

    , und wo u∈U.,v∈V.{ displaystyle u in U, v in V}

    .

Der Bereich und der Kern einer Projektion sind komplementär, ebenso wie

P.{ displaystyle P}

und

Q.=ich– –P.{ displaystyle Q = IP}

. Der Betreiber

Q.{ displaystyle Q}

ist auch eine Projektion als Bereich und Kernel von

P.{ displaystyle P}

werde der Kernel und die Reichweite von

Q.{ displaystyle Q}

und umgekehrt. Wir sagen

P.{ displaystyle P}

ist eine Projektion entlang

V.{ displaystyle V}

auf zu

U.{ displaystyle U}

(Kernel / Bereich) und

Q.{ displaystyle Q}

ist eine Projektion entlang

U.{ displaystyle U}

auf zu

V.{ displaystyle V}

.

Spektrum[edit]

In unendlich dimensionalen Vektorräumen ist das Spektrum einer Projektion enthalten

{0,1}}{ displaystyle {0,1 }}

wie

(λich– –P.)– –1=1λich+1λ(λ– –1)P..{ displaystyle ( lambda IP) ^ {- 1} = { frac {1} { lambda}} I + { frac {1} { lambda ( lambda -1)}} P.}

Nur 0 oder 1 kann ein Eigenwert einer Projektion sein. Dies impliziert eine orthogonale Projektion

P.{ displaystyle P}

ist immer eine positive semidefinitive Matrix. Im Allgemeinen sind die entsprechenden Eigenräume der Kernel und der Bereich der Projektion. Die Zerlegung eines Vektorraums in direkte Summen ist nicht eindeutig. Daher ein Unterraum gegeben

V.{ displaystyle V}

kann es viele Projektionen geben, deren Bereich (oder Kernel) ist

V.{ displaystyle V}

.

Wenn eine Projektion nicht trivial ist, hat sie ein minimales Polynom

x2– –x=x(x– –1){ displaystyle x ^ {2} -x = x (x-1)}

, was zu unterschiedlichen Wurzeln führt, und somit

P.{ displaystyle P}

ist diagonalisierbar.

Produkt von Projektionen[edit]

Das Produkt von Projektionen ist im Allgemeinen keine Projektion, auch wenn sie orthogonal sind. Wenn zwei Projektionen pendeln, ist ihr Produkt eine Projektion, aber das Gegenteil ist falsch: Das Produkt zweier nicht pendelnder Projektionen kann eine Projektion sein.

Wenn zwei orthogonale Projektionen pendeln, ist ihr Produkt eine orthogonale Projektion. Wenn das Produkt zweier orthogonaler Projektionen eine orthogonale Projektion ist, pendeln die beiden orthogonalen Projektionen (allgemeiner: zwei selbstadjunkte Endomorphismen pendeln genau dann, wenn ihr Produkt selbstadjunkt ist).

Orthogonale Projektionen[edit]

Wenn der Vektorraum

W.{ displaystyle W}

hat ein inneres Produkt und ist vollständig (ist ein Hilbert-Raum), das Konzept der Orthogonalität kann verwendet werden. Ein orthogonale Projektion ist eine Projektion, für die der Bereich

U.{ displaystyle U}

und der Nullraum

V.{ displaystyle V}

sind orthogonale Teilräume. Also für jeden

x{ displaystyle x}

und

y{ displaystyle y}

im

W.{ displaystyle W}

,

⟨P.x,(y– –P.y)⟩=⟨(x– –P.x),P.y⟩=0{ displaystyle langle Px, (y-Py) rangle = langle (x-Px), Py rangle = 0}

. Gleichwertig:

⟨x,P.y⟩=⟨P.x,P.y⟩=⟨P.x,y⟩{ displaystyle langle x, Py rangle = langle Px, Py rangle = langle Px, y rangle}

.

Eine Projektion ist genau dann orthogonal, wenn sie selbstadjunkt ist. Verwendung der selbstadjunkten und idempotenten Eigenschaften von

P.{ displaystyle P}

für jeden

x{ displaystyle x}

und

y{ displaystyle y}

im

W.{ displaystyle W}

wir haben

P.x∈U.{ displaystyle Px in U}

,

y– –P.y∈V.{ displaystyle y-Py in V}

, und

⟨P.x,y– –P.y⟩=⟨P.2x,y– –P.y⟩=⟨P.x,P.(ich– –P.)y⟩=⟨P.x,(P.– –P.2)y⟩=0{ displaystyle langle Px, y-Py rangle = langle P ^ {2} x, y-Py rangle = langle Px, P (IP) y rangle = langle Px, (PP ^ {2} ) y rangle = 0 ,}

wo

⟨⋅,⋅⟩{ displaystyle langle cdot, cdot rangle}

ist das innere Produkt, das mit verbunden ist

W.{ displaystyle W}

. Deshalb,

P.x{ displaystyle Px}

und

y– –P.y{ displaystyle y-Py}

sind orthogonale Projektionen.[3]

Die andere Richtung, nämlich wenn

P.{ displaystyle P}

ist orthogonal, dann ist es selbstadjunkt, folgt aus

⟨x,P.y⟩=⟨P.x,y⟩=⟨x,P.∗y⟩{ displaystyle langle x, Py rangle = langle Px, y rangle = langle x, P ^ {*} y rangle}

für jeden

x{ displaystyle x}

und

y{ displaystyle y}

im

W.{ displaystyle W}

;; so

P.=P.∗{ displaystyle P = P ^ {*}}

.

Eigenschaften und Sonderfälle[edit]

Eine orthogonale Projektion ist ein begrenzter Operator. Das liegt daran für jeden

v{ displaystyle v}

im Vektorraum haben wir durch Cauchy-Schwarz-Ungleichung:

‖P.v‖2=⟨P.v,P.v⟩=⟨P.v,v⟩≤‖P.v‖⋅‖v‖{ displaystyle | Pv | ^ {2} = langle Pv, Pv rangle = langle Pv, v rangle leq | Pv | cdot | v |}

So

‖P.v‖≤‖v‖{ displaystyle | Pv | leq | v |}

.

Für endlich dimensionale komplexe oder reale Vektorräume kann das Standard-Innenprodukt ersetzt werden

⟨⋅,⋅⟩{ displaystyle langle cdot, cdot rangle}

.

Formeln[edit]

Ein einfacher Fall tritt auf, wenn die orthogonale Projektion auf eine Linie erfolgt. Wenn

u{ displaystyle u}

ist ein Einheitsvektor auf der Linie, dann ist die Projektion durch das äußere Produkt gegeben

P.u=uuT..{ displaystyle P_ {u} = uu ^ { mathrm {T}}.}

(Wenn

u{ displaystyle u}

Ist der Wert komplex, wird die Transponierte in der obigen Gleichung durch eine hermitische Transponierte ersetzt. Dieser Operator geht u invariant, und es vernichtet alle Vektoren orthogonal zu

u{ displaystyle u}

Dies beweist, dass es sich tatsächlich um die orthogonale Projektion auf die enthaltende Linie handelt u.[4] Eine einfache Möglichkeit, dies zu sehen, besteht darin, einen beliebigen Vektor zu betrachten

x{ displaystyle x}

als die Summe einer Komponente auf der Linie (dh des projizierten Vektors, den wir suchen) und einer anderen senkrecht dazu;

x=x∥+x⊥{ displaystyle x = x _ { parallel} + x _ { perp}}

. Mit Projektion bekommen wir

P.ux=uuT.x∥+uuT.x⊥=u(sichGn(uT.x∥)‖x∥‖)+u⋅0=x∥{ displaystyle P_ {u} x = uu ^ { mathrm {T}} x _ { parallel} + uu ^ { mathrm {T}} x _ { perp} = u left ( mathrm {sign} (u ^ { mathrm {T}} x _ { parallel}) | x _ { parallel} | right) + u cdot 0 = x _ { parallel}}

durch die Eigenschaften des Punktprodukts von parallelen und senkrechten Vektoren.

Diese Formel kann auf orthogonale Projektionen auf einem Unterraum beliebiger Dimension verallgemeinert werden. Lassen

u1,…,uk{ displaystyle u_ {1}, ldots, u_ {k}}

eine orthonormale Basis des Unterraums sein

U.{ displaystyle U}

, und lass

EIN{ displaystyle A}

bezeichnen die

n×k{ displaystyle n times k}

Matrix, deren Spalten sind

u1,…,uk{ displaystyle u_ {1}, ldots, u_ {k}}

dh

EIN=[u1…uk]{ displaystyle A = { begin {bmatrix} u_ {1} & ldots & u_ {k} end {bmatrix}}}

. Dann ist die Projektion gegeben durch:[5]

P.EIN=EINEINT.{ displaystyle P_ {A} = AA ^ { mathrm {T}}}

welches umgeschrieben werden kann als

P.EIN=∑ich⟨uich,⋅⟩uich.{ displaystyle P_ {A} = sum _ {i} langle u_ {i}, cdot rangle u_ {i}.}

Die Matrix

EINT.{ displaystyle A ^ { mathrm {T}}}

ist die partielle Isometrie, die auf dem orthogonalen Komplement von verschwindet

U.{ displaystyle U}

und

EIN{ displaystyle A}

ist die Isometrie, die eingebettet wird

U.{ displaystyle U}

in den zugrunde liegenden Vektorraum. Die Reichweite von

P.EIN{ displaystyle P_ {A}}

ist daher die letzter Raum von

EIN{ displaystyle A}

. Es ist auch klar, dass

EINEINT.{ displaystyle AA ^ { mathrm {T}}}

ist der Identitätsoperator eingeschaltet

U.{ displaystyle U}

.

Der Orthonormalitätszustand kann auch fallengelassen werden. Wenn

u1,…,uk{ displaystyle u_ {1}, ldots, u_ {k}}

ist eine (nicht unbedingt orthonormale) Basis, und

EIN{ displaystyle A}

ist die Matrix mit diesen Vektoren als Spalten, dann ist die Projektion:[6][7]

P.EIN=EIN(EINT.EIN)– –1EINT..{ displaystyle P_ {A} = A (A ^ { mathrm {T}} A) ^ {- 1} A ^ { mathrm {T}}.}

Die Matrix

EIN{ displaystyle A}

bettet noch ein

U.{ displaystyle U}

in den zugrunde liegenden Vektorraum, ist aber im Allgemeinen keine Isometrie mehr. Die Matrix

(EINT.EIN)– –1{ displaystyle (A ^ { mathrm {T}} A) ^ {- 1}}

ist ein “Normalisierungsfaktor” das stellt die Norm wieder her. Zum Beispiel der Operator Rang 1

uuT.{ displaystyle uu ^ { mathrm {T}}}

ist keine Projektion wenn

‖u‖≠1.{ displaystyle | u | neq 1.}

Nach dem Teilen durch

uT.u=‖u‖2,{ displaystyle u ^ { mathrm {T}} u = | u | ^ {2},}

Wir erhalten die Projektion

u(uT.u)– –1uT.{ displaystyle u (u ^ { mathrm {T}} u) ^ {- 1} u ^ { mathrm {T}}}

auf den von überspannten Unterraum

u{ displaystyle u}

.

Im allgemeinen Fall können wir eine beliebige positive definitive Matrix haben

D.{ displaystyle D}

ein inneres Produkt definieren

⟨x,y⟩D.=y†D.x{ displaystyle langle x, y rangle _ {D} = y ^ { dagger} Dx}

und die Projektion

P.EIN{ displaystyle P_ {A}}

ist gegeben durch

P.EINx=einrGmichny∈reinnGe(EIN)‖x– –y‖D.2{ displaystyle P_ {A} x = mathrm {argmin} _ {y in mathrm {range} (A)} | xy | _ {D} ^ {2}}

. Dann

P.EIN=EIN(EINT.D.EIN)– –1EINT.D..{ displaystyle P_ {A} = A (A ^ { mathrm {T}} DA) ^ {- 1} A ^ { mathrm {T}} D.}

Wenn der Bereichsraum der Projektion von einem Frame generiert wird (dh die Anzahl der Generatoren ist größer als seine Dimension), hat die Formel für die Projektion die Form:

P.EIN=EINEIN+{ displaystyle P_ {A} = AA ^ {+}}

. Hier

EIN+{ displaystyle A ^ {+}}

steht für die Moore-Penrose-Pseudoinverse. Dies ist nur eine von vielen Möglichkeiten, den Projektionsoperator zu erstellen.

Wenn

[AB]{ displaystyle { begin {bmatrix} A & B end {bmatrix}}}

ist eine nicht singuläre Matrix und

EINT.B.=0{ displaystyle A ^ { mathrm {T}} B = 0}

(dh

B.{ displaystyle B}

ist die Nullraummatrix von

EIN{ displaystyle A}

),[8] Folgendes gilt:

ich=[AB][AB]– –1[ATBT]– –1[ATBT]=[AB]([ATBT][AB])– –1[ATBT]=[AB][ATAOOBTB]– –1[ATBT]=EIN(EINT.EIN)– –1EINT.+B.(B.T.B.)– –1B.T.{ displaystyle { begin {align} I & = { begin {bmatrix} A & B end {bmatrix}} { begin {bmatrix} A & B end {bmatrix}} ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \ B ^ { mathrm {T}} end {bmatrix}} ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \ B ^ { mathrm {T}} end {bmatrix}} \ & = { begin {bmatrix} A & B end {bmatrix}} left ({ begin {bmatrix} A ^ { mathrm {T}} \ B ^ { mathrm {T}} end {bmatrix}} { begin {bmatrix} A & B end {bmatrix}} right) ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} B ^ { mathrm {T}} end {bmatrix}} \ & = { begin {bmatrix} A & B end {bmatrix}} { begin {bmatrix} A ^ { mathrm {T}} A & O O & B ^ { mathrm {T}} B end {bmatrix}} ^ {- 1} { begin {bmatrix} A ^ { mathrm {T}} \ B ^ { mathrm {T}} end {bmatrix}} \[4pt]& = A (A ^ { mathrm {T}} A) ^ {- 1} A ^ { mathrm {T}} + B (B ^ { mathrm {T}} B) ^ {- 1} B ^ { mathrm {T}} end {align}}}

Wenn der orthogonale Zustand auf verbessert wird

EINT.W.B.=EINT.W.T.B.=0{ displaystyle A ^ { mathrm {T}} WB = A ^ { mathrm {T}} W ^ { mathrm {T}} B = 0}

mit

W.{ displaystyle W}

Nicht singulär gilt Folgendes:

ich=[AB][(ATWA)−1AT(BTWB)−1BT]W..{ displaystyle I = { begin {bmatrix} A & B end {bmatrix}} { begin {bmatrix} (A ^ { mathrm {T}} WA) ^ {- 1} A ^ { mathrm {T}} \ (B ^ { mathrm {T}} WB) ^ {- 1} B ^ { mathrm {T}} end {bmatrix}} W.}

Alle diese Formeln gelten auch für komplexe innere Produkträume, sofern die konjugierte Transponierte anstelle der Transponierten verwendet wird. Weitere Details zu Projektorsummen finden sich in Banerjee und Roy (2014).[9] Siehe auch Banerjee (2004)[10] zur Anwendung von Projektorsummen in der sphärischen Grundtrigonometrie.

Schräge Projektionen[edit]

Der Begriff schräge Projektionen wird manchmal verwendet, um sich auf nicht orthogonale Projektionen zu beziehen. Diese Projektionen werden auch verwendet, um räumliche Figuren in zweidimensionalen Zeichnungen darzustellen (siehe Schrägprojektion), wenn auch nicht so häufig wie orthogonale Projektionen. Während die Berechnung des angepassten Werts einer gewöhnlichen Regression der kleinsten Quadrate eine orthogonale Projektion erfordert, erfordert die Berechnung des angepassten Werts einer Regression instrumenteller Variablen eine schräge Projektion.

Projektionen werden durch ihren Nullraum und die Basisvektoren definiert, die zur Charakterisierung ihres Bereichs verwendet werden (der das Komplement des Nullraums darstellt). Wenn diese Basisvektoren orthogonal zum Nullraum sind, ist die Projektion eine orthogonale Projektion. Wenn diese Basisvektoren nicht orthogonal zum Nullraum sind, ist die Projektion eine schräge Projektion. Lassen Sie die Vektoren

u1,…,uk{ displaystyle u_ {1}, ldots, u_ {k}}

bilden eine Basis für den Bereich der Projektion und setzen diese Vektoren in der

n×k{ displaystyle n times k}

Matrix

EIN{ displaystyle A}

. Der Bereich und der Nullraum sind komplementäre Räume, daher hat der Nullraum eine Dimension

n– –k{ displaystyle nk}

. Daraus folgt, dass das orthogonale Komplement des Nullraums eine Dimension hat

k{ displaystyle k}

. Lassen

v1,…,vk{ displaystyle v_ {1}, ldots, v_ {k}}

bilden eine Basis für das orthogonale Komplement des Nullraums der Projektion und setzen diese Vektoren in der Matrix zusammen

B.{ displaystyle B}

. Dann wird die Projektion definiert durch

P.=EIN(B.T.EIN)– –1B.T..{ displaystyle P = A (B ^ { mathrm {T}} A) ^ {- 1} B ^ { mathrm {T}}.}

Dieser Ausdruck verallgemeinert die oben angegebene Formel für orthogonale Projektionen.[11][12]

Projektion mit einem inneren Produkt finden[edit]

Lassen

V.{ displaystyle V}

sei ein Vektorraum (in diesem Fall eine Ebene), der von orthogonalen Vektoren überspannt wird

u1,u2,⋯,up{ displaystyle u_ {1}, u_ {2}, cdots, u_ {p}}

. Lassen

y{ displaystyle y}

sei ein Vektor. Man kann eine Projektion von definieren

y{ displaystyle y}

auf zu

V.{ displaystyle V}

wie

projV.⁡y=y⋅ujuj⋅ujuj{ displaystyle operatorname {proj} _ {V} y = { frac {y cdot u ^ {j}} {u ^ {j} cdot u ^ {j}}} u ^ {j}}

bei dem die

j{ displaystyle j}

impliziert Einstein-Summennotation. Der Vektor

y{ displaystyle y}

kann als orthogonale Summe geschrieben werden, so dass

y=projV.⁡y+z{ displaystyle y = operatorname {proj} _ {V} y + z}

.

projV.⁡y{ displaystyle operatorname {proj} _ {V} y}

wird manchmal als bezeichnet

y^{ displaystyle { hat {y}}}

. In der linearen Algebra gibt es einen Satz, der dies besagt

z{ displaystyle z}

ist die kürzeste Entfernung von

y{ displaystyle y}

zu

V.{ displaystyle V}

und wird häufig in Bereichen wie maschinelles Lernen verwendet.

y wird auf den Vektorraum V projiziert.

Kanonische Formen[edit]

Jede Projektion

P.=P.2{ displaystyle P = P ^ {2}}

auf einem Vektorraum der Dimension

d{ displaystyle d}

über einem Feld befindet sich eine diagonalisierbare Matrix, da sich ihre minimalen Polynome teilen

x2– –x{ displaystyle x ^ {2} -x}

, die sich in verschiedene lineare Faktoren aufteilt. Es gibt also eine Basis, auf der

P.{ displaystyle P}

hat die Form

P.=ichr⊕0d– –r{ displaystyle P = I_ {r} oplus 0_ {dr}}

wo

r{ displaystyle r}

ist der Rang von

P.{ displaystyle P}

. Hier

ichr{ displaystyle I_ {r}}

ist die Identitätsmatrix der Größe

r{ displaystyle r}

, und

0d– –r{ displaystyle 0_ {dr}}

ist die Nullmatrix der Größe

d– –r{ displaystyle dr}

. Wenn der Vektorraum komplex und mit einem inneren Produkt ausgestattet ist, gibt es eine orthonormal Basis, in der die Matrix von P. ist[13]

P.=[1σ100]⊕⋯⊕[1σk00]⊕ichm⊕0s{ displaystyle P = { begin {bmatrix} 1 & sigma _ {1} \ 0 & 0 end {bmatrix}} oplus cdots oplus { begin {bmatrix} 1 & sigma _ {k} \ 0 & 0 end {bmatrix}} oplus I_ {m} oplus 0_ {s}}

.

wo

σ1≥σ2≥…≥σk>0{ displaystyle sigma _ {1} geq sigma _ {2} geq ldots geq sigma _ {k}> 0}

k,s,m{ displaystyle k, s, m}

und die reellen Zahlen

σich{ displaystyle sigma _ {i}}

sind eindeutig bestimmt. Beachten Sie, dass

k+s+m=d{ displaystyle k + s + m = d}

. Der Faktor

ichm⊕0s{ displaystyle I_ {m} oplus 0_ {s}}

entspricht dem maximal invarianten Unterraum, auf dem

P.{ displaystyle P}

fungiert als senkrecht Projektion (so dass P. selbst ist genau dann orthogonal, wenn

k=0{ displaystyle k = 0}

) und die

σich{ displaystyle sigma _ {i}}

-Blöcke entsprechen dem schräg Komponenten.

Projektionen auf normierten Vektorräumen[edit]

Wenn der zugrunde liegende Vektorraum

X.{ displaystyle X}

ist ein (nicht unbedingt endlich-dimensionaler) normierter Vektorraum, müssen analytische Fragen, die im endlich-dimensionalen Fall irrelevant sind, berücksichtigt werden. Nehmen wir jetzt an

X.{ displaystyle X}

ist ein Banachraum.

Viele der oben diskutierten algebraischen Ergebnisse überleben den Übergang zu diesem Kontext. Eine gegebene direkte Summenzerlegung von

X.{ displaystyle X}

In komplementären Teilräumen wird weiterhin eine Projektion angegeben und umgekehrt. Wenn

X.{ displaystyle X}

ist die direkte Summe

X.=U.⊕V.{ displaystyle X = U oplus V}

, dann definiert der Operator durch

P.(u+v)=u{ displaystyle P (u + v) = u}

ist immer noch eine Projektion mit Reichweite

U.{ displaystyle U}

und Kernel

V.{ displaystyle V}

. Es ist auch klar, dass

P.2=P.{ displaystyle P ^ {2} = P}

. Umgekehrt, wenn

P.{ displaystyle P}

ist Projektion auf

X.{ displaystyle X}

dh

P.2=P.{ displaystyle P ^ {2} = P}

, dann ist es leicht zu überprüfen, dass

(1– –P.)2=(1– –P.){ displaystyle (1-P) ^ {2} = (1-P)}

. Mit anderen Worten,

1– –P.{ displaystyle 1-P}

ist auch eine Projektion. Die Beziehung

P.2=P.{ displaystyle P ^ {2} = P}

impliziert

1=P.+(1– –P.){ displaystyle 1 = P + (1-P)}

und

X.{ displaystyle X}

ist die direkte Summe

rg⁡(P.)⊕rg⁡(1– –P.){ displaystyle operatorname {rg} (P) oplus operatorname {rg} (1-P)}

.

Im Gegensatz zum endlichdimensionalen Fall müssen Projektionen jedoch im Allgemeinen nicht kontinuierlich sein. Wenn ein Unterraum

U.{ displaystyle U}

von

X.{ displaystyle X}

wird in der Normtopologie nicht geschlossen, dann Projektion auf

U.{ displaystyle U}

ist nicht kontinuierlich. Mit anderen Worten, der Bereich einer kontinuierlichen Projektion

P.{ displaystyle P}

muss ein geschlossener Unterraum sein. Darüber hinaus ist der Kern einer kontinuierlichen Projektion (in der Tat ein kontinuierlicher linearer Operator im Allgemeinen) geschlossen. Also a kontinuierlich Projektion

P.{ displaystyle P}

ergibt eine Zersetzung von

X.{ displaystyle X}

in zwei komplementäre geschlossen Unterräume:

X.=rg⁡(P.)⊕ker⁡(P.)=ker⁡(1– –P.)⊕ker⁡(P.){ displaystyle X = operatorname {rg} (P) oplus operatorname {ker} (P) = operatorname {ker} (1-P) oplus operatorname {ker} (P)}

.

Das Umgekehrte gilt auch mit einer zusätzlichen Annahme. Annehmen

U.{ displaystyle U}

ist ein geschlossener Unterraum von

X.{ displaystyle X}

. Wenn es einen geschlossenen Unterraum gibt

V.{ displaystyle V}

so dass X. = U.V., dann die Projektion

P.{ displaystyle P}

mit Reichweite

U.{ displaystyle U}

und Kernel

V.{ displaystyle V}

ist kontinuierlich. Dies folgt aus dem Satz des geschlossenen Graphen. Annehmen xnx und Pxny. Das muss man zeigen

P.x=y{ displaystyle Px = y}

. Schon seit

U.{ displaystyle U}

ist geschlossen und {Pxn} ⊂ U., y besteht in

U.{ displaystyle U}

dh Py = y. Ebenfalls, xn – – Pxn = (ich – – P.)xnx – – y. weil

V.{ displaystyle V}

ist geschlossen und {(ich – – P.)xn} ⊂ V., wir haben

x– –y∈V.{ displaystyle xy in V}

dh

P.(x– –y)=P.x– –P.y=P.x– –y=0{ Anzeigestil P (xy) = Px-Py = Px-y = 0}

, was den Anspruch beweist.

Das obige Argument verwendet die Annahme, dass beide

U.{ displaystyle U}

und

V.{ displaystyle V}

sind zu. Im Allgemeinen bei einem geschlossenen Unterraum

U.{ displaystyle U}

muss es keinen komplementären geschlossenen Unterraum geben

V.{ displaystyle V}

, obwohl dies für Hilbert-Räume immer durch Verwendung des orthogonalen Komplements erfolgen kann. Für Banach-Räume hat ein eindimensionaler Unterraum immer einen geschlossenen komplementären Unterraum. Dies ist eine unmittelbare Folge des Hahn-Banach-Theorems. Lassen

U.{ displaystyle U}

sei die lineare Spanne von

u{ displaystyle u}

. Nach Hahn-Banach gibt es eine begrenzte lineare Funktion

φ{ displaystyle varphi}

so dass φ(u) = 1. Der Betreiber

P.(x)=φ(x)u{ displaystyle P (x) = varphi (x) u}

befriedigt

P.2=P.{ displaystyle P ^ {2} = P}

dh es ist eine Projektion. Begrenztheit von

φ{ displaystyle varphi}

impliziert Kontinuität von

P.{ displaystyle P}

und deshalb

ker⁡(P.)=rg⁡(ich– –P.){ displaystyle operatorname {ker} (P) = operatorname {rg} (IP)}

ist ein geschlossener komplementärer Unterraum von

U.{ displaystyle U}

.

Anwendungen und weitere Überlegungen[edit]

Projektionen (orthogonal und anderweitig) spielen eine wichtige Rolle in Algorithmen für bestimmte lineare Algebra-Probleme:

Wie oben erwähnt, sind Projektionen ein Sonderfall von Idempotenten. Orthogonale Projektionen sind analytisch nicht kommutative Verallgemeinerungen charakteristischer Funktionen. Idempotente werden beispielsweise zur Klassifizierung von halbimplitiven Algebren verwendet, während die Maßtheorie mit der Berücksichtigung charakteristischer Funktionen messbarer Mengen beginnt. Wie man sich vorstellen kann, treten Projektionen daher sehr häufig im Zusammenhang mit Operatoralgebren auf. Insbesondere wird eine von Neumann-Algebra durch ihr vollständiges Projektionsgitter erzeugt.

Verallgemeinerungen[edit]

Allgemeiner bei einer Karte zwischen normierten Vektorräumen

T.::V.→W.,{ displaystyle T Doppelpunkt V bis W,}

man kann analog verlangen, dass diese Karte eine Isometrie des orthogonalen Komplements des Kernels ist: das

(ker⁡T.)⊥→W.{ displaystyle ( ker T) ^ { perp} to W}

eine Isometrie sein (vergleiche partielle Isometrie); insbesondere muss es auf sein. Der Fall einer orthogonalen Projektion ist wann W. ist ein Unterraum von V. V. In der Riemannschen Geometrie wird dies bei der Definition eines Riemannschen Untertauchens verwendet.

Siehe auch[edit]

  1. ^ Meyer, S. 386 + 387
  2. ^ ein b Horn, Roger A.; Johnson, Charles R. (2013). Matrixanalyse, zweite Ausgabe. Cambridge University Press. ISBN 9780521839402.
  3. ^ Meyer, p. 433
  4. ^ Meyer, p. 431
  5. ^ Meyer, Gleichung (5.13.4)
  6. ^ Banerjee, Sudipto; Roy, Anindya (2014), Lineare Algebra und Matrixanalyse für die Statistik, Texte in Statistical Science (1. Aufl.), Chapman und Hall / CRC, ISBN 978-1420095388
  7. ^ Meyer, Gleichung (5.13.3)
  8. ^ Siehe auch Lineare kleinste Quadrate (Mathematik) § Eigenschaften der Schätzer der kleinsten Quadrate.
  9. ^ Banerjee, Sudipto; Roy, Anindya (2014), Lineare Algebra und Matrixanalyse für die Statistik, Texte in Statistical Science (1. Aufl.), Chapman und Hall / CRC, ISBN 978-1420095388
  10. ^ Banerjee, Sudipto (2004), “Überprüfung der sphärischen Trigonometrie mit orthogonalen Projektoren”, Das College Mathematics Journal, 35 (5): 375–381, doi:10.1080 / 07468342.2004.11922099, S2CID 122277398
  11. ^ Banerjee, Sudipto; Roy, Anindya (2014), Lineare Algebra und Matrixanalyse für die Statistik, Texte in Statistical Science (1. Aufl.), Chapman und Hall / CRC, ISBN 978-1420095388
  12. ^ Meyer, Gleichung (7.10.39)
  13. ^ Doković, D. Ž. (August 1991). “Einheitliche Ähnlichkeit von Projektoren”. Aequationes Mathematicae. 42 (1): 220–224. doi:10.1007 / BF01818492. S2CID 122704926.

Verweise[edit]

  • Banerjee, Sudipto; Roy, Anindya (2014), Lineare Algebra und Matrixanalyse für die Statistik, Texte in Statistical Science (1. Aufl.), Chapman und Hall / CRC, ISBN 978-1420095388
  • Dunford, N.; Schwartz, JT (1958). Linearoperatoren, Teil I: Allgemeine Theorie. Interscience.
  • Meyer, Carl D. (2000). Matrixanalyse und angewandte lineare Algebra. Gesellschaft für industrielle und angewandte Mathematik. ISBN 978-0-89871-454-8.

Externe Links[edit]