Lineare Vorhersage – Wikipedia

before-content-x4

Lineare Vorhersage ist eine mathematische Operation, bei der zukünftige Werte eines zeitdiskreten Signals als lineare Funktion vorheriger Abtastwerte geschätzt werden.

after-content-x4

In der digitalen Signalverarbeitung wird die lineare Vorhersage häufig als lineare Vorhersagekodierung (LPC) bezeichnet und kann daher als Teilmenge der Filtertheorie angesehen werden. In der Systemanalyse, einem Teilgebiet der Mathematik, kann die lineare Vorhersage als Teil der mathematischen Modellierung oder Optimierung betrachtet werden.

Das Vorhersagemodell[edit]

Die häufigste Darstellung ist

wo

x^((n){ displaystyle { widehat {x}} (n)}

ist der vorhergesagte Signalwert,

x((n– –ich){ displaystyle x (ni)}

die zuvor beobachteten Werte mit

after-content-x4
p<=n{ displaystyle p <= n}

, und

einich{ displaystyle a_ {i}}

die Prädiktor-Koeffizienten. Der durch diese Schätzung erzeugte Fehler ist

wo

x((n){ displaystyle x (n)}

ist der wahre Signalwert.

Diese Gleichungen gelten für alle Arten der (eindimensionalen) linearen Vorhersage. Die Unterschiede liegen in der Art und Weise der Prädiktor-Koeffizienten

einich{ displaystyle a_ {i}}

sind auserwählt.

Für mehrdimensionale Signale wird die Fehlermetrik häufig definiert als

wo

{ displaystyle | cdot |}

ist eine geeignete gewählte Vektornorm. Vorhersagen wie

x^((n){ displaystyle { widehat {x}} (n)}

werden routinemäßig in Kalman-Filtern und Glättern verwendet, um aktuelle bzw. vergangene Signalwerte zu schätzen.[citation needed]

Schätzung der Parameter[edit]

Die häufigste Wahl bei der Optimierung von Parametern

einich{ displaystyle a_ {i}}

ist das quadratische Mittelwertkriterium, das auch als Autokorrelationskriterium bezeichnet wird. Bei dieser Methode minimieren wir den erwarteten Wert des quadratischen Fehlers

E.[e2(n)]{ displaystyle E.[e^{2}(n)]}}

, was die Gleichung ergibt

für 1 ≤ jp, wo R. ist die Autokorrelation des Signals xn, definiert als

und E. ist der erwartete Wert. Im mehrdimensionalen Fall entspricht dies der Minimierung des L.2 Norm.

Die obigen Gleichungen werden als Normalgleichungen oder Yule-Walker-Gleichungen bezeichnet. In Matrixform können die Gleichungen äquivalent geschrieben werden als

wo die Autokorrelationsmatrix

R.{ displaystyle mathbf {R}}

ist eine symmetrische,

p×p{ displaystyle p times p}

Toeplitz-Matrix mit Elementen

richj=R.((ich– –j),0ich,j<p{ displaystyle r_ {ij} = R (ij), 0 leq i, j

, der Vektor

r{ displaystyle mathbf {r}}

ist der Autokorrelationsvektor

rj=R.((j),0<jp{ displaystyle r_ {j} = R (j), 0

, und

EIN=[a1,a2,,ap1,ap]{ displaystyle mathbf {A} =[a_{1},a_{2},,cdots ,,a_{p-1},a_{p}]}}

, der Parametervektor.

Ein anderer, allgemeinerer Ansatz besteht darin, die Summe der Quadrate der in dem Formular definierten Fehler zu minimieren

wo das Optimierungsproblem über alles sucht

einich{ displaystyle a_ {i}}

muss jetzt mit eingeschränkt werden

ein0=– –1{ displaystyle a_ {0} = – 1}

.

Wenn andererseits der mittlere quadratische Vorhersagefehler auf Eins beschränkt ist und die Vorhersagefehlergleichung über den normalen Gleichungen enthalten ist, wird der erweiterte Satz von Gleichungen als erhalten

wo der Index

ich{ displaystyle i}

reicht von 0 bis

p{ displaystyle p}

, und

R.{ displaystyle mathbf {R}}

ist ein

((p+1)×((p+1){ displaystyle (p + 1) times (p + 1)}

Matrix.

Die Spezifikation der Parameter des linearen Prädiktors ist ein weites Thema, und eine große Anzahl anderer Ansätze wurde vorgeschlagen. Tatsächlich ist die Autokorrelationsmethode die häufigste[citation needed] und es wird zum Beispiel für die Sprachcodierung im GSM-Standard verwendet.

Lösung der Matrixgleichung

R.EIN=r{ displaystyle mathbf {RA} = mathbf {r}}

ist rechnerisch ein relativ teurer Prozess. Die Gaußsche Eliminierung für die Matrixinversion ist wahrscheinlich die älteste Lösung, aber dieser Ansatz nutzt die Symmetrie von nicht effizient

R.{ displaystyle mathbf {R}}

. Ein schnellerer Algorithmus ist die 1947 von Norman Levinson vorgeschlagene Levinson-Rekursion, die die Lösung rekursiv berechnet.[citation needed] Insbesondere können die obigen Autokorrelationsgleichungen durch den Durbin-Algorithmus effizienter gelöst werden.[1]

1986 schlugen Philippe Delsarte und YV Genin eine Verbesserung dieses Algorithmus vor, die als geteilte Levinson-Rekursion bezeichnet wird und etwa die Hälfte der Multiplikationen und Divisionen erfordert.[2] Es verwendet eine spezielle symmetrische Eigenschaft von Parametervektoren auf nachfolgenden Rekursionsstufen. Das heißt, Berechnungen für den optimalen Prädiktor enthalten

p{ displaystyle p}

Begriffe verwenden ähnliche Berechnungen für den optimalen Prädiktor, der enthält

p– –1{ displaystyle p-1}

Begriffe.

Eine andere Möglichkeit, Modellparameter zu identifizieren, besteht darin, Zustandsschätzungen mithilfe von Kalman-Filtern iterativ zu berechnen und Schätzungen der maximalen Wahrscheinlichkeit innerhalb von Erwartungsmaximierungsalgorithmen zu erhalten.

Bei gleich beabstandeten Werten ist eine Polynominterpolation eine lineare Kombination der bekannten Werte. Wenn geschätzt wird, dass das diskrete Zeitsignal einem Gradpolynom folgt

p– –1,{ displaystyle p-1,}

dann die Prädiktor-Koeffizienten

einich{ displaystyle a_ {i}}

sind durch die entsprechende Zeile des Dreiecks der Binomialtransformationskoeffizienten gegeben. Diese Schätzung könnte für ein sich langsam änderndes Signal mit geringem Rauschen geeignet sein. Die Vorhersagen für die ersten Werte von

p{ displaystyle p}

sind

Siehe auch[edit]

Verweise[edit]

Weiterführende Literatur[edit]

Externe Links[edit]

after-content-x4