Lineare Vorhersage – Wikipedia
Lineare Vorhersage ist eine mathematische Operation, bei der zukünftige Werte eines zeitdiskreten Signals als lineare Funktion vorheriger Abtastwerte geschätzt werden.
In der digitalen Signalverarbeitung wird die lineare Vorhersage häufig als lineare Vorhersagekodierung (LPC) bezeichnet und kann daher als Teilmenge der Filtertheorie angesehen werden. In der Systemanalyse, einem Teilgebiet der Mathematik, kann die lineare Vorhersage als Teil der mathematischen Modellierung oder Optimierung betrachtet werden.
Das Vorhersagemodell[edit]
Die häufigste Darstellung ist
wo
ist der vorhergesagte Signalwert,
die zuvor beobachteten Werte mit
, und
die Prädiktor-Koeffizienten. Der durch diese Schätzung erzeugte Fehler ist
wo
ist der wahre Signalwert.
Diese Gleichungen gelten für alle Arten der (eindimensionalen) linearen Vorhersage. Die Unterschiede liegen in der Art und Weise der Prädiktor-Koeffizienten
sind auserwählt.
Für mehrdimensionale Signale wird die Fehlermetrik häufig definiert als
wo
ist eine geeignete gewählte Vektornorm. Vorhersagen wie
werden routinemäßig in Kalman-Filtern und Glättern verwendet, um aktuelle bzw. vergangene Signalwerte zu schätzen.[citation needed]
Schätzung der Parameter[edit]
Die häufigste Wahl bei der Optimierung von Parametern
ist das quadratische Mittelwertkriterium, das auch als Autokorrelationskriterium bezeichnet wird. Bei dieser Methode minimieren wir den erwarteten Wert des quadratischen Fehlers
, was die Gleichung ergibt
für 1 ≤ j ≤ p, wo R. ist die Autokorrelation des Signals xn, definiert als
- ,
und E. ist der erwartete Wert. Im mehrdimensionalen Fall entspricht dies der Minimierung des L.2 Norm.
Die obigen Gleichungen werden als Normalgleichungen oder Yule-Walker-Gleichungen bezeichnet. In Matrixform können die Gleichungen äquivalent geschrieben werden als
wo die Autokorrelationsmatrix
ist eine symmetrische,
Toeplitz-Matrix mit Elementen
, der Vektor
ist der Autokorrelationsvektor
, und
, der Parametervektor.
Ein anderer, allgemeinerer Ansatz besteht darin, die Summe der Quadrate der in dem Formular definierten Fehler zu minimieren
wo das Optimierungsproblem über alles sucht
muss jetzt mit eingeschränkt werden
.
Wenn andererseits der mittlere quadratische Vorhersagefehler auf Eins beschränkt ist und die Vorhersagefehlergleichung über den normalen Gleichungen enthalten ist, wird der erweiterte Satz von Gleichungen als erhalten
wo der Index
reicht von 0 bis
, und
ist ein
Matrix.
Die Spezifikation der Parameter des linearen Prädiktors ist ein weites Thema, und eine große Anzahl anderer Ansätze wurde vorgeschlagen. Tatsächlich ist die Autokorrelationsmethode die häufigste[citation needed] und es wird zum Beispiel für die Sprachcodierung im GSM-Standard verwendet.
Lösung der Matrixgleichung
ist rechnerisch ein relativ teurer Prozess. Die Gaußsche Eliminierung für die Matrixinversion ist wahrscheinlich die älteste Lösung, aber dieser Ansatz nutzt die Symmetrie von nicht effizient
. Ein schnellerer Algorithmus ist die 1947 von Norman Levinson vorgeschlagene Levinson-Rekursion, die die Lösung rekursiv berechnet.[citation needed] Insbesondere können die obigen Autokorrelationsgleichungen durch den Durbin-Algorithmus effizienter gelöst werden.[1]
1986 schlugen Philippe Delsarte und YV Genin eine Verbesserung dieses Algorithmus vor, die als geteilte Levinson-Rekursion bezeichnet wird und etwa die Hälfte der Multiplikationen und Divisionen erfordert.[2] Es verwendet eine spezielle symmetrische Eigenschaft von Parametervektoren auf nachfolgenden Rekursionsstufen. Das heißt, Berechnungen für den optimalen Prädiktor enthalten
Begriffe verwenden ähnliche Berechnungen für den optimalen Prädiktor, der enthält
Begriffe.
Eine andere Möglichkeit, Modellparameter zu identifizieren, besteht darin, Zustandsschätzungen mithilfe von Kalman-Filtern iterativ zu berechnen und Schätzungen der maximalen Wahrscheinlichkeit innerhalb von Erwartungsmaximierungsalgorithmen zu erhalten.
Bei gleich beabstandeten Werten ist eine Polynominterpolation eine lineare Kombination der bekannten Werte. Wenn geschätzt wird, dass das diskrete Zeitsignal einem Gradpolynom folgt
dann die Prädiktor-Koeffizienten
sind durch die entsprechende Zeile des Dreiecks der Binomialtransformationskoeffizienten gegeben. Diese Schätzung könnte für ein sich langsam änderndes Signal mit geringem Rauschen geeignet sein. Die Vorhersagen für die ersten Werte von
sind
Recent Comments