[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki15\/2020\/11\/28\/lineare-vorhersage-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki15\/2020\/11\/28\/lineare-vorhersage-wikipedia\/","headline":"Lineare Vorhersage – Wikipedia","name":"Lineare Vorhersage – Wikipedia","description":"before-content-x4 Lineare Vorhersage ist eine mathematische Operation, bei der zuk\u00fcnftige Werte eines zeitdiskreten Signals als lineare Funktion vorheriger Abtastwerte gesch\u00e4tzt","datePublished":"2020-11-28","dateModified":"2020-11-28","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki15\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki15\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/c6eef026e99f4cf0f2e27026f8a821807f304909","url":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/c6eef026e99f4cf0f2e27026f8a821807f304909","height":"","width":""},"url":"https:\/\/wiki.edu.vn\/wiki15\/2020\/11\/28\/lineare-vorhersage-wikipedia\/","wordCount":6272,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Lineare Vorhersage ist eine mathematische Operation, bei der zuk\u00fcnftige Werte eines zeitdiskreten Signals als lineare Funktion vorheriger Abtastwerte gesch\u00e4tzt werden. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4In der digitalen Signalverarbeitung wird die lineare Vorhersage h\u00e4ufig als lineare Vorhersagekodierung (LPC) bezeichnet und kann daher als Teilmenge der Filtertheorie angesehen werden. In der Systemanalyse, einem Teilgebiet der Mathematik, kann die lineare Vorhersage als Teil der mathematischen Modellierung oder Optimierung betrachtet werden.Table of ContentsDas Vorhersagemodell[edit]Sch\u00e4tzung der Parameter[edit]Siehe auch[edit]Verweise[edit]Weiterf\u00fchrende Literatur[edit]Externe Links[edit]Das Vorhersagemodell[edit]Die h\u00e4ufigste Darstellung ist (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4x^((n)=\u2211ich=1peinichx((n– –ich){ displaystyle { widehat {x}} (n) = sum _ {i = 1} ^ {p} a_ {i} x (ni) ,}wo x^((n){ displaystyle { widehat {x}} (n)} ist der vorhergesagte Signalwert, x((n– –ich){ displaystyle x (ni)} die zuvor beobachteten Werte mit (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4p((n){ displaystyle e (n) = x (n) – { widehat {x}} (n) ,}wo x((n){ displaystyle x (n)} ist der wahre Signalwert.Diese Gleichungen gelten f\u00fcr alle Arten der (eindimensionalen) linearen Vorhersage. Die Unterschiede liegen in der Art und Weise der Pr\u00e4diktor-Koeffizienten einich{ displaystyle a_ {i}} sind auserw\u00e4hlt.F\u00fcr mehrdimensionale Signale wird die Fehlermetrik h\u00e4ufig definiert alse((n)=\u2016x((n)– –x^((n)\u2016{ displaystyle e (n) = | x (n) – { widehat {x}} (n) | ,}wo \u2016\u22c5\u2016{ displaystyle | cdot |} ist eine geeignete gew\u00e4hlte Vektornorm. Vorhersagen wie x^((n){ displaystyle { widehat {x}} (n)} werden routinem\u00e4\u00dfig in Kalman-Filtern und Gl\u00e4ttern verwendet, um aktuelle bzw. vergangene Signalwerte zu sch\u00e4tzen.[citation needed]Sch\u00e4tzung der Parameter[edit]Die h\u00e4ufigste Wahl bei der Optimierung von Parametern einich{ displaystyle a_ {i}} ist das quadratische Mittelwertkriterium, das auch als Autokorrelationskriterium bezeichnet wird. Bei dieser Methode minimieren wir den erwarteten Wert des quadratischen Fehlers E.[e2(n)]{ displaystyle E.[e^{2}(n)]}}, was die Gleichung ergibt\u2211ich=1peinichR.((j– –ich)=R.((j),{ displaystyle sum _ {i = 1} ^ {p} a_ {i} R (ji) = R (j),}f\u00fcr 1 \u2264 j \u2264 p, wo R. ist die Autokorrelation des Signals xn, definiert als R.((ich)=E.{x((n)x((n– –ich)}}{ displaystyle R (i) = E {x (n) x (ni) } ,},und E. ist der erwartete Wert. Im mehrdimensionalen Fall entspricht dies der Minimierung des L.2 Norm.Die obigen Gleichungen werden als Normalgleichungen oder Yule-Walker-Gleichungen bezeichnet. In Matrixform k\u00f6nnen die Gleichungen \u00e4quivalent geschrieben werden alsR.EIN=r{ displaystyle mathbf {RA} = mathbf {r}}wo die Autokorrelationsmatrix R.{ displaystyle mathbf {R}} ist eine symmetrische, p\u00d7p{ displaystyle p times p} Toeplitz-Matrix mit Elementen richj=R.((ich– –j),0\u2264ich,j,ap\u22121,ap]{ displaystyle mathbf {A} =[a_{1},a_{2},,cdots ,,a_{p-1},a_{p}]}}, der Parametervektor.Ein anderer, allgemeinerer Ansatz besteht darin, die Summe der Quadrate der in dem Formular definierten Fehler zu minimierene((n)=x((n)– –x^((n)=x((n)– –\u2211ich=1peinichx((n– –ich)=– –\u2211ich=0peinichx((n– –ich){ displaystyle e (n) = x (n) – { widehat {x}} (n) = x (n) – sum _ {i = 1} ^ {p} a_ {i} x (ni) = – sum _ {i = 0} ^ {p} a_ {i} x (ni)}wo das Optimierungsproblem \u00fcber alles sucht einich{ displaystyle a_ {i}} muss jetzt mit eingeschr\u00e4nkt werden ein0=– –1{ displaystyle a_ {0} = – 1}.Wenn andererseits der mittlere quadratische Vorhersagefehler auf Eins beschr\u00e4nkt ist und die Vorhersagefehlergleichung \u00fcber den normalen Gleichungen enthalten ist, wird der erweiterte Satz von Gleichungen als erhalten R.EIN=[1,0,...,0]T.{ displaystyle mathbf {RA} =[1,0,…,0]^ { mathrm {T}}}wo der Index ich{ displaystyle i} reicht von 0 bis p{ displaystyle p}, und R.{ displaystyle mathbf {R}} ist ein ((p+1)\u00d7((p+1){ displaystyle (p + 1) times (p + 1)} Matrix.Die Spezifikation der Parameter des linearen Pr\u00e4diktors ist ein weites Thema, und eine gro\u00dfe Anzahl anderer Ans\u00e4tze wurde vorgeschlagen. Tats\u00e4chlich ist die Autokorrelationsmethode die h\u00e4ufigste[citation needed] und es wird zum Beispiel f\u00fcr die Sprachcodierung im GSM-Standard verwendet.L\u00f6sung der Matrixgleichung R.EIN=r{ displaystyle mathbf {RA} = mathbf {r}} ist rechnerisch ein relativ teurer Prozess. Die Gau\u00dfsche Eliminierung f\u00fcr die Matrixinversion ist wahrscheinlich die \u00e4lteste L\u00f6sung, aber dieser Ansatz nutzt die Symmetrie von nicht effizient R.{ displaystyle mathbf {R}}. Ein schnellerer Algorithmus ist die 1947 von Norman Levinson vorgeschlagene Levinson-Rekursion, die die L\u00f6sung rekursiv berechnet.[citation needed] Insbesondere k\u00f6nnen die obigen Autokorrelationsgleichungen durch den Durbin-Algorithmus effizienter gel\u00f6st werden.[1]1986 schlugen Philippe Delsarte und YV Genin eine Verbesserung dieses Algorithmus vor, die als geteilte Levinson-Rekursion bezeichnet wird und etwa die H\u00e4lfte der Multiplikationen und Divisionen erfordert.[2] Es verwendet eine spezielle symmetrische Eigenschaft von Parametervektoren auf nachfolgenden Rekursionsstufen. Das hei\u00dft, Berechnungen f\u00fcr den optimalen Pr\u00e4diktor enthalten p{ displaystyle p} Begriffe verwenden \u00e4hnliche Berechnungen f\u00fcr den optimalen Pr\u00e4diktor, der enth\u00e4lt p– –1{ displaystyle p-1} Begriffe.Eine andere M\u00f6glichkeit, Modellparameter zu identifizieren, besteht darin, Zustandssch\u00e4tzungen mithilfe von Kalman-Filtern iterativ zu berechnen und Sch\u00e4tzungen der maximalen Wahrscheinlichkeit innerhalb von Erwartungsmaximierungsalgorithmen zu erhalten.Bei gleich beabstandeten Werten ist eine Polynominterpolation eine lineare Kombination der bekannten Werte. Wenn gesch\u00e4tzt wird, dass das diskrete Zeitsignal einem Gradpolynom folgt p– –1,{ displaystyle p-1,} dann die Pr\u00e4diktor-Koeffizienten einich{ displaystyle a_ {i}} sind durch die entsprechende Zeile des Dreiecks der Binomialtransformationskoeffizienten gegeben. Diese Sch\u00e4tzung k\u00f6nnte f\u00fcr ein sich langsam \u00e4nderndes Signal mit geringem Rauschen geeignet sein. Die Vorhersagen f\u00fcr die ersten Werte von p{ displaystyle p} sindp=1::x^((n)=1x((n– –1)p=2::x^((n)=2x((n– –1)– –1x((n– –2)p=3::x^((n)=3x((n– –1)– –3x((n– –2)+1x((n– –3)p=4::x^((n)=4x((n– –1)– –6x((n– –2)+4x((n– –3)– –1x((n– –4){ displaystyle { begin {array} {lcl} p = 1 &: & { widehat {x}} (n) = 1x (n-1) \\ p = 2 &: & { widehat {x}} (n ) = 2x (n-1) -1x (n-2) \\ p = 3 &: & { widehat {x}} (n) = 3x (n-1) -3x (n-2) + 1x (n -3) \\ p = 4 &: & { widehat {x}} (n) = 4x (n-1) -6x (n-2) + 4x (n-3) -1x (n-4) \\ end {array}}}Siehe auch[edit]Verweise[edit]Weiterf\u00fchrende Literatur[edit]Externe Links[edit] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki15\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki15\/2020\/11\/28\/lineare-vorhersage-wikipedia\/#breadcrumbitem","name":"Lineare Vorhersage – Wikipedia"}}]}]