Lineare kleinste Quadrate – Wikipedia

before-content-x4

Lineare kleinste Quadrate ((LLS) ist die Annäherung der kleinsten Quadrate an lineare Funktionen an Daten. Es handelt sich um eine Reihe von Formulierungen zur Lösung statistischer Probleme bei der linearen Regression, einschließlich Varianten für gewöhnliche (ungewichtete), gewichtete und verallgemeinerte (korrelierte) Residuen. Numerische Verfahren für lineare kleinste Quadrate umfassen das Invertieren der Matrix der Normalgleichungen und orthogonale Zerlegungsverfahren.

Hauptformulierungen[edit]

Die drei wichtigsten linearen Formulierungen der kleinsten Quadrate sind:

  • Gewöhnliche kleinste Quadrate (OLS) ist der häufigste Schätzer. OLS-Schätzungen werden üblicherweise verwendet, um sowohl experimentelle als auch Beobachtungsdaten zu analysieren.

    Die OLS-Methode minimiert die Summe der quadratischen Residuen und führt zu einem Ausdruck in geschlossener Form für den geschätzten Wert des unbekannten Parametervektors β::

    wo

    y{ displaystyle mathbf {y}}

    ist ein Vektor, dessen ichDas Element ist das ichth Beobachtung der abhängigen Variablen und

    X.{ displaystyle mathbf {X}}

    ist eine Matrix, deren ij Element ist das ichth Beobachtung der jth unabhängige Variable. (Hinweis:

    ((X.T.X.)– –1X.T.{ displaystyle ( mathbf {X} ^ { mathsf {T}} mathbf {X}) ^ {- 1} mathbf {X} ^ { mathsf {T}}}

    ist die Moore-Penrose-Inverse.) Der Schätzer ist unvoreingenommen und konsistent, wenn die Fehler eine endliche Varianz aufweisen und nicht mit den Regressoren korrelieren:[1]

    wo

    xich{ displaystyle mathbf {x} _ {i}}

    ist die Transponierte der Zeile ich der Matrix

    X..{ displaystyle mathbf {X}.}

    Es ist auch unter der Annahme effizient, dass die Fehler eine endliche Varianz haben und homoskedastisch sind, was bedeutet, dass E.[εi2|xi] hängt nicht davon ab ich. Die Bedingung, dass die Fehler nicht mit den Regressoren korreliert sind, wird im Allgemeinen in einem Experiment erfüllt, aber im Fall von Beobachtungsdaten ist es schwierig, die Möglichkeit einer ausgelassenen Kovariate auszuschließen z das hängt sowohl mit den beobachteten Kovariaten als auch mit der Antwortvariablen zusammen. Die Existenz einer solchen Kovariate führt im Allgemeinen zu einer Korrelation zwischen den Regressoren und der Antwortvariablen und damit zu einem inkonsistenten Schätzer von β. Der Zustand der Homoskedastizität kann entweder mit experimentellen oder Beobachtungsdaten versagen. Wenn das Ziel entweder Inferenz oder Vorhersagemodellierung ist, kann die Leistung von OLS-Schätzungen schlecht sein, wenn Multikollinearität vorliegt, es sei denn, die Stichprobengröße ist groß.

  • Gewichtete kleinste Quadrate (WLS) werden verwendet, wenn Heteroskedastizität in den Fehlerausdrücken des Modells vorhanden ist.
  • Verallgemeinerte kleinste Quadrate (GLS) ist eine Erweiterung der OLS-Methode, die eine effiziente Schätzung von ermöglicht β wenn entweder Heteroskedastizität oder Korrelationen oder beides unter den Fehlertermen des Modells vorhanden sind, solange die Form der Heteroskedastizität und Korrelation unabhängig von den Daten bekannt ist. Um mit Heteroskedastizität umzugehen, wenn die Fehlerterme nicht miteinander korreliert sind, minimiert GLS ein gewichtetes Analogon zur Summe der quadratischen Residuen aus der OLS-Regression, wobei das Gewicht für die ichth case ist umgekehrt proportional zu var (εich). Dieser Sonderfall von GLS wird als “gewichtete kleinste Quadrate” bezeichnet. Die GLS-Lösung für das Schätzproblem ist

    wo Ω ist die Kovarianzmatrix der Fehler. GLS kann als Anwendung einer linearen Transformation auf die Daten angesehen werden, so dass die Annahmen von OLS für die transformierten Daten erfüllt werden. Damit GLS angewendet werden kann, muss die Kovarianzstruktur der Fehler bis zu einer multiplikativen Konstante bekannt sein.

Alternative Formulierungen[edit]

Andere Formulierungen umfassen:

  • Iterativ gewichtete kleinste Quadrate neu gewichtet (IRLS) wird verwendet, wenn Heteroskedastizität oder Korrelationen oder beides unter den Fehlertermen des Modells vorhanden sind, jedoch nur wenig über die Kovarianzstruktur der Fehler unabhängig von den Daten bekannt ist.[2] In der ersten Iteration wird OLS oder GLS mit einer vorläufigen Kovarianzstruktur ausgeführt, und die Residuen werden aus der Anpassung erhalten. Basierend auf den Residuen kann normalerweise eine verbesserte Schätzung der Kovarianzstruktur der Fehler erhalten werden. Eine nachfolgende GLS-Iteration wird dann unter Verwendung dieser Schätzung der Fehlerstruktur durchgeführt, um die Gewichte zu definieren. Der Prozess kann bis zur Konvergenz iteriert werden, aber in vielen Fällen reicht nur eine Iteration aus, um eine effiziente Schätzung von zu erreichen β.[3][4]
  • Instrumentelle Variablen Regression (IV) kann durchgeführt werden, wenn die Regressoren mit den Fehlern korreliert sind. In diesem Fall brauchen wir ein Hilfsmittel instrumentelle Variablen zich so dass E.[ziεi] = 0. Wenn Z. Ist die Matrix der Instrumente, dann kann der Schätzer in geschlossener Form als angegeben werden

    Optimale Instrumente Regression ist eine Erweiterung der klassischen IV-Regression auf die Situation, in der E.[εi | zi] = 0.

  • Insgesamt kleinste Quadrate (TLS)[5] ist ein Ansatz zur Schätzung der kleinsten Quadrate des linearen Regressionsmodells, bei dem die Kovariaten und die Antwortvariable geometrisch symmetrischer behandelt werden als bei OLS. Dies ist ein Ansatz zur Behandlung des Problems “Fehler in Variablen” und wird manchmal auch dann verwendet, wenn angenommen wird, dass die Kovariaten fehlerfrei sind.

Und dazu, Prozentsatz der kleinsten Quadrate konzentriert sich auf die Reduzierung prozentualer Fehler, was im Bereich der Prognose oder Zeitreihenanalyse nützlich ist. Dies ist auch in Situationen nützlich, in denen die abhängige Variable einen großen Bereich ohne konstante Varianz aufweist, da hier die größeren Residuen am oberen Ende des Bereichs dominieren würden, wenn OLS verwendet würde. Wenn der prozentuale oder relative Fehler normal verteilt ist, liefert die prozentuale Regression der kleinsten Quadrate Schätzungen der maximalen Wahrscheinlichkeit. Die prozentuale Regression ist mit einem multiplikativen Fehlermodell verknüpft, während OLS mit Modellen verknüpft ist, die einen additiven Fehlerterm enthalten.[6]

Bei eingeschränkten kleinsten Quadraten ist man daran interessiert, ein lineares Problem der kleinsten Quadrate mit einer zusätzlichen Einschränkung der Lösung zu lösen.

Zielfunktion[edit]

In OLS (dh unter Annahme ungewichteter Beobachtungen) wird der optimale Wert der Zielfunktion durch Ersetzen des Koeffizientenvektors durch den optimalen Ausdruck ermittelt:

wo

H.=X.((X.T.X.)– –1X.T.{ displaystyle mathbf {H} = mathbf {X} ( mathbf {X} ^ { mathsf {T}} mathbf {X}) ^ {- 1} mathbf {X} ^ { mathsf {T. }}}

, die letztere Gleichheit gilt seitdem

((ich– –H.){ displaystyle ( mathbf {I} – mathbf {H})}

ist symmetrisch und idempotent. Daraus kann gezeigt werden[7] dass bei entsprechender Gewichtszuordnung der erwartete Wert von S. ist m– – n . Wenn stattdessen Einheitsgewichte angenommen werden, wird der erwartete Wert von S. ist

((m– –n)σ2{ displaystyle (mn) sigma ^ {2}}

, wo

σ2{ displaystyle sigma ^ {2}}

ist die Varianz jeder Beobachtung.

Wenn angenommen wird, dass die Residuen zu einer Normalverteilung gehören, gehört die Zielfunktion, die eine Summe der gewichteten quadratischen Residuen ist, zu einem Chi-Quadrat (

χ2{ displaystyle chi ^ {2}}

) Verteilung mit m – – nFreiheitsgrade. Einige veranschaulichende Perzentilwerte von

χ2{ displaystyle chi ^ {2}}

sind in der folgenden Tabelle angegeben.[8]

Diese Werte können für ein statistisches Kriterium hinsichtlich der Anpassungsgüte verwendet werden. Wenn Einheitsgewichte verwendet werden, sollten die Zahlen durch die Varianz einer Beobachtung geteilt werden.

Für WLS wird die obige gewöhnliche Zielfunktion durch einen gewichteten Durchschnitt der Residuen ersetzt.

Diskussion[edit]

In Statistik und Mathematik lineare kleinste Quadrate ist ein Ansatz zum Anpassen eines mathematischen oder statistischen Modells an Daten in Fällen, in denen der vom Modell für einen Datenpunkt bereitgestellte idealisierte Wert linear als unbekannte Parameter des Modells ausgedrückt wird. Das resultierende angepasste Modell kann verwendet werden, um die Daten zusammenzufassen, nicht beobachtete Werte aus demselben System vorherzusagen und die Mechanismen zu verstehen, die dem System zugrunde liegen können.

Mathematisch gesehen sind lineare kleinste Quadrate das Problem der ungefähren Lösung eines überbestimmten linearen Gleichungssystems EIN x = b, wo b ist kein Element des Spaltenraums der Matrix EIN. Die ungefähre Lösung wird als exakte Lösung zu realisiert EIN x = b ‘, wo b ‘ ist die Projektion von b auf den Spaltenraum von EIN. Die beste Annäherung ist dann die, die die Summe der quadratischen Differenzen zwischen den Datenwerten und ihren entsprechenden modellierten Werten minimiert. Der Ansatz heißt linearkleinste Quadrate, da die angenommene Funktion in den zu schätzenden Parametern linear ist. Probleme mit linearen kleinsten Quadraten sind konvex und haben eine einzigartige Lösung in geschlossener Form, vorausgesetzt, die Anzahl der zum Anpassen verwendeten Datenpunkte entspricht oder überschreitet die Anzahl unbekannter Parameter, außer in speziellen entarteten Situationen. Im Gegensatz dazu müssen nichtlineare Probleme der kleinsten Quadrate im Allgemeinen durch ein iteratives Verfahren gelöst werden, und die Probleme können mit mehreren Optima für die Zielfunktion nicht konvex sein. Wenn vorherige Verteilungen verfügbar sind, kann mit dem Bayes’schen MMSE-Schätzer sogar ein unterbestimmtes System gelöst werden.

In der Statistik entsprechen lineare Probleme der kleinsten Quadrate einem besonders wichtigen Typ eines statistischen Modells, der als lineare Regression bezeichnet wird und als eine bestimmte Form der Regressionsanalyse auftritt. Eine Grundform eines solchen Modells ist ein gewöhnliches Modell der kleinsten Quadrate. Der vorliegende Artikel konzentriert sich auf die mathematischen Aspekte linearer Probleme der kleinsten Quadrate, wobei die Formulierung und Interpretation statistischer Regressionsmodelle und die damit verbundenen statistischen Schlussfolgerungen in den gerade erwähnten Artikeln behandelt werden. Eine Übersicht über das Thema finden Sie unter Übersicht über die Regressionsanalyse.

Eigenschaften[edit]

Wenn die experimentellen Fehler,

ϵ{ displaystyle epsilon ,}

sind unkorreliert, haben einen Mittelwert von Null und eine konstante Varianz,

σ{ displaystyle sigma}

Der Gauß-Markov-Satz besagt, dass der Schätzer der kleinsten Quadrate,

β^{ displaystyle { hat { boldsymbol { beta}}}}

hat die minimale Varianz aller Schätzer, die lineare Kombinationen der Beobachtungen sind. In diesem Sinne ist es der beste oder optimale Schätzer der Parameter. Beachten Sie insbesondere, dass diese Eigenschaft unabhängig von der statistischen Verteilungsfunktion der Fehler ist. Mit anderen Worten, Die Verteilungsfunktion der Fehler muss keine Normalverteilung sein. Für einige Wahrscheinlichkeitsverteilungen gibt es jedoch keine Garantie dafür, dass die Lösung der kleinsten Quadrate angesichts der Beobachtungen überhaupt möglich ist. In solchen Fällen ist es jedoch der beste Schätzer, der sowohl linear als auch unvoreingenommen ist.

Zum Beispiel ist es leicht zu zeigen, dass das arithmetische Mittel eines Satzes von Messungen einer Größe der Schätzer der kleinsten Quadrate des Wertes dieser Größe ist. Wenn die Bedingungen des Gauß-Markov-Theorems zutreffen, ist das arithmetische Mittel unabhängig von der Verteilung der Messfehler optimal.

Für den Fall, dass die experimentellen Fehler zu einer Normalverteilung gehören, ist der Schätzer der kleinsten Quadrate auch ein Schätzer für die maximale Wahrscheinlichkeit.[9]

Diese Eigenschaften untermauern die Verwendung der Methode der kleinsten Quadrate für alle Arten der Datenanpassung, auch wenn die Annahmen nicht streng gültig sind.

Einschränkungen[edit]

Eine der oben angegebenen Behandlung zugrunde liegende Annahme ist, dass die unabhängige Variable, x ist fehlerfrei. In der Praxis sind die Fehler bei den Messungen der unabhängigen Variablen normalerweise viel kleiner als die Fehler bei der abhängigen Variablen und können daher ignoriert werden. Wenn dies nicht der Fall ist, werden die kleinsten Quadrate oder allgemeiner Fehler-in-Variablen-Modelle oder rigorose kleinste Quadrate, sollte benutzt werden. Dies kann erreicht werden, indem das Gewichtungsschema angepasst wird, um Fehler sowohl bei den abhängigen als auch bei den unabhängigen Variablen zu berücksichtigen, und dann dem Standardverfahren gefolgt wird.[10][11]

In einigen Fällen die (gewichtete) Normalgleichungsmatrix X.T.X. ist schlecht konditioniert. Bei der Anpassung von Polynomen ist die Normalgleichungsmatrix eine Vandermonde-Matrix. Vandermonde-Matrizen werden mit zunehmender Reihenfolge der Matrix zunehmend schlecht konditioniert.[citation needed] In diesen Fällen verstärkt die Schätzung der kleinsten Quadrate das Messrauschen und kann stark ungenau sein.[citation needed] In solchen Fällen können verschiedene Regularisierungstechniken angewendet werden, von denen die häufigste als Gratregression bezeichnet wird. Wenn weitere Informationen zu den Parametern bekannt sind, beispielsweise ein Bereich möglicher Werte von

β^{ displaystyle mathbf { hat { boldsymbol { beta}}}}

Dann können verschiedene Techniken verwendet werden, um die Stabilität der Lösung zu erhöhen. Siehe beispielsweise eingeschränkte kleinste Quadrate.

Ein weiterer Nachteil des Schätzers der kleinsten Quadrate ist die Tatsache, dass die Norm der Residuen,

y– –X.β^{ displaystyle | mathbf {y} -X { hat { boldsymbol { beta}}} |}

wird minimiert, während man in einigen Fällen wirklich daran interessiert ist, einen kleinen Fehler im Parameter zu erhalten

β^{ displaystyle mathbf { hat { boldsymbol { beta}}}}

zB ein kleiner Wert von

β– –β^{ displaystyle | { boldsymbol { beta}} – { hat { boldsymbol { beta}}} |}

.[citation needed] Da jedoch der wahre Parameter

β{ displaystyle { boldsymbol { beta}}}

ist notwendigerweise unbekannt, kann diese Menge nicht direkt minimiert werden. Wenn eine vorherige Wahrscheinlichkeit auf

β^{ displaystyle { hat { boldsymbol { beta}}}}

bekannt ist, kann dann ein Bayes-Schätzer verwendet werden, um den mittleren quadratischen Fehler zu minimieren,

E.{β– –β^2}}{ displaystyle E left { | { boldsymbol { beta}} – { hat { boldsymbol { beta}}} | ^ {2} right }}

. Die Methode der kleinsten Quadrate wird häufig angewendet, wenn kein Prior bekannt ist. Überraschenderweise können, wenn mehrere Parameter gemeinsam geschätzt werden, bessere Schätzer konstruiert werden, ein Effekt, der als Stein-Phänomen bekannt ist. Wenn der Messfehler beispielsweise Gaußsch ist, sind mehrere Schätzer bekannt, die die Technik der kleinsten Quadrate dominieren oder übertreffen. Am bekanntesten ist der James-Stein-Schätzer. Dies ist ein Beispiel für allgemeinere Schrumpfungsschätzer, die auf Regressionsprobleme angewendet wurden.

Anwendungen[edit]

  • Polynomanpassung: Modelle sind Polynome in einer unabhängigen Variablen. x ::
    • Gerade Linie:
    • Quadratisch:
    • Kubische, quartische und höhere Polynome. Für die Regression mit Polynomen höherer Ordnung wird die Verwendung von orthogonalen Polynomen empfohlen.[13]
  • Numerische Glättung und Differenzierung – dies ist eine Anwendung der Polynomanpassung.
  • Multinomiale in mehr als einer unabhängigen Variablen, einschließlich Oberflächenanpassung
  • Kurvenanpassung mit B-Splines [10]
  • Chemometrie, Kalibrierungskurve, Standardaddition, Gran-Plot, Analyse von Gemischen

Verwendung bei der Datenanpassung[edit]

Die primäre Anwendung der linearen kleinsten Quadrate liegt in der Datenanpassung. Gegeben eine Reihe von mDatenpunkte

y1,y2,,ym,{ displaystyle y_ {1}, y_ {2}, dots, y_ {m},}

bestehend aus experimentell gemessenen Werten bei mWerte

x1,x2,,xm{ displaystyle x_ {1}, x_ {2}, dots, x_ {m}}

einer unabhängigen Variablen (

xich{ displaystyle x_ {i}}

können skalare oder Vektorgrößen sein) und eine Modellfunktion erhalten

y=f((x,β),{ displaystyle y = f (x, { boldsymbol { beta}}),}

mit

β=((β1,β2,,βn),{ displaystyle { boldsymbol { beta}} = ( beta _ {1}, beta _ {2}, dots, beta _ {n}),}

es ist erwünscht, die Parameter zu finden

βj{ displaystyle beta _ {j}}

so dass die Modellfunktion “am besten” zu den Daten passt. In linearen kleinsten Quadraten soll Linearität in Bezug auf Parameter sein

βj,{ displaystyle beta _ {j},}

damit

Hier die Funktionen

φj{ displaystyle varphi _ {j}}

könnte sein nichtlinear in Bezug auf die Variable x.

Im Idealfall passt die Modellfunktion genau zu den Daten

für alle

ich=1,2,,m.{ displaystyle i = 1,2, dots, m.}

Dies ist in der Praxis normalerweise nicht möglich, da mehr Datenpunkte als Parameter zu bestimmen sind. Der dann gewählte Ansatz besteht darin, den minimal möglichen Wert der Summe der Quadrate der Residuen zu finden

um die Funktion zu minimieren

Nach dem Ersetzen für

rich{ displaystyle r_ {i}}

und dann für

f{ displaystyle f}

wird dieses Minimierungsproblem zum quadratischen Minimierungsproblem oben mit

und die beste Anpassung kann durch Lösen der normalen Gleichungen gefunden werden.

Beispiel[edit]

Eine grafische Darstellung der Datenpunkte (in Rot), der Linie der kleinsten Quadrate mit der besten Anpassung (in Blau) und der Residuen (in Grün).

Als Ergebnis eines Experiments vier

((x,y){ displaystyle (x, y)}

Datenpunkte wurden erhalten,

((1,6),{ displaystyle (1,6),}

((2,5),{ displaystyle (2,5),}

((3,7),{ displaystyle (3,7),}

und

((4,10){ displaystyle (4,10)}

(im Diagramm rechts rot dargestellt). Wir hoffen, eine Linie zu finden

y=β1+β2x{ displaystyle y = beta _ {1} + beta _ {2} x}

das passt am besten zu diesen vier Punkten. Mit anderen Worten, wir möchten die Zahlen finden

β1{ displaystyle beta _ {1}}

und

β2{ displaystyle beta _ {2}}

das löst ungefähr das überbestimmte lineare System

von vier Gleichungen in zwei Unbekannten in einem “besten” Sinne.

Der Rest an jedem Punkt zwischen der Kurvenanpassung und den Daten ist die Differenz zwischen der rechten und der linken Seite der obigen Gleichungen. Der Ansatz der kleinsten Quadrate zur Lösung dieses Problems besteht darin, die Summe der Quadrate dieser Residuen so klein wie möglich zu halten. das heißt, das Minimum der Funktion zu finden

Das Minimum wird durch Berechnung der partiellen Ableitungen von bestimmt

S.((β1,β2){ displaystyle S ( beta _ {1}, beta _ {2})}

in Gedenken an

β1{ displaystyle beta _ {1}}

und

β2{ displaystyle beta _ {2}}

und setzen sie auf Null

Dies führt zu einem System von zwei Gleichungen in zwei Unbekannten, den normalen Gleichungen, die, wenn sie gelöst werden, ergeben

und die Gleichung

y=3.5+1.4x{ displaystyle y = 3.5 + 1.4x}

ist die Linie der besten Passform. Die Residuen, dh die Unterschiede zwischen den

y{ displaystyle y}

Werte aus den Beobachtungen und der

y{ displaystyle y}

Es wird dann festgestellt, dass prädizierte Variablen unter Verwendung der Linie der besten Anpassung sind

1.1,{ displaystyle 1.1,}

– –1.3,{ displaystyle -1.3,}

– –0,7,{ displaystyle -0.7,}

und

0,9{ displaystyle 0.9}

(siehe Abbildung rechts). Der Minimalwert der Quadratsumme der Residuen ist

S.((3.5,1.4)=1.12+((– –1.3)2+((– –0,7)2+0,92=4.2.{ displaystyle S (3.5,1.4) = 1.1 ^ {2} + (- 1.3) ^ {2} + (- 0.7) ^ {2} + 0.9 ^ {2} = 4.2.}

Allgemeiner kann man haben

n{ displaystyle n}

Regressoren

xj{ displaystyle x_ {j}}

und ein lineares Modell

Verwendung eines quadratischen Modells[edit]

Wichtig ist, dass wir in “linearen kleinsten Quadraten” nicht darauf beschränkt sind, eine Linie als Modell zu verwenden, wie im obigen Beispiel. Zum Beispiel hätten wir das eingeschränkte quadratische Modell wählen können

y=β1x2{ displaystyle y = beta _ {1} x ^ {2}}

. Dieses Modell ist in der noch linear

β1{ displaystyle beta _ {1}}

Parameter, so dass wir immer noch die gleiche Analyse durchführen können, indem wir ein Gleichungssystem aus den Datenpunkten konstruieren:

Die partiellen Ableitungen in Bezug auf die Parameter (diesmal gibt es nur einen) werden erneut berechnet und auf 0 gesetzt:

S.β1=0=708β1– –498{ displaystyle { frac { partielles S} { partielles beta _ {1}}} = 0 = 708 beta _ {1} -498}

und gelöst

β1=0,703{ displaystyle beta _ {1} = 0.703}

Dies führt zu dem resultierenden Best-Fit-Modell

y=0,703x2.{ displaystyle y = 0.703x ^ {2}.}

Siehe auch[edit]

Verweise[edit]

  1. ^ Lai, TL; Robbins, H.; Wei, CZ (1978). “Starke Konsistenz der Schätzungen der kleinsten Quadrate bei multipler Regression”. PNAS. 75 (7): 3034–3036. Bibcode:1978PNAS … 75.3034L. doi:10.1073 / pnas.75.7.3034. JSTOR 68164. PMC 392707. PMID 16592540.
  2. ^ del Pino, Guido (1989). “Die einheitliche Rolle iterativer verallgemeinerter kleinster Quadrate in statistischen Algorithmen”. Statistische Wissenschaft. 4 (4): 394–403. doi:10.1214 / ss / 1177012408. JSTOR 2245853.
  3. ^ Carroll, Raymond J. (1982). “Anpassung an Heteroskedastizität in linearen Modellen”. Die Annalen der Statistik. 10 (4): 1224–1233. doi:10.1214 / aos / 1176345987. JSTOR 2240725.
  4. ^ Cohen, Michael; Dalal, Siddhartha R.; Tukey, John W. (1993). “Robuste, reibungslos heterogene Varianzregression”. Zeitschrift der Royal Statistical Society, Reihe C.. 42 (2): 339–353. JSTOR 2986237.
  5. ^ Nievergelt, Yves (1994). “Total Least Squares: Regression auf dem neuesten Stand der Technik in der numerischen Analyse”. SIAM Review. 36 (2): 258–264. doi:10.1137 / 1036055. JSTOR 2132463.
  6. ^ Tofallis, C (2009). “Regression der kleinsten Quadrate in Prozent”. Zeitschrift für moderne angewandte statistische Methoden. 7: 526–534. doi:10.2139 / ssrn.1406472. SSRN 1406472.
  7. ^ Hamilton, WC (1964). Statistik in der Physik. New York: Ronald Press.
  8. ^ Spiegel, Murray R. (1975). Schaums Überblick über Theorie und Probleme der Wahrscheinlichkeit und Statistik. New York: McGraw-Hill. ISBN 978-0-585-26739-5.
  9. ^ Margenau, Henry; Murphy, George Moseley (1956). Die Mathematik der Physik und Chemie. Princeton: Van Nostrand.
  10. ^ ein b Gans, Peter (1992). Datenanpassung in den chemischen Wissenschaften. New York: Wiley. ISBN 978-0-471-93412-7.
  11. ^ Deming, WE (1943). Statistische Anpassung von Daten. New York: Wiley.
  12. ^ Acton, FS (1959). Analyse von linearen Daten. New York: Wiley.
  13. ^ Gast, PG (1961).Numerische Methoden der Kurvenanpassung. Cambridge: Cambridge University Press.[page needed]

Weiterführende Literatur[edit]

  • Bevington, Philip R.; Robinson, Keith D. (2003).Datenreduktion und Fehleranalyse für die Naturwissenschaften. McGraw-Hill. ISBN 978-0-07-247227-1.

Externe Links[edit]


after-content-x4