Moment (Mathematik) – Wikipedia

In der Mathematik ist die Momente einer Funktion sind quantitative Maße, die sich auf die Form des Funktionsgraphen beziehen. Das Konzept wird sowohl in der Mechanik als auch in der Statistik verwendet. Wenn die Funktion Masse darstellt, ist das nullte Moment die Gesamtmasse, das erste Moment geteilt durch die Gesamtmasse ist der Schwerpunkt und das zweite Moment ist die Rotationsträgheit. Wenn die Funktion eine Wahrscheinlichkeitsverteilung ist, ist das nullte Moment die Gesamtwahrscheinlichkeit (dh eins), das erste Moment ist der erwartete Wert, das zweite zentrale Moment ist die Varianz, das dritte standardisierte Moment ist die Schiefe und das vierte standardisierte Moment ist die Kurtosis. Das mathematische Konzept ist eng mit dem Konzept des Moments in der Physik verwandt.

Für eine Verteilung der Masse oder Wahrscheinlichkeit in einem begrenzten Intervall wird die Sammlung aller Momente (aller Ordnungen, aus 0 zu ) bestimmt eindeutig die Verteilung (Hausdorff-Momentproblem). Gleiches gilt nicht für unbegrenzte Intervalle (Hamburger Momentproblem).

Bedeutung der Momente[edit]

Das n-th Moment einer reellen stetigen Funktion f((x) einer reellen Variablen über einen Wert c ist

μn=∫– –∞∞((x– –c)nf((x)dx.{ displaystyle mu _ {n} = int _ {- infty} ^ { infty} (xc) ^ {n} , f (x) , mathrm {d} x.}

Es ist möglich, Momente für Zufallsvariablen allgemeiner zu definieren als Momente für reale Werte – siehe Momente in metrischen Räumen. Der Moment einer Funktion bezieht sich ohne weitere Erklärung normalerweise auf den obigen Ausdruck mit c = 0.

Für den zweiten und höheren Moment den zentralen Moment (Momente um den Mittelwert, mit c (Mittelwert) werden normalerweise anstelle der Momente um Null verwendet, da sie klarere Informationen über die Form der Verteilung liefern.

Es können auch andere Momente definiert werden. Zum Beispiel die n-th inverses Moment um Null ist

E.⁡[X−n]{ displaystyle operatorname {E} left[X^{-n}right]}}

und die n-th logarithmisches Moment um Null ist

E.⁡[lnn⁡(X)].{ displaystyle operatorname {E} left[ln ^{n}(X)right].}

Das n-th Moment um Null einer Wahrscheinlichkeitsdichtefunktion f((x) ist der erwartete Wert von X.n und heißt a roher Moment oder roher Moment.[1] Die Momente über seinen Mittelwert μ werden genannt zentral Momente; Diese beschreiben die Form der Funktion unabhängig von der Übersetzung.

Wenn f ist eine Wahrscheinlichkeitsdichtefunktion, dann wird der Wert des obigen Integrals als bezeichnet n-th Moment der Wahrscheinlichkeitsverteilung. Allgemeiner, wenn F. ist eine kumulative Wahrscheinlichkeitsverteilungsfunktion einer beliebigen Wahrscheinlichkeitsverteilung, die möglicherweise keine Dichtefunktion hat, dann die n-th Moment der Wahrscheinlichkeitsverteilung ist durch das Riemann-Stieltjes-Integral gegeben

μn‘=E.⁡[Xn]=∫– –∞∞xndF.((x){ displaystyle mu ‘_ {n} = operatorname {E} left[X^{n}right]= int _ {- infty} ^ { infty} x ^ {n} , mathrm {d} F (x) ,}

wo X. ist eine Zufallsvariable mit dieser kumulativen Verteilung F., und E. ist der Erwartungsoperator oder Mittelwert.

Wann

E.⁡[|Xn|]=∫– –∞∞|xn|dF.((x)=∞,{ displaystyle operatorname {E} left[left|X^{n}right|right]= int _ {- infty} ^ { infty} left | x ^ {n} right | , mathrm {d} F (x) = infty,}

dann soll der Moment nicht existieren. Wenn die n-th Moment über jeden Punkt existiert, so auch die ((n – 1)-th Moment (und damit alle Momente niedrigerer Ordnung) über jeden Punkt.

Das nullte Moment einer Wahrscheinlichkeitsdichtefunktion ist 1, da die Fläche unter einer Wahrscheinlichkeitsdichtefunktion gleich eins sein muss.

Bedeutung von Momenten (roh, zentral, normalisiert) und Kumulanten (roh, normalisiert) in Verbindung mit benannten Eigenschaften von Verteilungen
Moment
Ordinal-
Moment Kumulativ
Roh Zentral Standardisiert Roh Normalisiert
1 Bedeuten 0 0 Bedeuten N / A
2 – – Varianz 1 Varianz 1
3 – – – – Schiefe – – Schiefe
4 – – – – (Nicht überschüssige oder historische) Kurtosis – – Übermäßige Kurtosis
5 – – – – Hyperskewness – – – –
6 – – – – Hypertailedness – – – –
7+ – – – – – – – – – –

Bedeuten[edit]

Der erste rohe Moment ist der Mittelwert, der normalerweise bezeichnet wird

μ≡E.⁡[X].{ displaystyle mu equiv operatorname {E} [X].}

Varianz[edit]

Das zweite zentrale Moment ist die Varianz. Die positive Quadratwurzel der Varianz ist die Standardabweichung

σ≡((E.⁡[(x−μ)2])12.{ displaystyle sigma equiv left ( operatorname {E} left[(x-mu )^{2}right] right) ^ { frac {1} {2}}.}

Standardisierte Momente[edit]

Das normalisiert n-th zentrales Moment oder standardisiertes Moment ist das n-th zentrales Moment geteilt durch σn;; das normalisierte n-th zentrales Moment der Zufallsvariablen X. ist

μnσn=E.⁡[(X−μ)n]σn.{ displaystyle { frac { mu _ {n}} { sigma ^ {n}}} = { frac { operatorname {E} left[(X-mu )^{n}right]} { sigma ^ {n}}}.}

Diese normalisierten zentralen Momente sind dimensionslose Größen, die die Verteilung unabhängig von einer linearen Änderung des Maßstabs darstellen.

Bei einem elektrischen Signal ist das erste Moment der Gleichstrompegel und das zweite Moment proportional zur Durchschnittsleistung.[2][3]

Schiefe[edit]

Das dritte zentrale Moment ist das Maß für die Einseitigkeit der Verteilung; Jede symmetrische Verteilung hat, falls definiert, ein drittes zentrales Moment von Null. Das normalisierte dritte zentrale Moment wird oft als Schiefe bezeichnet γ. Eine Verteilung, die nach links geneigt ist (der Schwanz der Verteilung ist links länger), weist eine negative Schiefe auf. Eine Verteilung, die nach rechts geneigt ist (der Schwanz der Verteilung ist rechts länger), weist eine positive Schiefe auf.

Bei Verteilungen, die sich nicht zu stark von der Normalverteilung unterscheiden, liegt der Median in der Nähe μ – – γσ/ 6;; der Modus über μ – – γσ/ 2.

Kurtosis[edit]

Das vierte zentrale Moment ist ein Maß für die Schwere des Schwanzes der Verteilung im Vergleich zur Normalverteilung derselben Varianz. Da es sich um die Erwartung einer vierten Potenz handelt, ist das vierte zentrale Moment, wo es definiert ist, immer nicht negativ; und bis auf eine Punktverteilung ist sie immer streng positiv. Das vierte zentrale Moment einer Normalverteilung ist 3σ4.

Die Kurtosis κ ist definiert als das standardisierte vierte zentrale Moment (Entsprechend ist wie im nächsten Abschnitt die überschüssige Kurtosis das vierte Kumulans geteilt durch das Quadrat des zweiten Kumulanten.)[4][5] Wenn eine Verteilung schwere Schwänze hat, ist die Kurtosis hoch (manchmal als leptokurtisch bezeichnet); Umgekehrt weisen Verteilungen mit leichtem Schwanz (z. B. begrenzte Verteilungen wie die Uniform) eine niedrige Kurtosis auf (manchmal auch als platykurtisch bezeichnet).

Die Kurtosis kann aber unbegrenzt positiv sein κ muss größer oder gleich sein γ2 + 1;; Gleichheit gilt nur für binäre Verteilungen. Für unbegrenzte Schrägverteilungen, die nicht zu weit vom Normalwert entfernt sind, κ neigt dazu, irgendwo in der Gegend von zu sein γ2 und 2γ2.

Die Ungleichung kann durch Berücksichtigung nachgewiesen werden

E.⁡[(T2−aT−1)2]{ displaystyle operatorname {E} left[left(T^{2}-aT-1right)^{2}right]}}

wo T. = ((X. – – μ) /σ. Dies ist die Erwartung eines Quadrats, daher ist es für alle nicht negativ ein;; es ist jedoch auch ein quadratisches Polynom in ein. Seine Diskriminante darf nicht positiv sein, was die erforderliche Beziehung ergibt.

Gemischte Momente[edit]

Gemischte Momente sind Momente mit mehreren Variablen.

Einige Beispiele sind Kovarianz, Coskewness und Kokurtose. Während es eine einzigartige Kovarianz gibt, gibt es mehrere Co-Skewnesses und Co-Kurtoses.

Höhere Momente[edit]

Momente hoher Ordnung sind Momente jenseits von Momenten 4. Ordnung. Wie bei Varianz, Schiefe und Kurtosis handelt es sich hierbei um Statistiken höherer Ordnung, die nichtlineare Kombinationen der Daten umfassen und zur Beschreibung oder Schätzung weiterer Formparameter verwendet werden können. Je höher der Moment, desto schwieriger ist die Schätzung in dem Sinne, dass größere Stichproben erforderlich sind, um Schätzungen von ähnlicher Qualität zu erhalten. Dies ist auf die übermäßigen Freiheitsgrade zurückzuführen, die die höheren Ordnungen verbrauchen. Darüber hinaus können sie subtil zu interpretieren sein und werden oft am einfachsten anhand von Momenten niedrigerer Ordnung verstanden – vergleichen Sie die höheren Ableitungen von Ruck und Sprung in der Physik. So wie beispielsweise das Moment 4. Ordnung (Kurtosis) als “relative Bedeutung von Schwänzen gegenüber Schultern für die Verursachung von Dispersion” interpretiert werden kann (für eine gegebene Dispersion entspricht eine hohe Kurtosis schweren Schwänzen, während eine niedrige Kurtosis breiten Schultern entspricht). Das Moment 5. Ordnung kann so interpretiert werden, dass es die “relative Bedeutung der Schwänze gegenüber der Mitte (Modus, Schultern) bei der Verursachung von Schräglauf” misst (für einen gegebenen Versatz entspricht das hohe 5. Moment einem schweren Schwanz und einer geringen Bewegung des Modus, während das niedrige 5. Moment entspricht zu mehr Veränderung in den Schultern).

Eigenschaften von Momenten[edit]

Transformation des Zentrums[edit]

Schon seit:

((x– –b)n=((x– –ein+ein– –b)n=∑ich=0n((nich)((x– –ein)ich((ein– –b)n– –ich{ displaystyle (xb) ^ {n} = (x-a + ab) ^ {n} = sum _ {i = 0} ^ {n} {n wähle i} (xa) ^ {i} (ab ) ^ {ni}}

wo

((nich){ displaystyle { dbinom {n} {i}}}

Ist der Binomialkoeffizient, folgt daraus, dass die Momente ungefähr b kann aus den Momenten über berechnet werden ein durch:

E.[(x−b)n]=∑ich=0n((nich)E.[(x−a)i]((ein– –b)n– –ich{ displaystyle E left[(x-b)^{n}right]= sum _ {i = 0} ^ {n} {n wähle i} E left[(x-a)^{i}right](ab) ^ {ni}}

Momente der Faltung von Funktionen[edit]

Der Moment einer Faltung

μn[h]=∑ich=0n((nich)μich[f]μn– –ich[g]{ displaystyle mu _ {n}[h]= sum _ {i = 0} ^ {n} {n wähle i} mu _ {i}[f] mu _ {ni}[g]}}

wo

μn[⋅]{ displaystyle mu _ {n}[cdot ]}}

bezeichnet die

n{ displaystyle n}

th Moment der Funktion in den Klammern angegeben. Diese Identität folgt aus dem Faltungssatz für die Momenterzeugungsfunktion und der Anwendung der Kettenregel zur Differenzierung eines Produkts.

Kumulanten[edit]

Der erste rohe Moment und der zweite und dritte nicht normalisierte zentrale Momente sind additiv in dem Sinne, dass wenn X. und Y. sind dann unabhängige Zufallsvariablen

m1((X.+Y.)=m1((X.)+m1((Y.)Var⁡((X.+Y.)=Var⁡((X.)+Var⁡((Y.)μ3((X.+Y.)=μ3((X.)+μ3((Y.){ displaystyle { begin {align} m_ {1} (X + Y) & = m_ {1} (X) + m_ {1} (Y) \ operatorname {Var} (X + Y) & = Operatorname {Var} (X) + Operatorname {Var} (Y) \ mu _ {3} (X + Y) & = mu _ {3} (X) + mu _ {3} (Y) end {align}}}

(Diese können auch für Variablen gelten, die schwächere Bedingungen als die Unabhängigkeit erfüllen. Die erste gilt immer; wenn die zweite gilt, werden die Variablen als unkorreliert bezeichnet.)

Tatsächlich sind dies die ersten drei Kumulanten, und alle Kumulanten teilen diese Additivitätseigenschaft.

Beispielmomente[edit]

Für alle k, das k-th rohen Moment einer Bevölkerung kann mit dem geschätzt werden k-th Rohprobenmoment

1n∑ich=1nX.ichk{ displaystyle { frac {1} {n}} sum _ {i = 1} ^ {n} X_ {i} ^ {k}}

auf eine Probe angewendet X.1,…, X.n aus der Bevölkerung gezogen.

Es kann gezeigt werden, dass der erwartete Wert des Rohprobenmoments gleich dem ist k-th roher Moment der Bevölkerung, falls dieser Moment existiert, für jede Stichprobengröße n. Es ist somit ein unvoreingenommener Schätzer. Dies steht im Gegensatz zur Situation für zentrale Momente, deren Berechnung einen Freiheitsgrad unter Verwendung des Stichprobenmittelwerts verbraucht. So ist beispielsweise eine unvoreingenommene Schätzung der Populationsvarianz (das zweite zentrale Moment) gegeben durch

1n– –1∑ich=1n((X.ich– –X.¯)2{ displaystyle { frac {1} {n-1}} sum _ {i = 1} ^ {n} left (X_ {i} – { bar {X}} right) ^ {2}}

in dem der vorherige Nenner n wurde durch die Freiheitsgrade ersetzt n – 1und in denen

X.¯{ displaystyle { bar {X}}}

bezieht sich auf den Stichprobenmittelwert. Diese Schätzung des Populationsmoments ist um einen Faktor größer als das nicht angepasste beobachtete Probenmoment

nn– –1,{ displaystyle { tfrac {n} {n-1}},}

und es wird als “angepasste Stichprobenvarianz” oder manchmal einfach als “Stichprobenvarianz” bezeichnet.

Problem der Momente[edit]

Das Problem der Momente sucht nach Charakterisierungen von Sequenzen { μn :: n = 1, 2, 3, …}, die Sequenzen von Momenten einer Funktion sind f.

Teilmomente[edit]

Teilmomente werden manchmal als “einseitige Momente” bezeichnet. Das nuntere und obere Teilmomente der Ordnung in Bezug auf einen Bezugspunkt r kann ausgedrückt werden als

μn– –((r)=∫– –∞r((r– –x)nf((x)dx,{ displaystyle mu _ {n} ^ {-} (r) = int _ {- infty} ^ {r} (rx) ^ {n} , f (x) , mathrm {d} x ,}

μn+((r)=∫r∞((x– –r)nf((x)dx.{ displaystyle mu _ {n} ^ {+} (r) = int _ {r} ^ { infty} (xr) ^ {n} , f (x) , mathrm {d} x. }}

Teilmomente werden normalisiert, indem sie auf die Potenz 1 / angehoben werdenn. Das Aufwärtspotentialverhältnis kann als Verhältnis eines oberen Teilmoments erster Ordnung zu einem normalisierten unteren Teilmoment zweiter Ordnung ausgedrückt werden. Sie wurden bei der Definition einiger Finanzkennzahlen wie der Sortino-Quote verwendet, da sie sich ausschließlich auf Aufwärts- oder Abwärtsbewegungen konzentrieren.

Zentrale Momente in metrischen Räumen[edit]

Lassen ((M., d) sei ein metrischer Raum und lass B (M.) sei der Borel σ-Algebra auf M., das σ-Algebra erzeugt durch die d-offene Teilmengen von M.. (Aus technischen Gründen ist es auch zweckmäßig anzunehmen, dass M. ist ein trennbarer Raum in Bezug auf die Metrik d.) Lassen 1 ≤ p ≤ ∞.

Das pzentraler Moment einer Maßnahme μ auf dem messbaren Raum (M., B (M.)) über einen bestimmten Punkt x0M. ist definiert als

∫M.d((x,x0)pdμ((x).{ displaystyle int _ {M} d left (x, x_ {0} right) ^ {p} , mathrm {d} mu (x).}

μ soll haben endlich p-th zentralen Moment wenn die p-th zentralen Moment von μ Über x0 ist für manche endlich x0M..

Diese Terminologie für Kennzahlen überträgt sich auf übliche Weise auf Zufallsvariablen: if (Ω, Σ, P.) ist ein Wahrscheinlichkeitsraum und X. : Ω → M. ist eine Zufallsvariable, dann die p-th zentralen Moment von X. Über x0M. ist definiert als

∫M.d((x,x0)pd((X.∗((P.))((x)≡∫Ωd((X.((ω),x0)pdP.((ω),{ displaystyle int _ {M} d left (x, x_ {0} right) ^ {p} , mathrm {d} left (X _ {*} left ( mathbf {P} right) ) rechts) (x) äquiv int _ { Omega} d links (X ( omega), x_ {0} rechts) ^ {p} , mathrm {d} mathbf {P} ( omega),}

und X. hat endlich p-th zentralen Moment wenn die p-th zentralen Moment von X. Über x0 ist für manche endlich x0M..

Siehe auch[edit]

Verweise[edit]

Weiterführende Literatur[edit]

Externe Links[edit]