[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki19\/2021\/01\/08\/steins-beispiel-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki19\/2021\/01\/08\/steins-beispiel-wikipedia\/","headline":"Steins Beispiel – Wikipedia","name":"Steins Beispiel – Wikipedia","description":"before-content-x4 Das Ph\u00e4nomen der gemeinsamen Sch\u00e4tzung ist manchmal streng besser als die serielle Sch\u00e4tzung \u00fcber Parameter hinweg after-content-x4 Steins Beispiel","datePublished":"2021-01-08","dateModified":"2021-01-08","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki19\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki19\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/949cf5d48c28d2b0e253d14fc9ef6a6ec2be1b55","url":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/949cf5d48c28d2b0e253d14fc9ef6a6ec2be1b55","height":"","width":""},"url":"https:\/\/wiki.edu.vn\/wiki19\/2021\/01\/08\/steins-beispiel-wikipedia\/","wordCount":4137,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Das Ph\u00e4nomen der gemeinsamen Sch\u00e4tzung ist manchmal streng besser als die serielle Sch\u00e4tzung \u00fcber Parameter hinweg (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Steins Beispiel (oder Ph\u00e4nomen oder Paradox) ist in der Entscheidungstheorie und der Sch\u00e4tzungstheorie das Ph\u00e4nomen, dass, wenn drei oder mehr Parameter gleichzeitig gesch\u00e4tzt werden, kombinierte Sch\u00e4tzer existieren, die im Durchschnitt genauer sind (dh einen niedrigeren erwarteten mittleren quadratischen Fehler aufweisen) als jede Methode, die die Parameter separat behandelt. Es ist nach Charles Stein von der Stanford University benannt, der das Ph\u00e4nomen 1955 entdeckte.[1]Eine intuitive Erkl\u00e4rung ist, dass die Optimierung f\u00fcr den mittleren quadratischen Fehler von a kombiniert Sch\u00e4tzer ist nicht dasselbe wie Optimieren f\u00fcr die Fehler separater Sch\u00e4tzer der einzelnen Parameter. In der Praxis sollte, wenn der kombinierte Fehler tats\u00e4chlich von Interesse ist, ein kombinierter Sch\u00e4tzer verwendet werden, selbst wenn die zugrunde liegenden Parameter unabh\u00e4ngig sind. Wenn man stattdessen daran interessiert ist, einen einzelnen Parameter zu sch\u00e4tzen, hilft die Verwendung eines kombinierten Sch\u00e4tzers nicht und ist in der Tat schlechter.Table of Contents (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Formelle Stellungnahme[edit]Implikationen[edit]Eine intuitive Erkl\u00e4rung[edit]Siehe auch[edit]Verweise[edit]Formelle Stellungnahme[edit]Das Folgende ist vielleicht die einfachste Form des Paradoxons, der Sonderfall, in dem die Anzahl der Beobachtungen gleich der Anzahl der zu sch\u00e4tzenden Parameter ist. Lassen \u03b8 sei ein Vektor bestehend aus n \u2265 3 unbekannte Parameter. Um diese Parameter abzusch\u00e4tzen, eine einzelne Messung X.ich wird f\u00fcr jeden Parameter durchgef\u00fchrt \u03b8ich, was zu einem Vektor f\u00fchrt X. von L\u00e4nge n. Angenommen, die Messungen sind als unabh\u00e4ngige Gau\u00dfsche Zufallsvariablen mit Mittelwert bekannt \u03b8 und Varianz 1, dhX.\u223cN.((\u03b8,1).{ displaystyle { mathbf {X}} sim N ({ boldsymbol { theta}}, 1).}Somit wird jeder Parameter unter Verwendung einer einzelnen verrauschten Messung gesch\u00e4tzt, und jede Messung ist gleicherma\u00dfen ungenau.Unter diesen Bedingungen ist es intuitiv und \u00fcblich, jede Messung als Sch\u00e4tzung des entsprechenden Parameters zu verwenden. Diese sogenannte “gew\u00f6hnliche” Entscheidungsregel kann wie folgt geschrieben werden (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4\u03b8^=X..{ displaystyle { hat { boldsymbol { theta}}} = { mathbf {X}}.}Die Qualit\u00e4t eines solchen Sch\u00e4tzers wird an seiner Risikofunktion gemessen. Eine h\u00e4ufig verwendete Risikofunktion ist der mittlere quadratische Fehler, definiert alsE.\u2061[\u2016\u03b8\u2212\u03b8^\u20162].{ displaystyle operatorname {E} left[left|{boldsymbol {theta }}-{hat {boldsymbol {theta }}}right|^{2}right].}\u00dcberraschenderweise stellt sich heraus, dass der oben vorgeschlagene “gew\u00f6hnliche” Sch\u00e4tzer hinsichtlich des mittleren quadratischen Fehlers suboptimal ist, wenn n \u2265 3. Mit anderen Worten, in der hier diskutierten Einstellung gibt es alternative Sch\u00e4tzer, die immer niedriger erreichen bedeuten quadratischer Fehler, egal welchen Wert \u03b8{ displaystyle { boldsymbol { theta}}} ist.F\u00fcr ein gegebenes \u03b8 man k\u00f6nnte offensichtlich einen perfekten “Sch\u00e4tzer” definieren, der immer gerecht ist \u03b8, aber dieser Sch\u00e4tzer w\u00e4re schlecht f\u00fcr andere Werte von \u03b8. Die Sch\u00e4tzer von Steins Paradoxon sind selbstverst\u00e4ndlich \u03b8, besser als X. f\u00fcr einige Werte von X. aber notwendigerweise schlimmer f\u00fcr andere (au\u00dfer vielleicht f\u00fcr einen bestimmten \u03b8 Vektor, f\u00fcr den die neue Sch\u00e4tzung immer besser ist als X.). Es ist nur im Durchschnitt, dass sie besser sind.Genauer gesagt, ein Sch\u00e4tzer \u03b8^1{ displaystyle { hat { boldsymbol { theta}}} _ {1}} soll einen anderen Sch\u00e4tzer dominieren \u03b8^2{ displaystyle { hat { boldsymbol { theta}}} _ {2}} if, f\u00fcr alle Werte von \u03b8{ displaystyle { boldsymbol { theta}}}, das Risiko von \u03b8^1{ displaystyle { hat { boldsymbol { theta}}} _ {1}} ist niedriger als oder gleich dem Risiko von \u03b8^2{ displaystyle { hat { boldsymbol { theta}}} _ {2}}, und wenn die Ungleichung f\u00fcr einige streng ist \u03b8{ displaystyle { boldsymbol { theta}}}. Ein Sch\u00e4tzer gilt als zul\u00e4ssig, wenn ihn kein anderer Sch\u00e4tzer beherrscht, andernfalls unzul\u00e4ssig. Somit kann Steins Beispiel einfach wie folgt angegeben werden: Die gew\u00f6hnliche Entscheidungsregel zur Sch\u00e4tzung des Mittelwerts einer multivariaten Gau\u00dfschen Verteilung ist unter dem mittleren quadratischen Fehlerrisiko unzul\u00e4ssig.Viele einfache, praktische Sch\u00e4tzer erzielen eine bessere Leistung als der gew\u00f6hnliche Sch\u00e4tzer. Das bekannteste Beispiel ist der James-Stein-Sch\u00e4tzer, der ab beginnt X. und Bewegen zu einem bestimmten Punkt (wie dem Ursprung) um einen Betrag, der umgekehrt proportional zur Entfernung von ist X. von diesem Punkt.Eine Skizze des Beweises dieses Ergebnisses finden Sie unter Beweis von Steins Beispiel. Ein alternativer Beweis geht an Larry Brown: Er hat bewiesen, dass der gew\u00f6hnliche Sch\u00e4tzer f\u00fcr a n-dimensionaler multivariater Normalmittelvektor ist genau dann zul\u00e4ssig, wenn der n-dimensionale Brownsche Bewegung ist wiederkehrend.[2] Da die Brownsche Bewegung f\u00fcr nicht wiederkehrend ist n \u2265 3 ist der gew\u00f6hnliche Sch\u00e4tzer f\u00fcr nicht zul\u00e4ssig n \u2265 3.Implikationen[edit]Steins Beispiel ist \u00fcberraschend, da die “gew\u00f6hnliche” Entscheidungsregel intuitiv ist und h\u00e4ufig verwendet wird. Tats\u00e4chlich f\u00fchren zahlreiche Verfahren zur Sch\u00e4tzerkonstruktion, einschlie\u00dflich der Maximum-Likelihood-Sch\u00e4tzung, der besten linearen unverzerrten Sch\u00e4tzung, der Sch\u00e4tzung der kleinsten Quadrate und der optimalen \u00e4quivarianten Sch\u00e4tzung, alle zu dem “gew\u00f6hnlichen” Sch\u00e4tzer. Wie oben diskutiert, ist dieser Sch\u00e4tzer jedoch nicht optimal.Betrachten Sie das folgende reale Beispiel, um die Unintuitivit\u00e4t von Steins Beispiel zu demonstrieren. Nehmen wir an, wir sch\u00e4tzen drei unabh\u00e4ngige Parameter, wie den US-Weizenertrag f\u00fcr 1993, die Anzahl der Zuschauer beim Wimbledon-Tennisturnier im Jahr 2001 und das Gewicht eines zuf\u00e4llig ausgew\u00e4hlten Schokoriegels aus dem Supermarkt. Angenommen, wir haben unabh\u00e4ngige Gau\u00dfsche Messungen f\u00fcr jede dieser Gr\u00f6\u00dfen. Steins Beispiel zeigt uns nun, dass wir eine bessere Sch\u00e4tzung (im Durchschnitt) f\u00fcr den Vektor von drei Parametern erhalten k\u00f6nnen, indem wir gleichzeitig die drei nicht verwandten Messungen verwenden.Auf den ersten Blick scheint es, dass wir irgendwie einen besseren Sch\u00e4tzer f\u00fcr den US-Weizenertrag erhalten, indem wir einige andere unabh\u00e4ngige Statistiken messen, wie die Anzahl der Zuschauer in Wimbledon und das Gewicht eines Schokoriegels. Das ist nat\u00fcrlich absurd; Wir haben selbst keinen besseren Sch\u00e4tzer f\u00fcr den US-Weizenertrag erhalten, aber wir haben einen Sch\u00e4tzer f\u00fcr den Vektor der Mittelwerte aller drei Zufallsvariablen erstellt, der sich verringert gesamt Risiko. Dies liegt daran, dass die Kosten einer schlechten Sch\u00e4tzung in einer Komponente des Vektors durch eine bessere Sch\u00e4tzung in einer anderen Komponente kompensiert werden. Au\u00dferdem ist ein bestimmter Satz der drei mit dem neuen Sch\u00e4tzer erhaltenen gesch\u00e4tzten Mittelwerte nicht unbedingt besser als der gew\u00f6hnliche Satz (die gemessenen Werte). Nur im Durchschnitt ist der neue Sch\u00e4tzer besser.Eine intuitive Erkl\u00e4rung[edit]F\u00fcr einen bestimmten Wert von \u03b8 Der neue Sch\u00e4tzer verbessert mindestens einen der einzelnen mittleren quadratischen Fehler E.\u2061[(\u03b8i\u2212\u03b8^i)2].{ displaystyle operatorname {E} left[left({theta _{i}}-{{hat {theta }}_{i}}right)^{2}right].} Das ist nicht schwer – zum Beispiel, wenn \u03b81{ displaystyle theta _ {1}} liegt zwischen -1 und 1 und \u03c3 = 1, dann bewegt sich ein Sch\u00e4tzer X.1{ displaystyle X_ {1}} gegen 0 um 0,5 (oder setzt es auf Null, wenn sein absoluter Wert kleiner als 0,5 war) hat einen niedrigeren mittleren quadratischen Fehler als X.1{ displaystyle X_ {1}} selbst. Es gibt aber auch andere Werte von \u03b81{ displaystyle theta _ {1}} f\u00fcr die dieser Sch\u00e4tzer schlechter ist als X.1{ displaystyle X_ {1}} selbst. Der Trick des Stein-Sch\u00e4tzers und anderer, die das Stein-Paradoxon ergeben, besteht darin, dass sie die Verschiebung so anpassen, dass es immer (f\u00fcr jeden) gibt \u03b8 Vektor) mindestens eine X.ich{ displaystyle X_ {i}} deren mittlerer quadratischer Fehler verbessert wird und dessen Verbesserung eine Verschlechterung des mittleren quadratischen Fehlers, die bei einem anderen auftreten k\u00f6nnte, mehr als kompensiert \u03b8^ich{ displaystyle { hat { theta}} _ {i}}. Das Problem ist, ohne es zu wissen \u03b8Sie wissen nicht, welche der n Die mittleren quadratischen Fehler werden verbessert, sodass Sie den Stein-Sch\u00e4tzer nicht nur f\u00fcr diese Parameter verwenden k\u00f6nnen.Ein Beispiel f\u00fcr die obige Einstellung tritt beispielsweise bei der Kanalsch\u00e4tzung in der Telekommunikation auf, weil verschiedene Faktoren die Gesamtkanalleistung beeinflussen.Siehe auch[edit]Verweise[edit]Efron, B.; Morris, C. (1977), “Steins Paradoxon in der Statistik” (PDF), Wissenschaftlicher Amerikaner, 236 (5): 119\u2013127, doi:10.1038 \/ Scientificamerican0577-119Lehmann, EL; Casella, G. (1998), “ch.5”, Theorie der Punktsch\u00e4tzung (2. Aufl.), ISBN 0-471-05849-1Stein, C. (1956). “Unzul\u00e4ssigkeit des \u00fcblichen Sch\u00e4tzers f\u00fcr den Mittelwert einer multivariaten Verteilung”. Vortr\u00e4ge des dritten Berkeley-Symposiums f\u00fcr mathematische Statistik und Wahrscheinlichkeit. 1. S. 197\u2013206. HERR 0084922.Samworth, RJ (2012), “Steins Paradoxon” (PDF), Eureka, 62: 38\u201341 (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki19\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki19\/2021\/01\/08\/steins-beispiel-wikipedia\/#breadcrumbitem","name":"Steins Beispiel – Wikipedia"}}]}]