[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/01\/schatzung-der-kerndichte-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/01\/schatzung-der-kerndichte-wikipedia\/","headline":"Sch\u00e4tzung der Kerndichte – Wikipedia","name":"Sch\u00e4tzung der Kerndichte – Wikipedia","description":"In der Statistik Sch\u00e4tzung der Kerneldichte ((KDE) ist eine nicht parametrische Methode zur Sch\u00e4tzung der Wahrscheinlichkeitsdichtefunktion einer Zufallsvariablen. Die Sch\u00e4tzung","datePublished":"2021-01-01","dateModified":"2021-01-01","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki16\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki16\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/2\/2a\/Kernel_density.svg\/250px-Kernel_density.svg.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/2\/2a\/Kernel_density.svg\/250px-Kernel_density.svg.png","height":"200","width":"250"},"url":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/01\/schatzung-der-kerndichte-wikipedia\/","wordCount":14729,"articleBody":" In der Statistik Sch\u00e4tzung der Kerneldichte ((KDE) ist eine nicht parametrische Methode zur Sch\u00e4tzung der Wahrscheinlichkeitsdichtefunktion einer Zufallsvariablen. Die Sch\u00e4tzung der Kerneldichte ist ein grundlegendes Problem der Datengl\u00e4ttung, bei dem R\u00fcckschl\u00fcsse auf die Grundgesamtheit auf der Grundlage einer endlichen Datenstichprobe gezogen werden. In einigen Bereichen wie Signalverarbeitung und \u00d6konometrie wird es auch als bezeichnet Parzen-Rosenblatt-Fenster Methode, nach Emanuel Parzen und Murray Rosenblatt, denen normalerweise zugeschrieben wird, dass sie es in seiner jetzigen Form unabh\u00e4ngig erstellt haben.[1][2] Eine der bekanntesten Anwendungen der Kernel-Dichtesch\u00e4tzung ist die Sch\u00e4tzung der klassenbedingten Randdichten von Daten bei Verwendung eines naiven Bayes-Klassifikators.[3][4] was seine Vorhersagegenauigkeit verbessern kann.[3] Table of ContentsDefinition[edit]Beispiel[edit]Bandbreitenauswahl[edit]Ein Faustregel-Bandbreitensch\u00e4tzer[edit]Beziehung zum charakteristischen Funktionsdichtesch\u00e4tzer[edit]Geometrische und topologische Merkmale[edit]Statistische Implementierung[edit]Siehe auch[edit]Verweise[edit]Externe Links[edit]Definition[edit]Lassen (x1, x2,\u2026, xn) eine univariate unabh\u00e4ngige und identisch verteilte Stichprobe sein, die aus einer Verteilung mit unbekannter Dichte stammt \u0192 zu jedem Zeitpunkt x. Wir sind daran interessiert, die Form dieser Funktion abzusch\u00e4tzen \u0192. Es ist Kernel-Dichtesch\u00e4tzer ist f^h((x)=1n\u2211ich=1nK.h((x– –xich)=1nh\u2211ich=1nK.((x– –xichh),{ displaystyle { widehat {f}} _ {h} (x) = { frac {1} {n}} sum _ {i = 1} ^ {n} K_ {h} (x-x_ {i }) = { frac {1} {nh}} sum _ {i = 1} ^ {n} K { Big (} { frac {x-x_ {i}} {h}} { Big) },}wo K. ist der Kernel – eine nicht negative Funktion – und h > 0 ist ein Gl\u00e4ttungsparameter namens Bandbreite. Ein Kernel mit Index h hei\u00dft das skalierter Kernel und definiert als K.h((x) = 1 \/h K.((x\/.h). Intuitiv m\u00f6chte man w\u00e4hlen h so klein wie es die Daten erlauben; Es gibt jedoch immer einen Kompromiss zwischen der Verzerrung des Sch\u00e4tzers und seiner Varianz. Die Wahl der Bandbreite wird nachstehend ausf\u00fchrlicher er\u00f6rtert.Eine Reihe von Kernelfunktionen wird h\u00e4ufig verwendet: einheitlich, dreieckig, bigewichtig, dreifach, Epanechnikov, normal und andere. Der Epanechnikov-Kernel ist im Sinne eines mittleren quadratischen Fehlers optimal.[5] Der Effizienzverlust ist jedoch f\u00fcr die zuvor aufgef\u00fchrten Kernel gering.[6] Aufgrund seiner praktischen mathematischen Eigenschaften wird h\u00e4ufig der normale Kernel verwendet, was bedeutet K.((x) = \u03d5((x), wo \u03d5 ist die Standardfunktion f\u00fcr normale Dichte.Die Konstruktion einer Kernel-Dichtesch\u00e4tzung findet Interpretationen in Feldern au\u00dferhalb der Dichtesch\u00e4tzung.[7] In der Thermodynamik entspricht dies beispielsweise der W\u00e4rmemenge, die erzeugt wird, wenn W\u00e4rmekerne (die grundlegende L\u00f6sung der W\u00e4rmegleichung) an jedem Datenpunkt platziert werden xich. \u00c4hnliche Methoden werden verwendet, um diskrete Laplace-Operatoren auf Punktwolken f\u00fcr vielf\u00e4ltiges Lernen zu konstruieren (z. B. Diffusionskarte).Beispiel[edit]Kernel-Dichtesch\u00e4tzungen stehen in engem Zusammenhang mit Histogrammen, k\u00f6nnen jedoch durch Verwendung eines geeigneten Kernels mit Eigenschaften wie Gl\u00e4tte oder Kontinuit\u00e4t ausgestattet werden. Ein Beispiel mit 6 Datenpunkten veranschaulicht diesen Unterschied zwischen Histogramm- und Kerneldichtesch\u00e4tzern: Stichprobe123456Wert-2.1-1.3-0,41.95.16.2F\u00fcr das Histogramm wird zun\u00e4chst die horizontale Achse in Unterintervalle oder Bins unterteilt, die den Bereich der Daten abdecken: In diesem Fall sechs Bins mit jeweils der Breite 2. Immer wenn ein Datenpunkt in dieses Intervall f\u00e4llt, wird ein Feld mit der H\u00f6he 1 \/ 12 ist dort platziert. Wenn mehr als ein Datenpunkt in denselben Beh\u00e4lter f\u00e4llt, werden die Boxen \u00fcbereinander gestapelt.F\u00fcr die Sch\u00e4tzung der Kerneldichte wird auf jeden der Datenpunkte ein normaler Kernel mit einer Standardabweichung von 2,25 (angezeigt durch die roten gestrichelten Linien) gelegt xich. Die Kernel werden summiert, um die Sch\u00e4tzung der Kerneldichte vorzunehmen (durchgezogene blaue Kurve). Die Gl\u00e4tte der Kernel-Dichtesch\u00e4tzung (verglichen mit der Diskretion des Histogramms) zeigt, wie Kernel-Dichtesch\u00e4tzungen f\u00fcr kontinuierliche Zufallsvariablen schneller zur tats\u00e4chlichen zugrunde liegenden Dichte konvergieren.[8] Vergleich des Histogramms (links) und der Kernel-Dichtesch\u00e4tzung (rechts), die unter Verwendung derselben Daten erstellt wurden. Die sechs einzelnen Kernel sind die rot gestrichelten Kurven, die Kerndichte sch\u00e4tzt die blauen Kurven. Die Datenpunkte sind das Teppichdiagramm auf der horizontalen Achse.Bandbreitenauswahl[edit] Kernel Density Estimation (KDE) mit unterschiedlichen Bandbreiten einer Zufallsstichprobe von 100 Punkten aus einer Standardnormalverteilung. Grau: wahre Dichte (Standard normal). Rot: KDE mit h = 0,05. Schwarz: KDE mit h = 0,337. Gr\u00fcn: KDE mit h = 2.Die Bandbreite des Kernels ist ein freier Parameter, der einen starken Einfluss auf die resultierende Sch\u00e4tzung hat. Um seine Wirkung zu veranschaulichen, nehmen wir eine simulierte Zufallsstichprobe aus der Standardnormalverteilung (aufgetragen an den blauen Spitzen im Teppichplot auf der horizontalen Achse). Die graue Kurve ist die wahre Dichte (eine normale Dichte mit Mittelwert 0 und Varianz 1). Im Vergleich dazu ist die rote Kurve untergl\u00e4ttet da es zu viele falsche Datenartefakte enth\u00e4lt, die sich aus der Verwendung einer Bandbreite ergeben h = 0,05, was zu klein ist. Die gr\u00fcne Kurve ist \u00fcbergl\u00e4ttet seit der Nutzung der Bandbreite h = 2 verdeckt einen Gro\u00dfteil der zugrunde liegenden Struktur. Die schwarze Kurve mit einer Bandbreite von h = 0,337 wird als optimal gegl\u00e4ttet angesehen, da seine Dichtesch\u00e4tzung nahe an der wahren Dichte liegt. Im Limit tritt eine extreme Situation auf h\u21920{ displaystyle h to 0} (keine Gl\u00e4ttung), wobei die Sch\u00e4tzung eine Summe von ist n Delta-Funktionen, die an den Koordinaten der analysierten Proben zentriert sind. In der anderen extremen Grenze h\u2192\u221e{ displaystyle h to infty} Die Sch\u00e4tzung beh\u00e4lt die Form des verwendeten Kerns bei, zentriert auf den Mittelwert der Proben (vollst\u00e4ndig glatt).Das h\u00e4ufigste Optimalit\u00e4tskriterium zur Auswahl dieses Parameters ist das erwartete L.2Risikofunktion, auch als mittlerer integrierter quadratischer Fehler bezeichnet:MISE\u2061((h)=E.[\u222b(f^h(x)\u2212f(x))2dx].{ displaystyle operatorname {MISE} (h) = operatorname {E} ! left[,int ({hat {f}}_{h}(x)-f(x))^{2},dxright].}Unter schwachen Annahmen auf \u0192 und K., (\u0192 ist die im Allgemeinen unbekannte Funktion der realen Dichte),[1][2]MISE (h) = AMISE (h) + o (1 \/ (nh) + h4) wo \u00d6 ist die kleine Notation. Das AMISE ist das asymptotische MISE, das aus den beiden f\u00fchrenden Begriffen bestehtAMISE\u2061((h)=R.((K.)nh+14m2((K.)2h4R.((f\u2033){ displaystyle operatorname {AMISE} (h) = { frac {R (K)} {nh}} + { frac {1} {4}} m_ {2} (K) ^ {2} h ^ { 4} R (f ”)}wo R.((G)=\u222bG((x)2dx{ displaystyle R (g) = int g (x) ^ {2} , dx} f\u00fcr eine Funktion G, m2((K.)=\u222bx2K.((x)dx{ displaystyle m_ {2} (K) = int x ^ {2} K (x) , dx}und \u0192 ” ist die zweite Ableitung von \u0192. Das Minimum dieser AMISE ist die L\u00f6sung dieser Differentialgleichung\u2202\u2202hAMISE\u2061((h)=– –R.((K.)nh2+m2((K.)2h3R.((f\u2033)=0{ displaystyle { frac { partiell} { partiell h}} operatorname {AMISE} (h) = – { frac {R (K)} {nh ^ {2}}} + m_ {2} (K. ) ^ {2} h ^ {3} R (f ”) = 0}oderhAMISE=R.((K.)1\/.5m2((K.)2\/.5R.((f\u2033)1\/.5n1\/.5.{ displaystyle h _ { operatorname {AMISE}} = { frac {R (K) ^ {1\/5}} {m_ {2} (K) ^ {2\/5} R (f ”) ^ {1 \/ 5} n ^ {1\/5}}}.}Weder die AMISE noch die hAMISE Formeln k\u00f6nnen direkt verwendet werden, da sie die unbekannte Dichtefunktion beinhalten \u0192 oder seine zweite Ableitung \u0192 ”Daher wurde eine Vielzahl von automatischen, datenbasierten Methoden zur Auswahl der Bandbreite entwickelt. Viele \u00dcbersichtsstudien wurden durchgef\u00fchrt, um ihre Wirksamkeit zu vergleichen.[9][10][11][12][13][14][15] mit dem allgemeinen Konsens, dass die Plug-In-Selektoren[7][16][17] und Kreuzvalidierungsselektoren[18][19][20] sind \u00fcber eine Vielzahl von Datens\u00e4tzen am n\u00fctzlichsten.Ersetzen einer beliebigen Bandbreite h das hat die gleiche asymptotische Ordnung n\u22121\/5 wie hAMISE in die AMISE gibt diese AMISE (h) = \u00d6((n\u22124\/5), wo \u00d6 ist die gro\u00dfe o Notation. Es kann gezeigt werden, dass es unter schwachen Annahmen keinen nichtparametrischen Sch\u00e4tzer gibt, der schneller konvergiert als der Kernelsch\u00e4tzer.[21] Notiere dass der n\u22124\/5 Rate ist langsamer als die typische n\u22121 Konvergenzrate parametrischer Methoden.Wenn die Bandbreite nicht festgehalten wird, sondern in Abh\u00e4ngigkeit vom Ort der Sch\u00e4tzung (Ballonsch\u00e4tzer) oder der Abtastwerte (punktweiser Sch\u00e4tzer) variiert wird, ergibt dies eine besonders leistungsf\u00e4hige Methode, die als adaptive oder variable Kernbreitenkerndichtesch\u00e4tzung bezeichnet wird.Die Bandbreitenauswahl f\u00fcr die Kernel-Dichtesch\u00e4tzung von Verteilungen mit schwerem Schwanz ist relativ schwierig.[22]Ein Faustregel-Bandbreitensch\u00e4tzer[edit]Wenn Gau\u00dfsche Basisfunktionen verwendet werden, um univariate Daten zu approximieren, und die zugrunde liegende Dichte, die gesch\u00e4tzt wird, Gau\u00dfsch ist, ist die optimale Wahl f\u00fcr h (das hei\u00dft, die Bandbreite, die den mittleren integrierten quadratischen Fehler minimiert) ist:[23]h=((4\u03c3^53n)15\u22481,06\u03c3^n– –1\/.5,{ displaystyle h = left ({ frac {4 { hat { sigma}} ^ {5}} {3n}} right) ^ { frac {1} {5}} ca. 1.06 , { hat { sigma}} , n ^ {- 1\/5},}Um den h-Wert robuster zu machen und die Eignung sowohl f\u00fcr die Langschwanz- als auch f\u00fcr die Schr\u00e4gverteilung und die Verteilung der bimodalen Mischung zu verbessern, ist es besser, den Wert von zu ersetzen \u03c3^{ displaystyle { hat { sigma}}} mit einem anderen Parameter A, der gegeben ist durch:A = min (Standardabweichung, Interquartilbereich \/ 1,34).Eine weitere Modifikation, die das Modell verbessert, besteht darin, den Faktor von 1,06 auf 0,9 zu reduzieren. Dann w\u00e4re die endg\u00fcltige Formel:h=0,9Mindest((\u03c3^,ichQ.R.1.34)n– –15{ displaystyle h = 0.9 , min left ({ hat { sigma}}, { frac {IQR} {1.34}} right) , n ^ {- { frac {1} {5} }}}wo \u03c3^{ displaystyle { hat { sigma}}} ist die Standardabweichung der Proben, n ist die Probengr\u00f6\u00dfe. IQR ist der Interquartilbereich.Diese Ann\u00e4herung wird als bezeichnet Normalverteilungsn\u00e4herung, Gau\u00dfsche N\u00e4herung oder Silvermans Faustregel.[23] Diese Faustregel ist zwar leicht zu berechnen, sollte jedoch mit Vorsicht angewendet werden, da sie zu sehr ungenauen Sch\u00e4tzungen f\u00fchren kann, wenn die Dichte nicht ann\u00e4hernd normal ist. Zum Beispiel bei der Sch\u00e4tzung des bimodalen Gau\u00dfschen Mischungsmodells Vergleich zwischen Faustregel und Bandbreite zur L\u00f6sung der Gleichung.122\u03c0e– –12((x– –10)2+122\u03c0e– –12((x+10)2{ displaystyle textstyle { frac {1} {2 { sqrt {2 pi}}} e ^ {- { frac {1} {2}} (x-10) ^ {2}} + { frac {1} {2 { sqrt {2 pi}}}} e ^ {- { frac {1} {2}} (x + 10) ^ {2}}}aus einer Stichprobe von 200 Punkten. Die Abbildung rechts zeigt die Sch\u00e4tzungen der tats\u00e4chlichen Dichte und der Kernel-Dichte – eine unter Verwendung der Faustregel-Bandbreite und die andere unter Verwendung einer Bandbreite zum L\u00f6sen der Gleichung.[7][17] Die Sch\u00e4tzung basierend auf der Faustregelbandbreite ist deutlich \u00fcbergl\u00e4ttet.Beziehung zum charakteristischen Funktionsdichtesch\u00e4tzer[edit]Angesichts der Stichprobe (x1, x2,\u2026, xn) ist es nat\u00fcrlich, die charakteristische Funktion abzusch\u00e4tzen \u03c6((t) = E.[eitX] wie1((x){ displaystyle lambda _ {1} (x)} sind KDE-Version von G((x){ displaystyle g (x)} und \u03bb1((x){ displaystyle lambda _ {1} (x)}. Unter milden Annahmen M.c{ displaystyle M_ {c}} ist ein konsistenter Sch\u00e4tzer von M.{ displaystyle M}. Beachten Sie, dass man den Mean-Shift-Algorithmus verwenden kann[26][27][28] den Sch\u00e4tzer zu berechnen M.c{ displaystyle M_ {c}} numerisch.Statistische Implementierung[edit]Eine nicht ersch\u00f6pfende Liste von Software-Implementierungen von Kernel-Dichtesch\u00e4tzern enth\u00e4lt:In Analytica Release 4.4 wird die Gl\u00e4tten Die Option f\u00fcr PDF-Ergebnisse verwendet KDE und ist \u00fcber Ausdr\u00fccke \u00fcber die integrierte Funktion verf\u00fcgbar Pdf Funktion.In C \/ C ++ Feigenbaum ist eine Bibliothek, mit der Kernel-Dichtesch\u00e4tzungen unter Verwendung normaler Kernel berechnet werden k\u00f6nnen. MATLAB-Schnittstelle verf\u00fcgbar.In C ++ libagf ist eine Bibliothek zur Sch\u00e4tzung der variablen Kerneldichte.In C ++ ist mlpack eine Bibliothek, die KDE mit vielen verschiedenen Kerneln berechnen kann. Hiermit k\u00f6nnen Sie eine Fehlertoleranz f\u00fcr eine schnellere Berechnung festlegen. Python- und R-Schnittstellen sind verf\u00fcgbar.In C # und F # ist Math.NET Numerics eine Open-Source-Bibliothek f\u00fcr numerische Berechnungen, die Folgendes umfasst Sch\u00e4tzung der KerneldichteIn CrimeStat wird die Kernel-Dichtesch\u00e4tzung mithilfe von f\u00fcnf verschiedenen Kernelfunktionen implementiert – normal, einheitlich, quartisch, negativ exponentiell und dreieckig. Es sind sowohl Einzel- als auch Doppelkerndichtesch\u00e4tzroutinen verf\u00fcgbar. Die Kernel-Dichtesch\u00e4tzung wird auch zum Interpolieren einer Head-Bang-Routine, zum Sch\u00e4tzen einer zweidimensionalen Dichtefunktion f\u00fcr die Reise zum Verbrechen und zum Sch\u00e4tzen einer dreidimensionalen Bayes’schen Sch\u00e4tzung der Reise zum Verbrechen verwendet.In ELKI finden Sie Kernel-Dichtefunktionen im Paket de.lmu.ifi.dbs.elki.math.statistics.kernelfunctionsIn ESRI-Produkten wird die Kerneldichtezuordnung \u00fcber die Spatial Analyst-Toolbox verwaltet und verwendet den Quartic-Kernel (Biweight).In Excel hat die Royal Society of Chemistry ein Add-In erstellt, mit dem die Kerneldichtesch\u00e4tzung basierend auf ihren Daten durchgef\u00fchrt werden kann Technischer Brief des Ausschusses f\u00fcr analytische Methoden 4.In gnuplot wird die Kernel-Dichtesch\u00e4tzung durch die implementiert smooth kdensity Option kann die Datendatei eine Gewichtung und Bandbreite f\u00fcr jeden Punkt enthalten, oder die Bandbreite kann automatisch eingestellt werden[29] nach “Silvermans Faustregel” (siehe oben).In Haskell ist die Kerneldichte in der implementiert Statistiken Paket.In IGOR Pro wird die Sch\u00e4tzung der Kerneldichte durch die implementiert StatsKDE Betrieb (hinzugef\u00fcgt in Igor Pro 7.00). Die Bandbreite kann vom Benutzer mithilfe von Silverman, Scott oder Bowmann und Azzalini festgelegt oder gesch\u00e4tzt werden. Kerntypen sind: Epanechnikov, Bi-Weight, Tri-Weight, Triangular, Gaussian und Rectangular.In Java bietet das Weka-Paket (maschinelles Lernen) weka.estimators.KernelEstimator, unter anderen.In JavaScript bietet das Visualisierungspaket D3.js ein KDE-Paket in seinem Paket science.stats.In JMP verwendet die Graph Builder-Plattform die Kernel-Dichtesch\u00e4tzung, um Konturdiagramme und Bereiche mit hoher Dichte (HDRs) f\u00fcr bivariate Dichten sowie Violin-Diagramme und HDRs f\u00fcr univariate Dichten bereitzustellen. Mit den Schiebereglern kann der Benutzer die Bandbreite variieren. Bivariate und univariate Kernel-Dichtesch\u00e4tzungen werden auch von den Plattformen Fit Y by X und Distribution bereitgestellt.In Julia ist die Kernel-Dichtesch\u00e4tzung in der implementiert KernelDensity.jl Paket.In MATLAB wird die Kernel-Dichtesch\u00e4tzung durch das implementiert ksdensity Funktion (Statistik-Toolbox). Ab der MATLAB-Version 2018a k\u00f6nnen sowohl die Bandbreite als auch der Kernel-Smoother angegeben werden, einschlie\u00dflich anderer Optionen, z. B. der Angabe des Bereichs der Kerneldichte.[30] Alternativ ein kostenloses MATLAB-Softwarepaket, das eine automatische Bandbreitenauswahlmethode implementiert[7] ist im MATLAB Central File Exchange f\u00fcr erh\u00e4ltlichIn Mathematica wird die numerische Kernel-Dichtesch\u00e4tzung durch die Funktion implementiert SmoothKernelDistribution[32] und eine symbolische Sch\u00e4tzung wird unter Verwendung der Funktion implementiert KernelMixtureDistribution[33] Beide bieten datengesteuerte Bandbreiten.In Minitab hat die Royal Society of Chemistry ein Makro erstellt, um die Sch\u00e4tzung der Kerneldichte auf der Grundlage ihres Technical Brief 4 des Analytical Methods Committee durchzuf\u00fchren.[34]In der NAG-Bibliothek wird die Kernel-Dichtesch\u00e4tzung \u00fcber das implementiert g10ba Routine (verf\u00fcgbar in beiden Fortran[35] und der C.[36] Versionen der Bibliothek).Im NukleiC ++ – Kerneldichtemethoden konzentrieren sich auf Daten aus der Gruppe Special Euclidean S.E.((3){ displaystyle SE (3)}.In Octave wird die Kernel-Dichtesch\u00e4tzung durch die implementiert kernel_density Option (\u00d6konometriepaket).In Origin kann ein 2D-Kerneldichtediagramm \u00fcber die Benutzeroberfl\u00e4che erstellt werden, und zwei Funktionen, Ksdensity f\u00fcr 1D und Ks2density f\u00fcr 2D, k\u00f6nnen \u00fcber die Benutzeroberfl\u00e4che verwendet werden LabTalk, Python- oder C-Code.In Perl finden Sie eine Implementierung in der Statistik-KernelEstimation-ModulIn PHP finden Sie eine Implementierung in der MathPHP-BibliothekIn Python gibt es viele Implementierungen: pyqt_fit.kde Modul in dem PyQt-Fit-Paket, SciPy (scipy.stats.gaussian_kde), Statistikmodelle (KDEUnivariate und KDEMultivariate) und Scikit-learn (KernelDensity) (siehe Vergleich[37]). KDEpy unterst\u00fctzt gewichtete Daten und die FFT-Implementierung ist um Gr\u00f6\u00dfenordnungen schneller als die anderen Implementierungen. Die h\u00e4ufig verwendete Pandas-Bibliothek [1] bietet Unterst\u00fctzung f\u00fcr das kde-Plotten durch die Plotmethode (df.plot(kind='kde')[2]). Das getdist Das Paket f\u00fcr gewichtete und korrelierte MCMC-Samples unterst\u00fctzt optimierte Bandbreite, Grenzkorrektur und Methoden h\u00f6herer Ordnung f\u00fcr 1D- und 2D-Verteilungen. Ein neu verwendetes Paket zur Sch\u00e4tzung der Kerneldichte ist seaborn ( import seaborn as sns , sns.kdeplot() ).[38] Eine GPU-Implementierung von KDE ist ebenfalls vorhanden.[39]In R wird es durch implementiert density in der Basisverteilung und bw.nrd0 Die Funktion wird im Statistikpaket verwendet. Diese Funktion verwendet die optimierte Formel in Silvermans Buch. bkde in dem KernSmooth-Bibliothek, ParetoDensityEstimation in dem AdaptGauss-Bibliothek (zur Sch\u00e4tzung der Pareto-Verteilungsdichte), kde in dem ks Bibliothek, dkden und dbckden in dem evmix Bibliothek (Letzteres f\u00fcr die grenzkorrigierte Kernel-Dichtesch\u00e4tzung f\u00fcr die begrenzte Unterst\u00fctzung), npudens in dem np Bibliothek (numerische und kategoriale Daten), sm.density in dem sm Bibliothek. F\u00fcr eine Umsetzung der kde.R Funktion, f\u00fcr die keine Pakete oder Bibliotheken installiert werden m\u00fcssen, siehe kde.R. Das BTB-Bibliothek, der sich der Stadtanalyse widmet, implementiert die Kernel-Dichtesch\u00e4tzung durch kernel_smoothing.In SAS proc kde kann verwendet werden, um univariate und bivariate Kerneldichten abzusch\u00e4tzen.In Apache Spark wird die KernelDensity() Klasse[40]In Stata wird es durch implementiert kdensity;;[41] zum Beispiel histogram x, kdensity. Alternativ ist ein kostenloses Stata-Modul KDENS von erh\u00e4ltlich Hier Erm\u00f6glichen, dass ein Benutzer 1D- oder 2D-Dichtefunktionen sch\u00e4tzt.In Swift wird es durch implementiert SwiftStats.KernelDensityEstimation in der Open-Source-Statistikbibliothek SwiftStats.Siehe auch[edit]Verweise[edit]^ ein b Rosenblatt, M. (1956). “Anmerkungen zu einigen nichtparametrischen Sch\u00e4tzungen einer Dichtefunktion”. Die Annalen der mathematischen Statistik. 27 (3): 832\u2013837. doi:10.1214 \/ aoms \/ 1177728190.^ ein b Parzen, E. (1962). “Zur Absch\u00e4tzung einer Wahrscheinlichkeitsdichtefunktion und eines Modus”. Die Annalen der mathematischen Statistik. 33 (3): 1065\u20131076. doi:10.1214 \/ aoms \/ 1177704472. JSTOR 2237880.^ ein b Piryonesi S. Madeh; El-Diraby Tamer E. (01.06.2020). “Rolle der Datenanalyse im Infrastructure Asset Management: \u00dcberwindung von Datengr\u00f6\u00dfen- und Qualit\u00e4tsproblemen”. Journal of Transportation Engineering, Teil B: Gehwege. 146 (2): 04020022. doi:10.1061 \/ JPEODX.0000175.^ Hastie, Trevor. (2001). Die Elemente des statistischen Lernens: Data Mining, Inferenz und Vorhersage: mit 200 farbigen Abbildungen. Tibshirani, Robert., Friedman, JH (Jerome H.). New York: Springer. ISBN 0-387-95284-5. OCLC 46809224.^ Epanechnikov, VA (1969). “Nichtparametrische Sch\u00e4tzung einer multivariaten Wahrscheinlichkeitsdichte”. Wahrscheinlichkeitstheorie und ihre Anwendungen. 14: 153\u2013158. doi:10.1137 \/ 1114019.^ Zauberstab, MP; Jones, MC (1995). Kernel-Gl\u00e4ttung. London: Chapman & Hall \/ CRC. ISBN 978-0-412-55270-0.^ ein b c d Botev, Zdravko (2007). Nichtparametrische Dichtesch\u00e4tzung durch Diffusionsmischen (Technischer Bericht). Universit\u00e4t von Queensland.^ Scott, D. (1979). “Auf optimalen und datenbasierten Histogrammen”. Biometrika. 66 (3): 605\u2013610. doi:10.1093 \/ biomet \/ 66.3.605.^ Park, BU; Marron, JS (1990). “Vergleich datengesteuerter Bandbreitenselektoren”. Zeitschrift der American Statistical Association. 85 (409): 66\u201372. CiteSeerX 10.1.1.154.7321. doi:10.1080 \/ 01621459.1990.10475307. JSTOR 2289526.^ Park, BU; Turlach, BA (1992). “Praktische Leistung mehrerer datengesteuerter Bandbreitenselektoren (mit Diskussion)”. Computerstatistik. 7: 251\u2013270.^ Cao, R.; Cuevas, A.; Manteiga, WG (1994). “Eine vergleichende Untersuchung mehrerer Gl\u00e4ttungsmethoden bei der Dichtesch\u00e4tzung”. Computerstatistik und Datenanalyse. 17 (2): 153\u2013176. doi:10.1016 \/ 0167-9473 (92) 00066-Z.^ Jones, MC; Marron, JS; Sheather, SJ (1996). “Ein kurzer \u00dcberblick \u00fcber die Bandbreitenauswahl zur Dichtesch\u00e4tzung”. Zeitschrift der American Statistical Association. 91 (433): 401\u2013407. doi:10.2307 \/ 2291420. JSTOR 2291420.^ Sheather, SJ (1992). “Die Leistung von sechs g\u00e4ngigen Bandbreitenauswahlmethoden f\u00fcr einige reale Datens\u00e4tze (mit Diskussion)”. Computerstatistik. 7: 225\u2013250, 271\u2013281.^ Agarwal, N.; Aluru, NR (2010). “Ein datengesteuerter stochastischer Kollokationsansatz zur Quantifizierung der Unsicherheit in MEMS” (PDF). Internationale Zeitschrift f\u00fcr Numerische Methoden im Ingenieurwesen. 83 (5): 575\u2013597.^ Xu, X.; Yan, Z.; Xu, S. (2015). “Sch\u00e4tzung der Windgeschwindigkeitswahrscheinlichkeitsverteilung durch diffusionsbasierte Kerneldichtemethode”. Forschung zu Stromversorgungssystemen. 121: 28\u201337. doi:10.1016 \/ j.epsr.2014.11.029.^ Botev, ZI; Grotowski, JF; Kroese, DP (2010). “Sch\u00e4tzung der Kerndichte durch Diffusion”. Annalen der Statistik. 38 (5): 2916\u20132957. arXiv:1011.2602. doi:10.1214 \/ 10-AOS799.^ ein b Sheather, SJ; Jones, MC (1991). “Eine zuverl\u00e4ssige datenbasierte Bandbreitenauswahlmethode f\u00fcr die Sch\u00e4tzung der Kerneldichte”. Zeitschrift der Royal Statistical Society, Reihe B.. 53 (3): 683\u2013690. doi:10.1111 \/ j.2517-6161.1991.tb01857.x. JSTOR 2345597.^ Rudemo, M. (1982). “Empirische Auswahl von Histogrammen und Kernel-Dichtesch\u00e4tzern”. Skandinavisches Journal of Statistics. 9 (2): 65\u201378. JSTOR 4615859.^ Bowman, AW (1984). “Eine alternative Methode zur Kreuzvalidierung zur Gl\u00e4ttung von Dichtesch\u00e4tzungen”. Biometrika. 71 (2): 353\u2013360. doi:10.1093 \/ biomet \/ 71.2.353.^ Hall, P.; Marron, JS; Park, BU (1992). “Gegl\u00e4ttete Kreuzvalidierung”. Wahrscheinlichkeitstheorie und verwandte Felder. 92: 1\u201320. doi:10.1007 \/ BF01205233.^ Wahba, G. (1975). “Optimale Konvergenzeigenschaften von Methoden mit variablem Knoten, Kernel und orthogonalen Reihen zur Dichtesch\u00e4tzung”. Annalen der Statistik. 3 (1): 15\u201329. doi:10.1214 \/ aos \/ 1176342997.^ Buch-Larsen, TINE (2005). “Sch\u00e4tzung der Kerndichte f\u00fcr Verteilungen mit schwerem Schwanz unter Verwendung der Champernowne-Transformation”. Statistiken. 39 (6): 503\u2013518. CiteSeerX 10.1.1.457.1544. doi:10.1080 \/ 02331880500439782.^ ein b Silverman, BW (1986). Dichtesch\u00e4tzung f\u00fcr Statistik und Datenanalyse. London: Chapman & Hall \/ CRC. p. 45. ISBN 978-0-412-24620-3.^ Chen, Yen-Chi; Genovese, Christopher R.; Wasserman, Larry (2016). “Ein umfassender Ansatz f\u00fcr das Clustering von Modi”. Elektronisches Statistikjournal. 10 (1): 210\u2013241. doi:10.1214 \/ 15-ejs1102. ISSN 1935-7524.^ Chazal, Fr\u00e9d\u00e9ric; Fasy, Bretagne Terese; Lecci, Fabrizio; Rinaldo, Alessandro; Wasserman, Larry (2014). “Stochastische Konvergenz von Persistenzlandschaften und Silhouetten”. J\u00e4hrliches Symposium f\u00fcr Computergeometrie – SOCG’14. New York, New York, USA: ACM Press: 474\u2013483. doi:10.1145 \/ 2582112.2582128. ISBN 978-1-4503-2594-3.^ Fukunaga, K.; Hostetler, L. (Januar 1975). “Die Sch\u00e4tzung des Gradienten einer Dichtefunktion mit Anwendungen in der Mustererkennung”. IEEE-Transaktionen zur Informationstheorie. 21 (1): 32\u201340. doi:10.1109 \/ tit.1975.1055330. ISSN 0018-9448.^ Yizong Cheng (1995). “Mittlere Verschiebung, Modus-Suche und Clustering”. IEEE-Transaktionen zur Musteranalyse und Maschinenintelligenz. 17 (8): 790\u2013799. doi:10.1109 \/ 34.400568. ISSN 0162-8828.^ Comaniciu, D.; Meer, P. (Mai 2002). “Mean Shift: Ein robuster Ansatz zur Analyse des Merkmalsraums”. IEEE-Transaktionen zur Musteranalyse und Maschinenintelligenz. 24 (5): 603\u2013619. doi:10.1109 \/ 34.1000236. ISSN 0162-8828.^ Janert, Philipp K (2009). Gnuplot in Aktion: Daten mit Grafiken verstehen. Connecticut, USA: Manning Publications. ISBN 978-1-933988-39-9. Siehe Abschnitt 13.2.2 mit dem Titel Kernel-Dichtesch\u00e4tzungen.^ “Sch\u00e4tzung der Kernel-Gl\u00e4ttungsfunktion f\u00fcr univariate und bivariate Daten – MATLAB-Dichte”. www.mathworks.com. Abgerufen 2020-11-05.^ Horov\u00e1, I.; Kol\u00e1\u010dek, J.; Zelinka, J. (2012). Kernel Smoothing in MATLAB: Theorie und Praxis der Kernel Smoothing. Singapur: World Scientific Publishing. ISBN 978-981-4405-48-5.^ “SmoothKernelDistribution – Wolfram-Sprachdokumentation”. reference.wolfram.com. Abgerufen 2020-11-05.^ “KernelMixtureDistribution – Wolfram-Sprachdokumentation”. reference.wolfram.com. Abgerufen 2020-11-05.^ “Software zur Berechnung der Kerneldichten”. www.rsc.org. Abgerufen 2020-11-05.^ Die Gruppe der numerischen Algorithmen. “Routine-Dokument der NAG-Bibliothek: nagf_smooth_kerndens_gauss (g10baf)” (PDF). NAG Library Manual, Mark 23. Abgerufen 2012-02-16.^ Die Gruppe der numerischen Algorithmen. “Routine-Dokument der NAG-Bibliothek: nag_kernel_density_estim (g10bac)” (PDF). NAG Library Manual, Mark 9. Archiviert von das Original (PDF) am 2011-11-24. Abgerufen 2012-02-16.^ Vanderplas, Jake (2013-12-01). “Kernel Density Estimation in Python”. Abgerufen 2014-03-12.^ “seaborn.kdeplot – seaborn 0.10.1 Dokumentation”. seaborn.pydata.org. Abgerufen 2020-05-12.^ https:\/\/pypi.org\/project\/kde-gpu\/#description^ “Grundlegende Statistik – RDD-basierte API – Spark 3.0.1-Dokumentation”. spark.apache.org. Abgerufen 2020-11-05.^ https:\/\/www.stata.com\/manuals15\/rkdensity.pdfExterne Links[edit]"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki16\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/01\/schatzung-der-kerndichte-wikipedia\/#breadcrumbitem","name":"Sch\u00e4tzung der Kerndichte – Wikipedia"}}]}]