Schätzung der Kerndichte – Wikipedia

In der Statistik Schätzung der Kerneldichte ((KDE) ist eine nicht parametrische Methode zur Schätzung der Wahrscheinlichkeitsdichtefunktion einer Zufallsvariablen. Die Schätzung der Kerneldichte ist ein grundlegendes Problem der Datenglättung, bei dem Rückschlüsse auf die Grundgesamtheit auf der Grundlage einer endlichen Datenstichprobe gezogen werden. In einigen Bereichen wie Signalverarbeitung und Ökonometrie wird es auch als bezeichnet Parzen-Rosenblatt-Fenster Methode, nach Emanuel Parzen und Murray Rosenblatt, denen normalerweise zugeschrieben wird, dass sie es in seiner jetzigen Form unabhängig erstellt haben.[1][2] Eine der bekanntesten Anwendungen der Kernel-Dichteschätzung ist die Schätzung der klassenbedingten Randdichten von Daten bei Verwendung eines naiven Bayes-Klassifikators.[3][4] was seine Vorhersagegenauigkeit verbessern kann.[3]

Definition[edit]

Lassen (x1, x2,…, xn) eine univariate unabhängige und identisch verteilte Stichprobe sein, die aus einer Verteilung mit unbekannter Dichte stammt ƒ zu jedem Zeitpunkt x. Wir sind daran interessiert, die Form dieser Funktion abzuschätzen ƒ. Es ist Kernel-Dichteschätzer ist

f^h((x)=1n∑ich=1nK.h((x– –xich)=1nh∑ich=1nK.((x– –xichh),{ displaystyle { widehat {f}} _ {h} (x) = { frac {1} {n}} sum _ {i = 1} ^ {n} K_ {h} (x-x_ {i }) = { frac {1} {nh}} sum _ {i = 1} ^ {n} K { Big (} { frac {x-x_ {i}} {h}} { Big) },}

wo K. ist der Kernel – eine nicht negative Funktion – und h > 0 ist ein Glättungsparameter namens Bandbreite. Ein Kernel mit Index h heißt das skalierter Kernel und definiert als K.h((x) = 1 /h K.((x/.h). Intuitiv möchte man wählen h so klein wie es die Daten erlauben; Es gibt jedoch immer einen Kompromiss zwischen der Verzerrung des Schätzers und seiner Varianz. Die Wahl der Bandbreite wird nachstehend ausführlicher erörtert.

Eine Reihe von Kernelfunktionen wird häufig verwendet: einheitlich, dreieckig, bigewichtig, dreifach, Epanechnikov, normal und andere. Der Epanechnikov-Kernel ist im Sinne eines mittleren quadratischen Fehlers optimal.[5] Der Effizienzverlust ist jedoch für die zuvor aufgeführten Kernel gering.[6] Aufgrund seiner praktischen mathematischen Eigenschaften wird häufig der normale Kernel verwendet, was bedeutet K.((x) = ϕ((x), wo ϕ ist die Standardfunktion für normale Dichte.

Die Konstruktion einer Kernel-Dichteschätzung findet Interpretationen in Feldern außerhalb der Dichteschätzung.[7] In der Thermodynamik entspricht dies beispielsweise der Wärmemenge, die erzeugt wird, wenn Wärmekerne (die grundlegende Lösung der Wärmegleichung) an jedem Datenpunkt platziert werden xich. Ähnliche Methoden werden verwendet, um diskrete Laplace-Operatoren auf Punktwolken für vielfältiges Lernen zu konstruieren (z. B. Diffusionskarte).

Beispiel[edit]

Kernel-Dichteschätzungen stehen in engem Zusammenhang mit Histogrammen, können jedoch durch Verwendung eines geeigneten Kernels mit Eigenschaften wie Glätte oder Kontinuität ausgestattet werden. Ein Beispiel mit 6 Datenpunkten veranschaulicht diesen Unterschied zwischen Histogramm- und Kerneldichteschätzern:

Stichprobe 1 2 3 4 5 6
Wert -2.1 -1.3 -0,4 1.9 5.1 6.2

Für das Histogramm wird zunächst die horizontale Achse in Unterintervalle oder Bins unterteilt, die den Bereich der Daten abdecken: In diesem Fall sechs Bins mit jeweils der Breite 2. Immer wenn ein Datenpunkt in dieses Intervall fällt, wird ein Feld mit der Höhe 1 / 12 ist dort platziert. Wenn mehr als ein Datenpunkt in denselben Behälter fällt, werden die Boxen übereinander gestapelt.

Für die Schätzung der Kerneldichte wird auf jeden der Datenpunkte ein normaler Kernel mit einer Standardabweichung von 2,25 (angezeigt durch die roten gestrichelten Linien) gelegt xich. Die Kernel werden summiert, um die Schätzung der Kerneldichte vorzunehmen (durchgezogene blaue Kurve). Die Glätte der Kernel-Dichteschätzung (verglichen mit der Diskretion des Histogramms) zeigt, wie Kernel-Dichteschätzungen für kontinuierliche Zufallsvariablen schneller zur tatsächlichen zugrunde liegenden Dichte konvergieren.[8]

Vergleich des Histogramms (links) und der Kernel-Dichteschätzung (rechts), die unter Verwendung derselben Daten erstellt wurden. Die sechs einzelnen Kernel sind die rot gestrichelten Kurven, die Kerndichte schätzt die blauen Kurven. Die Datenpunkte sind das Teppichdiagramm auf der horizontalen Achse.

Bandbreitenauswahl[edit]

Kernel Density Estimation (KDE) mit unterschiedlichen Bandbreiten einer Zufallsstichprobe von 100 Punkten aus einer Standardnormalverteilung. Grau: wahre Dichte (Standard normal). Rot: KDE mit h = 0,05. Schwarz: KDE mit h = 0,337. Grün: KDE mit h = 2.

Die Bandbreite des Kernels ist ein freier Parameter, der einen starken Einfluss auf die resultierende Schätzung hat. Um seine Wirkung zu veranschaulichen, nehmen wir eine simulierte Zufallsstichprobe aus der Standardnormalverteilung (aufgetragen an den blauen Spitzen im Teppichplot auf der horizontalen Achse). Die graue Kurve ist die wahre Dichte (eine normale Dichte mit Mittelwert 0 und Varianz 1). Im Vergleich dazu ist die rote Kurve unterglättet da es zu viele falsche Datenartefakte enthält, die sich aus der Verwendung einer Bandbreite ergeben h = 0,05, was zu klein ist. Die grüne Kurve ist überglättet seit der Nutzung der Bandbreite h = 2 verdeckt einen Großteil der zugrunde liegenden Struktur. Die schwarze Kurve mit einer Bandbreite von h = 0,337 wird als optimal geglättet angesehen, da seine Dichteschätzung nahe an der wahren Dichte liegt. Im Limit tritt eine extreme Situation auf

h→0{ displaystyle h to 0}

(keine Glättung), wobei die Schätzung eine Summe von ist n Delta-Funktionen, die an den Koordinaten der analysierten Proben zentriert sind. In der anderen extremen Grenze

h→∞{ displaystyle h to infty}

Die Schätzung behält die Form des verwendeten Kerns bei, zentriert auf den Mittelwert der Proben (vollständig glatt).

Das häufigste Optimalitätskriterium zur Auswahl dieses Parameters ist das erwartete L.2Risikofunktion, auch als mittlerer integrierter quadratischer Fehler bezeichnet:

MISE⁡((h)=E.[∫(f^h(x)−f(x))2dx].{ displaystyle operatorname {MISE} (h) = operatorname {E} ! left[,int ({hat {f}}_{h}(x)-f(x))^{2},dxright].}

Unter schwachen Annahmen auf ƒ und K., (ƒ ist die im Allgemeinen unbekannte Funktion der realen Dichte),[1][2]

MISE (h) = AMISE (h) + o (1 / (nh) + h4) wo Ö ist die kleine Notation. Das AMISE ist das asymptotische MISE, das aus den beiden führenden Begriffen besteht

AMISE⁡((h)=R.((K.)nh+14m2((K.)2h4R.((f″){ displaystyle operatorname {AMISE} (h) = { frac {R (K)} {nh}} + { frac {1} {4}} m_ {2} (K) ^ {2} h ^ { 4} R (f ”)}

wo

R.((G)=∫G((x)2dx{ displaystyle R (g) = int g (x) ^ {2} , dx}

für eine Funktion G,

m2((K.)=∫x2K.((x)dx{ displaystyle m_ {2} (K) = int x ^ {2} K (x) , dx}

und ƒ ” ist die zweite Ableitung von ƒ. Das Minimum dieser AMISE ist die Lösung dieser Differentialgleichung

∂∂hAMISE⁡((h)=– –R.((K.)nh2+m2((K.)2h3R.((f″)=0{ displaystyle { frac { partiell} { partiell h}} operatorname {AMISE} (h) = – { frac {R (K)} {nh ^ {2}}} + m_ {2} (K. ) ^ {2} h ^ {3} R (f ”) = 0}

oder

hAMISE=R.((K.)1/.5m2((K.)2/.5R.((f″)1/.5n1/.5.{ displaystyle h _ { operatorname {AMISE}} = { frac {R (K) ^ {1/5}} {m_ {2} (K) ^ {2/5} R (f ”) ^ {1 / 5} n ^ {1/5}}}.}

Weder die AMISE noch die hAMISE Formeln können direkt verwendet werden, da sie die unbekannte Dichtefunktion beinhalten ƒ oder seine zweite Ableitung ƒ ”Daher wurde eine Vielzahl von automatischen, datenbasierten Methoden zur Auswahl der Bandbreite entwickelt. Viele Übersichtsstudien wurden durchgeführt, um ihre Wirksamkeit zu vergleichen.[9][10][11][12][13][14][15] mit dem allgemeinen Konsens, dass die Plug-In-Selektoren[7][16][17] und Kreuzvalidierungsselektoren[18][19][20] sind über eine Vielzahl von Datensätzen am nützlichsten.

Ersetzen einer beliebigen Bandbreite h das hat die gleiche asymptotische Ordnung n−1/5 wie hAMISE in die AMISE gibt diese AMISE (h) = Ö((n−4/5), wo Ö ist die große o Notation. Es kann gezeigt werden, dass es unter schwachen Annahmen keinen nichtparametrischen Schätzer gibt, der schneller konvergiert als der Kernelschätzer.[21] Notiere dass der n−4/5 Rate ist langsamer als die typische n−1 Konvergenzrate parametrischer Methoden.

Wenn die Bandbreite nicht festgehalten wird, sondern in Abhängigkeit vom Ort der Schätzung (Ballonschätzer) oder der Abtastwerte (punktweiser Schätzer) variiert wird, ergibt dies eine besonders leistungsfähige Methode, die als adaptive oder variable Kernbreitenkerndichteschätzung bezeichnet wird.

Die Bandbreitenauswahl für die Kernel-Dichteschätzung von Verteilungen mit schwerem Schwanz ist relativ schwierig.[22]

Ein Faustregel-Bandbreitenschätzer[edit]

Wenn Gaußsche Basisfunktionen verwendet werden, um univariate Daten zu approximieren, und die zugrunde liegende Dichte, die geschätzt wird, Gaußsch ist, ist die optimale Wahl für h (das heißt, die Bandbreite, die den mittleren integrierten quadratischen Fehler minimiert) ist:[23]

h=((4σ^53n)15≈1,06σ^n– –1/.5,{ displaystyle h = left ({ frac {4 { hat { sigma}} ^ {5}} {3n}} right) ^ { frac {1} {5}} ca. 1.06 , { hat { sigma}} , n ^ {- 1/5},}

Um den h-Wert robuster zu machen und die Eignung sowohl für die Langschwanz- als auch für die Schrägverteilung und die Verteilung der bimodalen Mischung zu verbessern, ist es besser, den Wert von zu ersetzen

σ^{ displaystyle { hat { sigma}}}

mit einem anderen Parameter A, der gegeben ist durch:

A = min (Standardabweichung, Interquartilbereich / 1,34).

Eine weitere Modifikation, die das Modell verbessert, besteht darin, den Faktor von 1,06 auf 0,9 zu reduzieren. Dann wäre die endgültige Formel:

h=0,9Mindest((σ^,ichQ.R.1.34)n– –15{ displaystyle h = 0.9 , min left ({ hat { sigma}}, { frac {IQR} {1.34}} right) , n ^ {- { frac {1} {5} }}}

wo

σ^{ displaystyle { hat { sigma}}}

ist die Standardabweichung der Proben, n ist die Probengröße. IQR ist der Interquartilbereich.

Diese Annäherung wird als bezeichnet Normalverteilungsnäherung, Gaußsche Näherung oder Silvermans Faustregel.[23] Diese Faustregel ist zwar leicht zu berechnen, sollte jedoch mit Vorsicht angewendet werden, da sie zu sehr ungenauen Schätzungen führen kann, wenn die Dichte nicht annähernd normal ist. Zum Beispiel bei der Schätzung des bimodalen Gaußschen Mischungsmodells

Vergleich zwischen Faustregel und Bandbreite zur Lösung der Gleichung.
122πe– –12((x– –10)2+122πe– –12((x+10)2{ displaystyle textstyle { frac {1} {2 { sqrt {2 pi}}} e ^ {- { frac {1} {2}} (x-10) ^ {2}} + { frac {1} {2 { sqrt {2 pi}}}} e ^ {- { frac {1} {2}} (x + 10) ^ {2}}}

aus einer Stichprobe von 200 Punkten. Die Abbildung rechts zeigt die Schätzungen der tatsächlichen Dichte und der Kernel-Dichte – eine unter Verwendung der Faustregel-Bandbreite und die andere unter Verwendung einer Bandbreite zum Lösen der Gleichung.[7][17] Die Schätzung basierend auf der Faustregelbandbreite ist deutlich überglättet.

Beziehung zum charakteristischen Funktionsdichteschätzer[edit]

Angesichts der Stichprobe (x1, x2,…, xn) ist es natürlich, die charakteristische Funktion abzuschätzen φ((t) = E.[eitX] wie

ψ((t) = 1{−1 ≤ t ≤ 1}, was effektiv bedeutet, das Integrationsintervall in der Inversionsformel auf zu kürzen [−1/h, 1/h]oder die Gaußsche Funktion ψ((t) = e– –πt2. Einmal die Funktion ψ gewählt wurde, kann die Inversionsformel angewendet werden und der Dichteschätzer wird
Geometrische und topologische Merkmale[edit]

Wir können die Definition des (globalen) Modus auf einen lokalen Sinn erweitern und die lokalen Modi definieren:

M.={x::G((x)=0,λ1((x)<0}}{ displaystyle M = {x: g (x) = 0, lambda _ {1} (x) <0 }}

Nämlich,

M.{ displaystyle M}

ist die Sammlung von Punkten, für die die Dichtefunktion lokal maximiert ist. Ein natürlicher Schätzer von M.{ displaystyle M}

ist ein Plug-In von KDE,[24][25] wo G((x){ displaystyle g (x)}

und λ1((x){ displaystyle lambda _ {1} (x)}

sind KDE-Version von G((x){ displaystyle g (x)}

und λ1((x){ displaystyle lambda _ {1} (x)}

. Unter milden Annahmen M.c{ displaystyle M_ {c}}

ist ein konsistenter Schätzer von M.{ displaystyle M}

. Beachten Sie, dass man den Mean-Shift-Algorithmus verwenden kann[26][27][28] den Schätzer zu berechnen M.c{ displaystyle M_ {c}}

numerisch.

Statistische Implementierung[edit]

Eine nicht erschöpfende Liste von Software-Implementierungen von Kernel-Dichteschätzern enthält:

  • In Analytica Release 4.4 wird die Glätten Die Option für PDF-Ergebnisse verwendet KDE und ist über Ausdrücke über die integrierte Funktion verfügbar Pdf Funktion.
  • In C / C ++ Feigenbaum ist eine Bibliothek, mit der Kernel-Dichteschätzungen unter Verwendung normaler Kernel berechnet werden können. MATLAB-Schnittstelle verfügbar.
  • In C ++ libagf ist eine Bibliothek zur Schätzung der variablen Kerneldichte.
  • In C ++ ist mlpack eine Bibliothek, die KDE mit vielen verschiedenen Kerneln berechnen kann. Hiermit können Sie eine Fehlertoleranz für eine schnellere Berechnung festlegen. Python- und R-Schnittstellen sind verfügbar.
  • In C # und F # ist Math.NET Numerics eine Open-Source-Bibliothek für numerische Berechnungen, die Folgendes umfasst Schätzung der Kerneldichte
  • In CrimeStat wird die Kernel-Dichteschätzung mithilfe von fünf verschiedenen Kernelfunktionen implementiert – normal, einheitlich, quartisch, negativ exponentiell und dreieckig. Es sind sowohl Einzel- als auch Doppelkerndichteschätzroutinen verfügbar. Die Kernel-Dichteschätzung wird auch zum Interpolieren einer Head-Bang-Routine, zum Schätzen einer zweidimensionalen Dichtefunktion für die Reise zum Verbrechen und zum Schätzen einer dreidimensionalen Bayes’schen Schätzung der Reise zum Verbrechen verwendet.
  • In ELKI finden Sie Kernel-Dichtefunktionen im Paket de.lmu.ifi.dbs.elki.math.statistics.kernelfunctions
  • In ESRI-Produkten wird die Kerneldichtezuordnung über die Spatial Analyst-Toolbox verwaltet und verwendet den Quartic-Kernel (Biweight).
  • In Excel hat die Royal Society of Chemistry ein Add-In erstellt, mit dem die Kerneldichteschätzung basierend auf ihren Daten durchgeführt werden kann Technischer Brief des Ausschusses für analytische Methoden 4.
  • In gnuplot wird die Kernel-Dichteschätzung durch die implementiert smooth kdensity Option kann die Datendatei eine Gewichtung und Bandbreite für jeden Punkt enthalten, oder die Bandbreite kann automatisch eingestellt werden[29] nach “Silvermans Faustregel” (siehe oben).
  • In Haskell ist die Kerneldichte in der implementiert Statistiken Paket.
  • In IGOR Pro wird die Schätzung der Kerneldichte durch die implementiert StatsKDE Betrieb (hinzugefügt in Igor Pro 7.00). Die Bandbreite kann vom Benutzer mithilfe von Silverman, Scott oder Bowmann und Azzalini festgelegt oder geschätzt werden. Kerntypen sind: Epanechnikov, Bi-Weight, Tri-Weight, Triangular, Gaussian und Rectangular.
  • In Java bietet das Weka-Paket (maschinelles Lernen) weka.estimators.KernelEstimator, unter anderen.
  • In JavaScript bietet das Visualisierungspaket D3.js ein KDE-Paket in seinem Paket science.stats.
  • In JMP verwendet die Graph Builder-Plattform die Kernel-Dichteschätzung, um Konturdiagramme und Bereiche mit hoher Dichte (HDRs) für bivariate Dichten sowie Violin-Diagramme und HDRs für univariate Dichten bereitzustellen. Mit den Schiebereglern kann der Benutzer die Bandbreite variieren. Bivariate und univariate Kernel-Dichteschätzungen werden auch von den Plattformen Fit Y by X und Distribution bereitgestellt.
  • In Julia ist die Kernel-Dichteschätzung in der implementiert KernelDensity.jl Paket.
  • In MATLAB wird die Kernel-Dichteschätzung durch das implementiert ksdensity Funktion (Statistik-Toolbox). Ab der MATLAB-Version 2018a können sowohl die Bandbreite als auch der Kernel-Smoother angegeben werden, einschließlich anderer Optionen, z. B. der Angabe des Bereichs der Kerneldichte.[30] Alternativ ein kostenloses MATLAB-Softwarepaket, das eine automatische Bandbreitenauswahlmethode implementiert[7] ist im MATLAB Central File Exchange für erhältlich
  • In Mathematica wird die numerische Kernel-Dichteschätzung durch die Funktion implementiert SmoothKernelDistribution[32] und eine symbolische Schätzung wird unter Verwendung der Funktion implementiert KernelMixtureDistribution[33] Beide bieten datengesteuerte Bandbreiten.
  • In Minitab hat die Royal Society of Chemistry ein Makro erstellt, um die Schätzung der Kerneldichte auf der Grundlage ihres Technical Brief 4 des Analytical Methods Committee durchzuführen.[34]
  • In der NAG-Bibliothek wird die Kernel-Dichteschätzung über das implementiert g10ba Routine (verfügbar in beiden Fortran[35] und der C.[36] Versionen der Bibliothek).
  • Im NukleiC ++ – Kerneldichtemethoden konzentrieren sich auf Daten aus der Gruppe Special Euclidean
    S.E.((3){ displaystyle SE (3)}

    .
  • In Octave wird die Kernel-Dichteschätzung durch die implementiert kernel_density Option (Ökonometriepaket).
  • In Origin kann ein 2D-Kerneldichtediagramm über die Benutzeroberfläche erstellt werden, und zwei Funktionen, Ksdensity für 1D und Ks2density für 2D, können über die Benutzeroberfläche verwendet werden LabTalk, Python- oder C-Code.
  • In Perl finden Sie eine Implementierung in der Statistik-KernelEstimation-Modul
  • In PHP finden Sie eine Implementierung in der MathPHP-Bibliothek
  • In Python gibt es viele Implementierungen: pyqt_fit.kde Modul in dem PyQt-Fit-Paket, SciPy (scipy.stats.gaussian_kde), Statistikmodelle (KDEUnivariate und KDEMultivariate) und Scikit-learn (KernelDensity) (siehe Vergleich[37]). KDEpy unterstützt gewichtete Daten und die FFT-Implementierung ist um Größenordnungen schneller als die anderen Implementierungen. Die häufig verwendete Pandas-Bibliothek [1] bietet Unterstützung für das kde-Plotten durch die Plotmethode (df.plot(kind='kde')[2]). Das getdist Das Paket für gewichtete und korrelierte MCMC-Samples unterstützt optimierte Bandbreite, Grenzkorrektur und Methoden höherer Ordnung für 1D- und 2D-Verteilungen. Ein neu verwendetes Paket zur Schätzung der Kerneldichte ist seaborn ( import seaborn as sns , sns.kdeplot() ).[38] Eine GPU-Implementierung von KDE ist ebenfalls vorhanden.[39]
  • In R wird es durch implementiert density in der Basisverteilung und bw.nrd0 Die Funktion wird im Statistikpaket verwendet. Diese Funktion verwendet die optimierte Formel in Silvermans Buch. bkde in dem KernSmooth-Bibliothek, ParetoDensityEstimation in dem AdaptGauss-Bibliothek (zur Schätzung der Pareto-Verteilungsdichte), kde in dem ks Bibliothek, dkden und dbckden in dem evmix Bibliothek (Letzteres für die grenzkorrigierte Kernel-Dichteschätzung für die begrenzte Unterstützung), npudens in dem np Bibliothek (numerische und kategoriale Daten), sm.density in dem sm Bibliothek. Für eine Umsetzung der kde.R Funktion, für die keine Pakete oder Bibliotheken installiert werden müssen, siehe kde.R. Das BTB-Bibliothek, der sich der Stadtanalyse widmet, implementiert die Kernel-Dichteschätzung durch kernel_smoothing.
  • In SAS proc kde kann verwendet werden, um univariate und bivariate Kerneldichten abzuschätzen.
  • In Apache Spark wird die KernelDensity() Klasse[40]
  • In Stata wird es durch implementiert kdensity;;[41] zum Beispiel histogram x, kdensity. Alternativ ist ein kostenloses Stata-Modul KDENS von erhältlich Hier Ermöglichen, dass ein Benutzer 1D- oder 2D-Dichtefunktionen schätzt.
  • In Swift wird es durch implementiert SwiftStats.KernelDensityEstimation in der Open-Source-Statistikbibliothek SwiftStats.

Siehe auch[edit]

Verweise[edit]

  1. ^ ein b Rosenblatt, M. (1956). “Anmerkungen zu einigen nichtparametrischen Schätzungen einer Dichtefunktion”. Die Annalen der mathematischen Statistik. 27 (3): 832–837. doi:10.1214 / aoms / 1177728190.
  2. ^ ein b Parzen, E. (1962). “Zur Abschätzung einer Wahrscheinlichkeitsdichtefunktion und eines Modus”. Die Annalen der mathematischen Statistik. 33 (3): 1065–1076. doi:10.1214 / aoms / 1177704472. JSTOR 2237880.
  3. ^ ein b Piryonesi S. Madeh; El-Diraby Tamer E. (01.06.2020). “Rolle der Datenanalyse im Infrastructure Asset Management: Überwindung von Datengrößen- und Qualitätsproblemen”. Journal of Transportation Engineering, Teil B: Gehwege. 146 (2): 04020022. doi:10.1061 / JPEODX.0000175.
  4. ^ Hastie, Trevor. (2001). Die Elemente des statistischen Lernens: Data Mining, Inferenz und Vorhersage: mit 200 farbigen Abbildungen. Tibshirani, Robert., Friedman, JH (Jerome H.). New York: Springer. ISBN 0-387-95284-5. OCLC 46809224.
  5. ^ Epanechnikov, VA (1969). “Nichtparametrische Schätzung einer multivariaten Wahrscheinlichkeitsdichte”. Wahrscheinlichkeitstheorie und ihre Anwendungen. 14: 153–158. doi:10.1137 / 1114019.
  6. ^ Zauberstab, MP; Jones, MC (1995). Kernel-Glättung. London: Chapman & Hall / CRC. ISBN 978-0-412-55270-0.
  7. ^ ein b c d Botev, Zdravko (2007). Nichtparametrische Dichteschätzung durch Diffusionsmischen (Technischer Bericht). Universität von Queensland.
  8. ^ Scott, D. (1979). “Auf optimalen und datenbasierten Histogrammen”. Biometrika. 66 (3): 605–610. doi:10.1093 / biomet / 66.3.605.
  9. ^ Park, BU; Marron, JS (1990). “Vergleich datengesteuerter Bandbreitenselektoren”. Zeitschrift der American Statistical Association. 85 (409): 66–72. CiteSeerX 10.1.1.154.7321. doi:10.1080 / 01621459.1990.10475307. JSTOR 2289526.
  10. ^ Park, BU; Turlach, BA (1992). “Praktische Leistung mehrerer datengesteuerter Bandbreitenselektoren (mit Diskussion)”. Computerstatistik. 7: 251–270.
  11. ^ Cao, R.; Cuevas, A.; Manteiga, WG (1994). “Eine vergleichende Untersuchung mehrerer Glättungsmethoden bei der Dichteschätzung”. Computerstatistik und Datenanalyse. 17 (2): 153–176. doi:10.1016 / 0167-9473 (92) 00066-Z.
  12. ^ Jones, MC; Marron, JS; Sheather, SJ (1996). “Ein kurzer Überblick über die Bandbreitenauswahl zur Dichteschätzung”. Zeitschrift der American Statistical Association. 91 (433): 401–407. doi:10.2307 / 2291420. JSTOR 2291420.
  13. ^ Sheather, SJ (1992). “Die Leistung von sechs gängigen Bandbreitenauswahlmethoden für einige reale Datensätze (mit Diskussion)”. Computerstatistik. 7: 225–250, 271–281.
  14. ^ Agarwal, N.; Aluru, NR (2010). “Ein datengesteuerter stochastischer Kollokationsansatz zur Quantifizierung der Unsicherheit in MEMS” (PDF). Internationale Zeitschrift für Numerische Methoden im Ingenieurwesen. 83 (5): 575–597.
  15. ^ Xu, X.; Yan, Z.; Xu, S. (2015). “Schätzung der Windgeschwindigkeitswahrscheinlichkeitsverteilung durch diffusionsbasierte Kerneldichtemethode”. Forschung zu Stromversorgungssystemen. 121: 28–37. doi:10.1016 / j.epsr.2014.11.029.
  16. ^ Botev, ZI; Grotowski, JF; Kroese, DP (2010). “Schätzung der Kerndichte durch Diffusion”. Annalen der Statistik. 38 (5): 2916–2957. arXiv:1011.2602. doi:10.1214 / 10-AOS799.
  17. ^ ein b Sheather, SJ; Jones, MC (1991). “Eine zuverlässige datenbasierte Bandbreitenauswahlmethode für die Schätzung der Kerneldichte”. Zeitschrift der Royal Statistical Society, Reihe B.. 53 (3): 683–690. doi:10.1111 / j.2517-6161.1991.tb01857.x. JSTOR 2345597.
  18. ^ Rudemo, M. (1982). “Empirische Auswahl von Histogrammen und Kernel-Dichteschätzern”. Skandinavisches Journal of Statistics. 9 (2): 65–78. JSTOR 4615859.
  19. ^ Bowman, AW (1984). “Eine alternative Methode zur Kreuzvalidierung zur Glättung von Dichteschätzungen”. Biometrika. 71 (2): 353–360. doi:10.1093 / biomet / 71.2.353.
  20. ^ Hall, P.; Marron, JS; Park, BU (1992). “Geglättete Kreuzvalidierung”. Wahrscheinlichkeitstheorie und verwandte Felder. 92: 1–20. doi:10.1007 / BF01205233.
  21. ^ Wahba, G. (1975). “Optimale Konvergenzeigenschaften von Methoden mit variablem Knoten, Kernel und orthogonalen Reihen zur Dichteschätzung”. Annalen der Statistik. 3 (1): 15–29. doi:10.1214 / aos / 1176342997.
  22. ^ Buch-Larsen, TINE (2005). “Schätzung der Kerndichte für Verteilungen mit schwerem Schwanz unter Verwendung der Champernowne-Transformation”. Statistiken. 39 (6): 503–518. CiteSeerX 10.1.1.457.1544. doi:10.1080 / 02331880500439782.
  23. ^ ein b Silverman, BW (1986). Dichteschätzung für Statistik und Datenanalyse. London: Chapman & Hall / CRC. p. 45. ISBN 978-0-412-24620-3.
  24. ^ Chen, Yen-Chi; Genovese, Christopher R.; Wasserman, Larry (2016). “Ein umfassender Ansatz für das Clustering von Modi”. Elektronisches Statistikjournal. 10 (1): 210–241. doi:10.1214 / 15-ejs1102. ISSN 1935-7524.
  25. ^ Chazal, Frédéric; Fasy, Bretagne Terese; Lecci, Fabrizio; Rinaldo, Alessandro; Wasserman, Larry (2014). “Stochastische Konvergenz von Persistenzlandschaften und Silhouetten”. Jährliches Symposium für Computergeometrie – SOCG’14. New York, New York, USA: ACM Press: 474–483. doi:10.1145 / 2582112.2582128. ISBN 978-1-4503-2594-3.
  26. ^ Fukunaga, K.; Hostetler, L. (Januar 1975). “Die Schätzung des Gradienten einer Dichtefunktion mit Anwendungen in der Mustererkennung”. IEEE-Transaktionen zur Informationstheorie. 21 (1): 32–40. doi:10.1109 / tit.1975.1055330. ISSN 0018-9448.
  27. ^ Yizong Cheng (1995). “Mittlere Verschiebung, Modus-Suche und Clustering”. IEEE-Transaktionen zur Musteranalyse und Maschinenintelligenz. 17 (8): 790–799. doi:10.1109 / 34.400568. ISSN 0162-8828.
  28. ^ Comaniciu, D.; Meer, P. (Mai 2002). “Mean Shift: Ein robuster Ansatz zur Analyse des Merkmalsraums”. IEEE-Transaktionen zur Musteranalyse und Maschinenintelligenz. 24 (5): 603–619. doi:10.1109 / 34.1000236. ISSN 0162-8828.
  29. ^ Janert, Philipp K (2009). Gnuplot in Aktion: Daten mit Grafiken verstehen. Connecticut, USA: Manning Publications. ISBN 978-1-933988-39-9. Siehe Abschnitt 13.2.2 mit dem Titel Kernel-Dichteschätzungen.
  30. ^ “Schätzung der Kernel-Glättungsfunktion für univariate und bivariate Daten – MATLAB-Dichte”. www.mathworks.com. Abgerufen 2020-11-05.
  31. ^ Horová, I.; Koláček, J.; Zelinka, J. (2012). Kernel Smoothing in MATLAB: Theorie und Praxis der Kernel Smoothing. Singapur: World Scientific Publishing. ISBN 978-981-4405-48-5.
  32. ^ “SmoothKernelDistribution – Wolfram-Sprachdokumentation”. reference.wolfram.com. Abgerufen 2020-11-05.
  33. ^ “KernelMixtureDistribution – Wolfram-Sprachdokumentation”. reference.wolfram.com. Abgerufen 2020-11-05.
  34. ^ “Software zur Berechnung der Kerneldichten”. www.rsc.org. Abgerufen 2020-11-05.
  35. ^ Die Gruppe der numerischen Algorithmen. “Routine-Dokument der NAG-Bibliothek: nagf_smooth_kerndens_gauss (g10baf)” (PDF). NAG Library Manual, Mark 23. Abgerufen 2012-02-16.
  36. ^ Die Gruppe der numerischen Algorithmen. “Routine-Dokument der NAG-Bibliothek: nag_kernel_density_estim (g10bac)” (PDF). NAG Library Manual, Mark 9. Archiviert von das Original (PDF) am 2011-11-24. Abgerufen 2012-02-16.
  37. ^ Vanderplas, Jake (2013-12-01). “Kernel Density Estimation in Python”. Abgerufen 2014-03-12.
  38. ^ “seaborn.kdeplot – seaborn 0.10.1 Dokumentation”. seaborn.pydata.org. Abgerufen 2020-05-12.
  39. ^ https://pypi.org/project/kde-gpu/#description
  40. ^ “Grundlegende Statistik – RDD-basierte API – Spark 3.0.1-Dokumentation”. spark.apache.org. Abgerufen 2020-11-05.
  41. ^ https://www.stata.com/manuals15/rkdensity.pdf

Externe Links[edit]