[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/k-means-algorithmus-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/k-means-algorithmus-wikipedia\/","headline":"K-means-algorithmus – wikipedia","name":"K-means-algorithmus – wikipedia","description":"before-content-x4 UN k -Means-algorithmus est un processus de quantification vectorielle qui est \u00e9galement utilis\u00e9 pour l’analyse en grappes. Un grand","datePublished":"2023-11-22","dateModified":"2023-11-22","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/c3c9a2c7b599b37105512c5d570edc034056dd40","url":"https:\/\/wikimedia.org\/api\/rest_v1\/media\/math\/render\/svg\/c3c9a2c7b599b37105512c5d570edc034056dd40","height":"","width":""},"url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/k-means-algorithmus-wikipedia\/","wordCount":8530,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4UN k -Means-algorithmus est un processus de quantification vectorielle qui est \u00e9galement utilis\u00e9 pour l’analyse en grappes. Un grand nombre d’objets similaires deviennent un nombre auparavant connu de k Groupes form\u00e9s. L’algorithme est l’une des techniques les plus fr\u00e9quemment utilis\u00e9es pour regrouper des objets car elle trouve rapidement les centres des grappes. L’algorithme pr\u00e9f\u00e8re les groupes avec une faible variance et une taille similaire. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4L’algorithme pr\u00e9sente de solides similitudes avec l’algorithme du championnat d’Europe et se caract\u00e9rise par sa simplicit\u00e9. [d’abord] Les extensions sont k-meian-algorithmus et le K-means ++ algorithmus . Le terme “k-means” a \u00e9t\u00e9 utilis\u00e9 pour la premi\u00e8re fois par MacQueen en 1967, [2] Cependant, l’id\u00e9e revient \u00e0 Hugo Steinhaus en 1957. [3] L’algorithme standard, qui est surtout connu comme “l’algorithme K-Means” aujourd’hui, a \u00e9t\u00e9 propos\u00e9 par Lloyd pour la modulation du code d’impulsion en 1957, mais publi\u00e9 uniquement dans un magazine informatique en 1982 [4] Et co\u00efncide en grande partie avec la m\u00e9thode Forgy, qui a \u00e9t\u00e9 publi\u00e9e en 1965. [5] Une autre variante est celle de Hartigan et Wong, qui \u00e9vite les calculs de distance inutiles en utilisant \u00e9galement la distance jusqu’\u00e0 la deuxi\u00e8me nuit. [6] [7] Une affectation pr\u00e9cise des algorithmes est souvent faite: en particulier, l’algorithme de Lloyd \/ Forgy est souvent d\u00e9crit, mais MacQueen est mentionn\u00e9 comme la source. Le but de k -Means consiste \u00e0 faire l’enregistrement des donn\u00e9es de cette mani\u00e8re (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4k {displaystyle k} Les partitions pour partager que la somme des \u00e9carts carr\u00e9s par rapport au cluster se concentre est minime. Math\u00e9matiquement, cela correspond \u00e0 l’optimisation de la fonction J = \u2211 i=1k\u2211 xj\u2208Si\u2016 xj– \u03bci\u20162{displayStyle j = sum _ {i = 1} ^ {k} sum _ {mathbf {x} _ {j} en s_ {i}} {| mathbf {x} _ {j} – {boldSymbol {mu}} _ {i} | ^ {2}}} Avec les points de donn\u00e9es X J {displayStyle mathbf {x} _ {j}} Et l’objectif (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4m je {displayStyle {boldsymbol {mu}} _ {i}} Le cluster S je {displayStyle s_ {i}} .Cette fonction cible est bas\u00e9e sur la m\u00e9thode des plus petits carr\u00e9s et on parle \u00e9galement de Clustering gr\u00e2ce \u00e0 la minimisation de la variance , [8] Parce que la somme des variances du cluster est minimis\u00e9e. Depuis aussi \u2016 X J – m je \u2016 2 {displayStyle | mathbf {x} _ {j} – {boldsymbol {mu}} _ {i} | ^ {2}} La distance euclidi carr\u00e9e est command\u00e9e k -Mesans effectivement chaque objet au cluster le plus proche (selon la distance euclidieuse). Inversement, la moyenne arithm\u00e9tique est un plus petit estimateur de carton, donc ce crit\u00e8re optimise \u00e9galement. \u00c9tant donn\u00e9 que la recherche de la solution optimale est difficile (NP-SHW), un algorithme d’approximation est g\u00e9n\u00e9ralement utilis\u00e9 comme l’heuristiken de Lloyd ou MacQueen. Depuis le probl\u00e8me de k Cela d\u00e9pend de ce param\u00e8tre doit \u00eatre d\u00e9termin\u00e9 par l’utilisateur. Cependant, il existe \u00e9galement des approches pour choisir ce param\u00e8tre en utilisant un deuxi\u00e8me objet (cf. x-means, crit\u00e8re d’information Akaike, crit\u00e8re d’information Bayesch et coefficient de silhouetting). Table of ContentsAlgorithme lloyd [ Modifier | Modifier le texte source ]] L’algorithme de MacQueen [ Modifier | Modifier le texte source ]] Variations [ Modifier | Modifier le texte source ]] K-median [ Modifier | Modifier le texte source ]] K-means ++ [ Modifier | Modifier le texte source ]] K-M\u00e9dites (PAM) [ Modifier | Modifier le texte source ]] Algorithme lloyd [ Modifier | Modifier le texte source ]] Le plus courant utilis\u00e9 k -Lesseans algorithme est l’algorithme Lloyd, qui est souvent \u00able k -Means algorithme \u00bbest appel\u00e9, bien que Lloyd n’utilise pas ce nom. L’algorithme de Lloyd se compose de trois \u00e9tapes: Initialisation: Choisir k {displaystyle k} valeurs moyennes al\u00e9atoires ( Moyens ): m1(1), … , mk(1){displayStyle Mathbf {m} _ {1} ^ {(1)}, ldots, mathbf {m} _ {k} ^ {(1)}} De l’ensemble de donn\u00e9es. Mission: Chaque objet de donn\u00e9es est attribu\u00e9 au cluster dans lequel la variance du cluster est la moins augment\u00e9e. S i(t)= { xj:\u2016xj\u2212mi(t)\u20162\u2264\u2016xj\u2212mi\u2217(t)\u20162\u00a0f\u00fcr alle\u00a0i\u2217=1,\u2026,k} {displayStyle s_ {i} ^ {(t)} = gauche {mathbf {x} _ {j}: {big |} mathbf {x} _ {j} -mathbf {m} _ {i} ^ {(t)} {big |} ^ {2} leq {big |} Mathbf {m} _ {i ^ {*}} ^ {(t)} {Big |} ^ {2} {texte {f\u00fcr alle}} i ^ {*} = 1, ldots, kright}} Mettre \u00e0 jour: Calculez les points centraux du cluster: mi(t+1)= 1|Si(t)|\u2211 xj\u2208Si(t)xj{affichestyle mathbf {m} _ {i} ^ {(t + 1)} = {frac {1} {| s_ {i} ^ {(t)} |}} sum _ {mathbf {x} _ {j} dans s_ {i} ^ {t)}}} Mathbf {x} Les \u00e9tapes 2 \u00e0 3 sont r\u00e9p\u00e9t\u00e9es jusqu’\u00e0 ce que les affectations ne changent plus. L’algorithme de MacQueen [ Modifier | Modifier le texte source ]] MacQueen a men\u00e9 avec le terme ” k -Means \u201dUn autre algorithme: Choisissez le premier k {displaystyle k} \u00c9l\u00e9ments comme centres de cluster Way chaque nouvel \u00e9l\u00e9ment vers le cluster dans lequel la variance augmente le moins et mettez \u00e0 jour le centre de cluster Bien qu’il soit \u00e0 l’origine – probablement pas pr\u00e9vu, cet algorithme peut \u00e9galement \u00eatre it\u00e9r\u00e9 afin d’obtenir un meilleur r\u00e9sultat. Variations [ Modifier | Modifier le texte source ]] K-Means ++ essaie de trouver de meilleurs points de d\u00e9part. [9] L’algorithme de filtrage utilise une arborescence K-D comme structure de donn\u00e9es. [dix] L’algorithme K-Means peut \u00eatre acc\u00e9l\u00e9r\u00e9, en tenant compte de l’all\u00e9gement triangulaire. [11] Bisecting k-means commence par k = 2 {displayStyle k = 2} , puis divise toujours le plus grand cluster jusqu’\u00e0 ce que vous souhaitiez k est atteint. X-Means commence par k = 2 {displayStyle k = 2} et augment\u00e9 k {displaystyle k} Jusqu’\u00e0 ce qu’un crit\u00e8re secondaire (crit\u00e8re d’information Akaike ou crit\u00e8re d’information de Bayesche) ne s’am\u00e9liore pas. k -Means optimise les \u00e9carts carr\u00e9s par rapport \u00e0 une moyenne. Il ne peut donc \u00eatre utilis\u00e9 qu’avec des attributs num\u00e9riques dans lesquels une moyenne sens\u00e9e peut \u00eatre calcul\u00e9e. Les attributs cat\u00e9goriques (par exemple “” voiture “,” camion “,” v\u00e9lo “) ne peuvent pas \u00eatre utilis\u00e9s, car aucune moyenne ne peut \u00eatre calcul\u00e9e ici. Le param\u00e8tre k {displaystyle k} Le nombre de clusters doit \u00eatre connu \u00e0 l’avance. Cependant, il peut \u00e9galement \u00eatre d\u00e9termin\u00e9 exp\u00e9rimentalement. Le probl\u00e8me est que les diff\u00e9rents clusters doivent \u00eatre compar\u00e9s et la fonction de co\u00fbt avec l’augmentation k {displaystyle k} Monoton coule. Une solution est le coefficient de silhouette, l’un des k {displaystyle k} Fournit une \u00e9valuation ind\u00e9pendante des clusters. Il est non seulement v\u00e9rifi\u00e9 \u00e0 quel point un point de l’objectif de votre propre cluster est, mais les distances des autres zones de cluster sont \u00e9galement incluses dans l’\u00e9valuation du regroupement. Les clusters dans l’enregistrement de donn\u00e9es doivent \u00eatre \u00e0 peu pr\u00e8s de la m\u00eame taille, car l’algorithme varie toujours l’enregistrement de donn\u00e9es au milieu entre deux centres de cluster. L’enregistrement de donn\u00e9es ne doit pas contenir beaucoup de bruit ou pas beaucoup de valeurs aberrantes. Des objets de donn\u00e9es incorrects d\u00e9placent souvent consid\u00e9rablement les centres de cluster calcul\u00e9s et l’algorithme n’a pas de pr\u00e9cautions contre de tels effets (cf. DBSCAN, qui pr\u00e9voit explicitement des objets “bruit”). k -Means est un algorithme puissant, mais non sans faiblesse. UN k -Leans Algorithme n’a pas \u00e0 trouver la meilleure solution possible. La solution trouv\u00e9e d\u00e9pend fortement des points de d\u00e9part s\u00e9lectionn\u00e9s. L’approche la plus simple consiste \u00e0 d\u00e9marrer l’algorithme plusieurs fois cons\u00e9cutif avec diff\u00e9rentes valeurs de d\u00e9part et \u00e0 prendre la meilleure solution. Cependant, il existe \u00e9galement de nombreuses consid\u00e9rations sur la fa\u00e7on dont une distribution appropri\u00e9e des valeurs de d\u00e9part peut \u00eatre obtenue. Entre autres choses, K-means ++ m\u00e9ritent d’\u00eatre mentionn\u00e9s, mais aussi avec la traction de petits \u00e9chantillons, les centres de cluster peuvent \u00eatre approxim\u00e9s avant le d\u00e9but des K-means. Cela fait \u00e9galement la diff\u00e9rence que vous choisissiez des centres de cluster, ou que vous attribuez chaque point \u00e0 un cluster, puis que vous d\u00e9terminez les centres de cluster. Un autre inconv\u00e9nient est que le nombre de centres de cluster k {displaystyle k} est choisi \u00e0 l’avance. Lorsque vous utilisez un inadapt\u00e9 k {displaystyle k} Des solutions compl\u00e8tement diff\u00e9rentes, peut-\u00eatre involontaires, peuvent survenir. Avec un “mauvais” k {displaystyle k} Je ne peux pas prendre de bons clusters. La solution est des valeurs diff\u00e9rentes pour k {displaystyle k} Pour l’essayer, puis choisissez-en un, par exemple \u00e0 l’aide du coefficient de silhouette, ou en comparant les diff\u00e9rents co\u00fbts de regroupement. Les groupes dans les donn\u00e9es peuvent se chevaucher et fusionner de mani\u00e8re transparente les uns dans les autres, comme dans les \u00e9p\u00e9es montr\u00e9es. Dans un tel cas peut k -Mesans ne s\u00e9parent pas de mani\u00e8re fiable ces groupes car les donn\u00e9es ne suivent pas le mod\u00e8le de cluster utilis\u00e9. De plus, la d\u00e9pendance k -Mesans toujours convex (en raison de la minimisation de la distance \u00e0 la mise au point du cluster). D’autres algorithmes tels que DBSCAN peuvent \u00e9galement trouver des grappes souhait\u00e9es “dens\u00e9ment bas\u00e9es”. Quoi aussi de k -Les membres ne sont pas pris en charge sont des grappes hi\u00e9rarchiques (c’est-\u00e0-dire des clusters, qui \u00e0 leur tour ont une structure de cluster), tels que ceux-ci peuvent \u00eatre trouv\u00e9s avec l’optique, par exemple. Enfin, chaque point est affect\u00e9 \u00e0 un cluster en K-means, il n’y a aucun moyen de reconna\u00eetre les valeurs aberrantes. Ceux-ci peuvent falsifier le r\u00e9sultat. Un rem\u00e8de peut \u00eatre corrig\u00e9 ici, ou d’autres algorithmes, tels que DBSCAN, qui reconnaissent automatiquement le bruit. K-median [ Modifier | Modifier le texte source ]] Dans l’algorithme K-Median, la distance de Manhattan est utilis\u00e9e dans l’\u00e9tape d’attribution au lieu de la distance euclidienne. Dans l’\u00e9tape de mise \u00e0 jour, la m\u00e9diane est utilis\u00e9e au lieu de la moyenne. [douzi\u00e8me] [13] K-means ++ [ Modifier | Modifier le texte source ]] L’algorithme K-Means ++ – ne choisit pas le cluster se concentre sur l’accident, mais selon le r\u00e8glement suivant: En tant que premier objectif principal du cluster, Chance un objet Calculez la distance pour chaque objet D ( X ) {displayStyle d (x)} \u00c0 la mise au point du cluster le plus proche S\u00e9lectionnez un objet comme concentration du cluster suivant. La probabilit\u00e9 avec laquelle un objet s\u00e9lectionn\u00e9 est proportionnel \u00e0 D 2( X ) {displayStyle d ^ {2} (x)} , d. H. Plus l’objet est supprim\u00e9 de la mise au point d\u00e9j\u00e0 s\u00e9lectionn\u00e9e, plus il est probable qu’il soit s\u00e9lectionn\u00e9. R\u00e9p\u00e9tez les \u00e9tapes 2 et 3 \u00e0 k {displaystyle k} Les concentrations de cluster sont d\u00e9termin\u00e9es Effectuez maintenant l’algorithme habituel de K-means En r\u00e8gle g\u00e9n\u00e9rale, l’algorithme K-Means ult\u00e9rieur converge en quelques \u00e9tapes. Les r\u00e9sultats sont aussi bons qu’avec un algorithme K-Means habituel, mais l’algorithme est g\u00e9n\u00e9ralement presque deux fois plus rapide que l’algorithme K-Means. [14] K-M\u00e9dites (PAM) [ Modifier | Modifier le texte source ]] L’algorithme PAM (partitionnement autour des M\u00e9o\u00efdes, Kaufman et Rousseeuw, 1990) – connue \u00e9galement sous le nom de k\u00e9o\u00efdes K [15] -Tour peut \u00eatre interpr\u00e9t\u00e9 comme une variante de l’algorithme K-Mean, qui avec n’importe quel Distances converg\u00e9es. Choisir k {displaystyle k} Objets comme cluster se concentre (Medoid) Commandez chaque objet \u00e0 la foyer du cluster suivant Pour chaque concentration en cluster et chaque foyer sans cluster, les r\u00f4les sont excav\u00e9s Calculez la somme des distances ou moins que des similitudes pour chaque \u00e9change Choisissez l’\u00e9change qui offre la plus petite somme \u00e0 mesure que le nouveau cluster se concentre R\u00e9p\u00e9ter 2.-5. Jusqu’\u00e0 ce que le cluster se concentre ne change plus Dans la version originale de PAM, la premi\u00e8re \u00e9tape – le choix des m\u00e9do\u00efdes initiaux – fait une grande partie de l’algorithme. \u00c9tant donn\u00e9 que seul le meilleur \u00e9change est effectu\u00e9 dans chaque it\u00e9ration, l’algorithme est presque d\u00e9terministe (sauf pour exactement les m\u00eames distances). En cons\u00e9quence, l’algorithme est g\u00e9n\u00e9ralement tr\u00e8s lent. Alors que K-Means minimise la somme des variances, les k\u00e9dites K minimise les distances. En particulier, cet algorithme avec toutes les fonctions de distance peut \u00eatre utilis\u00e9 et garantit toujours. Les images suivantes montrent une course d’un k -Means Algorithme pour d\u00e9terminer trois groupes: Trois centres de cluster ont \u00e9t\u00e9 choisis. Les objets (points de donn\u00e9es) repr\u00e9sent\u00e9s par des rectangles sont affect\u00e9s au cluster avec le centre de cluster suivant. Les centres (concentration respective) des grappes sont recalcul\u00e9s. Les objets sont \u00e0 nouveau redistribu\u00e9s et affect\u00e9s au cluster, dont le centre est le plus proche. Dans le traitement d’image, le k -Leans algorithme souvent utilis\u00e9 pour la segmentation. En tant que mesure de distance, la distance euclidale n’est souvent pas suffisante et d’autres fonctions de distance, bas\u00e9es sur des intensit\u00e9s de pixels et des coordonn\u00e9es de pixels, peuvent \u00eatre utilis\u00e9es. Les r\u00e9sultats sont utilis\u00e9s pour s\u00e9parer le premier plan et le fond et pour la reconnaissance des objets. L’algorithme est r\u00e9pandu et est dans des biblioth\u00e8ques de traitement d’image communes telles que OpenCV, Scikit Image [16] et ITK impl\u00e9ment\u00e9. K-Means et ses variantes sont disponibles dans divers logiciels open source. Dlib [17] Elki contient les variantes de Lloyd et MacQueen, ainsi que diverses strat\u00e9gies pour les valeurs de d\u00e9part telles que K-Means ++ et les variantes d’algorithme telles que les K-Mediens, les K-M\u00e9do\u00efdes et le PAM. GNU R contient les variantes de Hartigan, Lloyd et MacQueen, et des variations suppl\u00e9mentaires dans le package d’extension “FlexClust”. OpenCV contient une version de K-means (y compris K-means ++ semis) optimis\u00e9e pour le traitement d’image) Scikit-Learn contient des k-means, y compris la variante d’Elkan et K-means ++. Weka contient des k-means (y compris l’ensemencement K-means ++) et l’expansion des mi-moyens. David Mackay: Algorithmes de th\u00e9orie de l’information, d’inf\u00e9rence et d’apprentissage . Cambridge University Press, 2003, ISBN 0-521-64298-1, chapitre 20. Un exemple de t\u00e2che d’inf\u00e9rence: clustering, S. 284\u2013292 ( inference.phy.cam.ac.uk [PDF]). Gary Bradski, Adrian Kaehler: Apprentissage de la vision de l’ordinateur OpenCV avec la biblioth\u00e8que OpenCV . O\u2019Reilly, 2001, ISBN 978-0-596-51613-0. \u2191 Gary Bradski, Adrian Kaehler: Apprentissage de la vision de l’ordinateur OpenCV avec la biblioth\u00e8que OpenCV . O\u2019Reilly, 2001, ISBN 978-0-596-51613-0, S. 479\u2013480 . \u2191 J. B. MacQueen: Quelques m\u00e9thodes de classification et d’analyse des observations multivari\u00e9es . Dans: Actes du 5e Symposium de Berkeley sur les statistiques math\u00e9matiques et la probabilit\u00e9 . Groupe d’abord . University of California Press, 1967, S. 281\u2013297 ( ProjecTeuclid.org [Consult\u00e9 le 7 avril 2009]). \u2191 Hugo Steinhaus: Sur la division des corps mat\u00e9riels en parties . Dans: Taureau. Acad. Polon. Sciss. 12. \u00c9dition. Groupe 4 , 1957, S. 801\u2013804 (Fran\u00e7ais). \u2191 S. P. Lloyd: Quantification des moindres carr\u00e9s dans PCM . Dans: Papier des laboratoires de t\u00e9l\u00e9phone Bell . 1957. , plus tard dans un magazine: S. P. Lloyd: Quantification des moindres carr\u00e9s dans PCM . Dans: Transactions IEEE sur la th\u00e9orie de l’information . 2e \u00e9dition. Groupe 28 , 1982, S. 129\u2013137 , est ce que je: 10.1109 \/ tit.1982.1056489 ( Cs.toronto.edu [PDF; 1.3 Mb ; Consult\u00e9 le 15 avril 2009]). \u2191 E.W. Forgy: Analyse en grappes des donn\u00e9es multivari\u00e9es: efficacit\u00e9 et interpr\u00e9tabilit\u00e9 des classifications . Dans: Biom\u00e9trie . 21. \u00c9dition. 1965, S. 768\u2013769 . \u2191 J.A. Hartigan: Algorithmes de regroupement . John Wiley & Sons, 1975. \u2191 J. A. Hartigan, M. A. Wong: Algorithme comme 136: un algorithme de clustering k-means . Dans: Journal de la Royal Statistical Society, s\u00e9rie C (statistiques appliqu\u00e9es) . 1\u00e8re \u00e9dition. Groupe 28 , 1979, S. 100\u2013108 , Jstor: 2346830 . \u2191 Martin Ester, J\u00f6rg Sander: D\u00e9couverte de connaissances dans les bases de donn\u00e9es: techniques et applications . Springer, Berlin 2000, ISBN 3-540-67328-8. \u2191 David Arthur, Sergei Vassilvitskii: K-means ++: les avantages de l’ensemencement prudent . Dans: Actes du dix-huiti\u00e8me symposium annuel ACM-SIAM sur les algorithmes discrets . Society for Industrial and Applied Mathematics, Philadelphia, PA, USA 2007, ISBN 978-0-89871-624-5, S. 1027\u20131035 ( Stanford.edu [PDF; Consult\u00e9 le 27 mars 2015]). \u2191 T. Kanunggo, D. M. Mountain, N. S. Netanyahu, C. D. Piatko, R. Silverman, A. Wu: Un algorithme de clustering K-Means efficace: analyse et mise en \u0153uvre . Dans: IEEE trans. Analyse des mod\u00e8les et intelligence de la machine . Vol. 24, 2002, S. 881\u2013892 , est ce que je: 10.1109 \/ tpami. 2002.1017616 (Anglais, umd.edu [PDF; Consult\u00e9 le 24 avril 2009]). \u2191 C. Elkan: Utiliser l’in\u00e9galit\u00e9 du triangle pour acc\u00e9l\u00e9rer les k-means . Dans: Actes de la vingti\u00e8me conf\u00e9rence internationale sur l’apprentissage automatique (ICML) . 2003 ( ucsd.edu [PDF; 88 kb ]). \u2191 A. K. Jain, R. C. Dubes: Algorithmes pour les donn\u00e9es de clustering , Prentice-Hall, 1981. \u2191 P. S. S. Bradley, O. L. Mangasaria, W. N. Street: Clustering via la minimisation concave. Dans: M. C. Mozer, M. I. Jordan, T. Pettsche (HRSG.): Progr\u00e8s des syst\u00e8mes de traitement de l’information neuronaux , vol. 9, MIT Press, Cambridge MA 1997, S. 368\u2013374. \u2191 T. Kanunggo, D. Mount, N. Netanyahux, C. Piatko, R. Silverman, A. Wu Un algorithme d’approximation de recherche local pour k -Means Clustering . (PDF; 170 Ko) dans: G\u00e9om\u00e9trie informatique: th\u00e9orie et applications , 2004. \u2191 S. Vinod: Programmation enti\u00e8re et th\u00e9orie du regroupement . Dans: Journal de l’American Statistical Association . Groupe soixante-quatre , 1969, S. 506-517 . \u2191 Module: Segmentation – Docs de skimage. Consult\u00e9 le 8 septembre 2018 (Anglais). \u2191 Biblioth\u00e8que DLIB C ++ – KKMEANS_EX.CPP. Consult\u00e9 le 8 janvier 2019 . (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/k-means-algorithmus-wikipedia\/#breadcrumbitem","name":"K-means-algorithmus – wikipedia"}}]}]