[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/ransac-algorithmus-wikipedia-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/ransac-algorithmus-wikipedia-wikipedia\/","headline":"Ransac-Algorithmus – Wikipedia Wikipedia","name":"Ransac-Algorithmus – Wikipedia Wikipedia","description":"before-content-x4 Ransac ( Anglais couru dom sur m\u00e8re c insensible , L’allemand, par exemple, “l’accord avec un \u00e9chantillon al\u00e9atoire”) est","datePublished":"2018-02-23","dateModified":"2018-02-23","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/2\/23\/Ausrei%C3%9Fer.svg\/220px-Ausrei%C3%9Fer.svg.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/2\/23\/Ausrei%C3%9Fer.svg\/220px-Ausrei%C3%9Fer.svg.png","height":"167","width":"220"},"url":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/ransac-algorithmus-wikipedia-wikipedia\/","wordCount":8145,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Ransac ( Anglais couru dom sur m\u00e8re c insensible , L’allemand, par exemple, “l’accord avec un \u00e9chantillon al\u00e9atoire”) est un algorithme de r\u00e9\u00e9chantillonnage pour estimer un mod\u00e8le dans une s\u00e9rie de valeurs mesur\u00e9es avec des valeurs aberrantes et des erreurs brutes. En raison de sa robustesse envers les valeurs aberrantes, il est principalement utilis\u00e9 dans la zone informatique de la vision de l’ordinateur. Ici, Ransac prend en charge – en calculant une quantit\u00e9 de donn\u00e9es ajust\u00e9es au SO Ensembles de consensus – Proc\u00e9dure de compensation telle que la m\u00e9thode des plus petits carr\u00e9s, qui \u00e9chouent g\u00e9n\u00e9ralement avec un plus grand nombre de valeurs aberrantes. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Ransac a \u00e9t\u00e9 officiellement pr\u00e9sent\u00e9 en 1981 par Martin A. Fischler et Robert C. Bolles dans les communications de l’ACM. Une pr\u00e9sentation interne \u00e0 l’International SRI, sur lequel les deux auteurs ont travaill\u00e9, [d’abord] [2] d\u00e9j\u00e0 eu lieu en mars 1980. [3] Une alternative \u00e0 Ransac sont les M-estimateurs. Par rapport \u00e0 d’autres estimations, telles que l’estimateur maximal du likelihood, ceux-ci sont plus robustes.Ransac est bas\u00e9 sur des sous-\u00e9chantillonnage al\u00e9atoire r\u00e9p\u00e9t\u00e9 [4] . \u00c0 la suite d’une mesure, il existe souvent des points de donn\u00e9es qui repr\u00e9sentent des valeurs physiques telles que la pression, la distance ou la temp\u00e9rature, les tailles \u00e9conomiques ou similaires. Une courbe de mod\u00e8le, qui est aussi pr\u00e9cise que possible, doit \u00eatre plac\u00e9e dans ces points. Il y a plus de points de donn\u00e9es que n\u00e9cessaire pour d\u00e9terminer les param\u00e8tres; Le mod\u00e8le est donc d\u00e9pass\u00e9. Les valeurs mesur\u00e9es peuvent contenir des valeurs aberrantes, c’est-\u00e0-dire des valeurs qui ne s’int\u00e8grent pas dans la s\u00e9rie attendue de mesures. \u00c9tant donn\u00e9 que les mesures ont \u00e9t\u00e9 principalement effectu\u00e9es manuellement jusqu’\u00e0 ce que le d\u00e9veloppement de la technologie num\u00e9rique, le contr\u00f4le par le chirurgien a fait que la proportion de valeurs aberrantes \u00e9tait principalement faible. Les salgorithmes de compensation utilis\u00e9s \u00e0 l’\u00e9poque, tels que la m\u00e9thode des plus petits carr\u00e9s, sont bien adapt\u00e9s \u00e0 l’\u00e9valuation de ces enregistrements de donn\u00e9es avec peu de valeurs aberrantes: avec leur aide, le mod\u00e8le est d’abord d\u00e9termin\u00e9 avec l’int\u00e9gralit\u00e9 des points de donn\u00e9es puis essaie de d\u00e9tecter les valeurs aberrantes. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4La valeur aberrante individuelle tire la p\u00e9r\u00e9zation directement vers le haut Avec le d\u00e9veloppement de la technologie num\u00e9rique du d\u00e9but des ann\u00e9es 80, les bases ont chang\u00e9. En raison des nouvelles possibilit\u00e9s, les m\u00e9thodes de mesure automatiques ont \u00e9t\u00e9 de plus en plus utilis\u00e9es, en particulier dans la zone de l’ordinateur. En cons\u00e9quence, il existe souvent un grand nombre de valeurs, qui contient g\u00e9n\u00e9ralement de nombreuses valeurs aberrantes. Les proc\u00e9dures traditionnelles supposent une distribution normale des erreurs et ne fournissent parfois pas de r\u00e9sultat raisonnable si les points de donn\u00e9es contiennent de nombreuses valeurs aberrantes. Ceci est illustr\u00e9 dans la repr\u00e9sentation oppos\u00e9e. Une ligne droite (le mod\u00e8le) doit \u00eatre adapt\u00e9e aux points (valeurs mesur\u00e9es). La valeur aberrante individuelle en dessous des 20 points de donn\u00e9es peut, d’une part, \u00eatre exclue au moyen de proc\u00e9dures traditionnelles avant de d\u00e9terminer celle. D’un autre c\u00f4t\u00e9, en raison de son emplacement, il influence la p\u00e9r\u00e9zation droite de mani\u00e8re disproportionn\u00e9e (effet de levier si appel\u00e9). L’algorithme Ransac suit une nouvelle approche it\u00e9rative. Au lieu de compenser toutes les valeurs mesur\u00e9es ensemble, seulement autant de valeurs s\u00e9lectionn\u00e9es au hasard sont utilis\u00e9es, comme n\u00e9cessaire pour calculer les param\u00e8tres du mod\u00e8le (en cas de ligne droite qui serait de deux points). Il est initialement suppos\u00e9 que les valeurs s\u00e9lectionn\u00e9es ne sont pas des valeurs aberrantes. Cette hypoth\u00e8se est v\u00e9rifi\u00e9e en calculant d’abord le mod\u00e8le \u00e0 partir des valeurs s\u00e9lectionn\u00e9es au hasard, puis en d\u00e9terminant la distance de toutes les valeurs mesur\u00e9es (c’est-\u00e0-dire non seulement la s\u00e9lectionn\u00e9e \u00e0 l’origine) \u00e0 ce mod\u00e8le. Si la distance d’une valeur mesur\u00e9e au mod\u00e8le est inf\u00e9rieure \u00e0 un seuil pr\u00e9c\u00e9demment d\u00e9fini, cette valeur mesur\u00e9e par rapport au mod\u00e8le calcul\u00e9 n’est pas une erreur brute. Il les soutiens Donc \u00e7a. Plus les valeurs sont mesur\u00e9es prennent en charge le mod\u00e8le, plus les valeurs s\u00e9lectionn\u00e9es par hasard ne contenaient pas de valeurs aberrantes pour le calcul du mod\u00e8le. Ces trois \u00e9tapes – s\u00e9lection al\u00e9atoire des valeurs mesur\u00e9es, calcul des param\u00e8tres du mod\u00e8le et d\u00e9termination du support – sont r\u00e9p\u00e9t\u00e9s plusieurs fois ind\u00e9pendamment. Dans chaque it\u00e9ration, il est enregistr\u00e9, les valeurs mesur\u00e9es prennent en charge le mod\u00e8le respectif. Ce montant sera Ensemble de consensus appel\u00e9. Du plus grand Ensemble de consensus , Id\u00e9alement ne contient plus de valeurs aberrantes, la solution est finalement d\u00e9termin\u00e9e avec l’une des proc\u00e9dures de compensation traditionnelles. Comme mentionn\u00e9, de nombreuses valeurs aberrantes se produisent en particulier dans le cas des mesures automatiques. Ceux-ci sont souvent effectu\u00e9s dans la zone informatique, de sorte que Ransac est particuli\u00e8rement r\u00e9pandu ici. Certaines applications sont pr\u00e9sent\u00e9es ci-dessous. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Image panorama envoy\u00e9e d’Alcatraz: \u00e0 cette fin, les images individuelles doivent \u00eatre superpos\u00e9es afin de les n\u00e9gliger ensuite. Pour ce faire, des caract\u00e9ristiques communes doivent \u00eatre trouv\u00e9es dans les sous-traits. Dans le traitement d’image, Ransac est utilis\u00e9 pour d\u00e9terminer les points homologues entre deux images de cam\u00e9ra. Les homologues sont les deux pixels qui cr\u00e9ent un seul point d’objet dans les deux images. L’attribution des points d’homologue est appel\u00e9e probl\u00e8me de correspondance. Le r\u00e9sultat d’une analyse automatique contient g\u00e9n\u00e9ralement un plus grand nombre d’\u00e9checs. Les proc\u00e9dures d’utilisation de Ransac qui se sont install\u00e9es sur le r\u00e9sultat de l’analyse de correspondance pour exclure la d\u00e9faillance. Un exemple de cette proc\u00e9dure est la cr\u00e9ation d’une image panoramique de divers plans individuels plus petits (couture). [5] Un autre est le calcul de la g\u00e9om\u00e9trie \u00e9pipolaire. Il s’agit d’un mod\u00e8le de g\u00e9om\u00e9trie qui repr\u00e9sente les relations g\u00e9om\u00e9triques entre diff\u00e9rentes images de cam\u00e9ra du m\u00eame objet. Ici, Ransac sert \u00e0 d\u00e9terminer la matrice fondamentale, qui d\u00e9crit la relation g\u00e9om\u00e9trique entre les images. Chez Darpa Grand Challenge, une comp\u00e9tition pour les v\u00e9hicules terrestres autonomes, Ransac a \u00e9t\u00e9 utilis\u00e9 pour d\u00e9terminer le niveau de la route et reconstruire le mouvement du v\u00e9hicule. [6] L’algorithme est \u00e9galement utilis\u00e9 pour adapter les corps g\u00e9om\u00e9triques tels que les cylindres ou similaires en quantit\u00e9s de points \u00e0 trois dimensions bruyantes ou pour segmenter automatiquement les nuages \u200b\u200bponctuels. Tous les points qui n’appartiennent pas au m\u00eame segment sont consid\u00e9r\u00e9s comme des valeurs aberrantes. Selon une estimation du corps le plus dominant dans le nuage de points, tous les points appartenant \u00e0 ce corps sont supprim\u00e9s afin de pouvoir d\u00e9terminer plus de corps \u00e0 l’\u00e9tape suivante. Ce processus est r\u00e9p\u00e9t\u00e9 jusqu’\u00e0 ce que tous les corps aient \u00e9t\u00e9 trouv\u00e9s au montant du point. [7] La condition pr\u00e9alable pour Ransac est qu’il y a plus de points de donn\u00e9es que n\u00e9cessaire pour d\u00e9terminer les param\u00e8tres du mod\u00e8le. L’algorithme se compose des \u00e9tapes suivantes: S\u00e9lectionnez autant de points dans les points de donn\u00e9es si n\u00e9cessaire pour calculer les param\u00e8tres du mod\u00e8le. Cela est pr\u00e9vu que ce montant soit exempt de valeurs aberrantes. D\u00e9terminez les param\u00e8tres du mod\u00e8le avec les points s\u00e9lectionn\u00e9s. D\u00e9terminez le sous-ensemble des valeurs mesur\u00e9es, la distance \u00e0 la courbe du mod\u00e8le qui est inf\u00e9rieure \u00e0 une certaine limite (ce sous-ensemble sera Ensemble de consensus appel\u00e9). S’il contient un certain nombre minimum de valeurs, un bon mod\u00e8le a probablement \u00e9t\u00e9 trouv\u00e9 et le Ensemble de consensus sera sauv\u00e9. R\u00e9p\u00e9tez les \u00e9tapes 1 \u00e0 3 plusieurs fois. Apr\u00e8s avoir effectu\u00e9 plusieurs it\u00e9rations, le sous-ensemble qui contient la plupart des points est choisi (car un a \u00e9t\u00e9 trouv\u00e9). Les param\u00e8tres du mod\u00e8le ne sont calcul\u00e9s qu’avec l’une des proc\u00e9dures de compensation habituelles avec ce sous-ensemble. Une variante alternative de l’algorithme termine pr\u00e9matur\u00e9ment les it\u00e9rations si le mod\u00e8le prend en charge suffisamment de points \u00e0 l’\u00e9tape 3. Cette variante est appel\u00e9e pr\u00e9 -Counterparers – c’est-\u00e0-dire la rupture pr\u00e9matur\u00e9ment – ransac. Avec cette proc\u00e9dure, il doit \u00eatre connu \u00e0 l’avance de la taille du contenu aberrant, afin qu’il puisse \u00eatre \u00e9valu\u00e9 si des valeurs mesur\u00e9es suffisantes soutiennent le mod\u00e8le. L’algorithme d\u00e9pend principalement de trois param\u00e8tres: La distance maximale d’un point de donn\u00e9es du mod\u00e8le auquel un point n’est pas consid\u00e9r\u00e9 comme une erreur brute; le nombre d’it\u00e9rations et La taille minimale du Ensembles de consensus , c’est-\u00e0-dire le nombre minimum de points coh\u00e9rents avec le mod\u00e8le. Table of ContentsDistance maximale d’un point de donn\u00e9es du mod\u00e8le [ Modifier | Modifier le texte source ]] Nombre d’it\u00e9rations [ Modifier | Modifier le texte source ]] Taille de l’ensemble de consensus [ Modifier | Modifier le texte source ]] Lo-ransac [ Modifier | Modifier le texte source ]] MSAC [ Modifier | Modifier le texte source ]] Distance maximale d’un point de donn\u00e9es du mod\u00e8le [ Modifier | Modifier le texte source ]] Ce param\u00e8tre est fondamental pour le succ\u00e8s de l’algorithme. Contrairement aux deux autres param\u00e8tres, il doit \u00eatre d\u00e9termin\u00e9 (une revue du Ensemble de consensus n’a pas besoin d’\u00eatre effectu\u00e9 et le nombre d’it\u00e9rations peut \u00eatre s\u00e9lectionn\u00e9 presque comme souhait\u00e9). Si la valeur est trop grande ou trop petite, l’algorithme peut \u00e9chouer. Ceci est illustr\u00e9 dans les trois images suivantes. Une \u00e9tape d’it\u00e9ration est montr\u00e9e. Les deux points s\u00e9lectionn\u00e9s au hasard avec lesquels le mod\u00e8le vert a \u00e9t\u00e9 calcul\u00e9 sont color\u00e9s en bleu. Les barri\u00e8res d’erreur sont affich\u00e9es sous forme de lignes noires. Il doit y avoir un point dans ces lignes pour soutenir le mod\u00e8le droit. Si la distance est choisie trop grande, trop de valeurs aberrantes ne sont pas reconnues, de sorte qu’un mauvais mod\u00e8le peut avoir le m\u00eame nombre de valeurs aberrantes qu’un vrai mod\u00e8le (Fig. 1A et 1B). S’il est r\u00e9gl\u00e9 trop bas, il peut se produire qu’un mod\u00e8le qui a \u00e9t\u00e9 calcul\u00e9 \u00e0 partir d’une quantit\u00e9 de valeurs sans hors-la-loi soit pris en charge par trop peu d’autres valeurs qui ne sont pas des valeurs aberrantes (figure 2). Probl\u00e8mes si la barri\u00e8re d’erreur est trop grande ou trop petite 1A. La bonne solution, deux points sont des valeurs aberrantes. 1b. Deuxi\u00e8mement, une mauvaise solution avec le m\u00eame nombre de valeurs aberrantes que 1A. 2. Barri\u00e8re d’erreur trop petite. Malgr\u00e9 ces probl\u00e8mes, cette valeur doit g\u00e9n\u00e9ralement \u00eatre d\u00e9termin\u00e9e empiriquement. Ce n’est que si l’\u00e9cart type des valeurs mesur\u00e9 est connu que la limite d’erreur peut \u00eatre calcul\u00e9e en utilisant les lois de la distribution de probabilit\u00e9. Nombre d’it\u00e9rations [ Modifier | Modifier le texte source ]] Le nombre de r\u00e9p\u00e9titions peut \u00eatre d\u00e9termin\u00e9 de telle mani\u00e8re qu’avec une certaine probabilit\u00e9 p {displaystyle p} Au moins une fois, un sous-ensemble gratuit est s\u00e9lectionn\u00e9 \u00e0 partir des points de donn\u00e9es. Est s {DisplayStyle S} Le nombre de points de donn\u00e9es n\u00e9cessaires pour calculer un mod\u00e8le, et \u03f5 {displaystyle epsilon} La part relative des valeurs aberrantes dans les donn\u00e9es est la probabilit\u00e9 que n {displaystyle n} Les r\u00e9p\u00e9titions ne sont pas s\u00e9lectionn\u00e9es au moins une valeur aberrante \u00e0 chaque fois p = d’abord – (1\u2212(1\u2212\u03f5)s)n{displayStyle p = 1-left (1-left (1-epsilon \u00e0 droite) ^ {s} droit) ^ {n}} , Et pour que la probabilit\u00e9 qu’au moins une valeur aberrante soit s\u00e9lectionn\u00e9e \u00e0 chaque fois, au plus d’abord – p {displayStyle 1-P} Devra n {displaystyle n} peut \u00eatre choisi suffisamment grand. Devenez plus pr\u00e9cis\u00e9ment au moins n = log\u2061(1\u2212p)log\u2061(1\u2212(1\u2212\u03f5)s){displayStyle n = {frac {log Left (1-pright)} {log gauche (1-left (1-epsilon \u00e0 droite) ^ {s} droit)}}} R\u00e9p\u00e9titions n\u00e9cessaires. Le nombre ne d\u00e9pend donc que de la proportion de valeurs aberrantes, du nombre de param\u00e8tres de la fonction du mod\u00e8le et de la probabilit\u00e9 donn\u00e9e du dessin au moins un sous-ensemble sans valeur aberrante. Il est ind\u00e9pendant du nombre total de valeurs mesur\u00e9es. Dans le tableau ci-dessous, le nombre n\u00e9cessaire de r\u00e9p\u00e9titions d\u00e9pend du contenu aberrant et du nombre de points n\u00e9cessaires pour d\u00e9terminer les param\u00e8tres du mod\u00e8le. La probabilit\u00e9 de s\u00e9lectionner au moins un sous-ensemble sans aper\u00e7u de tous les points de donn\u00e9es est d\u00e9finie \u00e0 99%. Nombre des it\u00e9rations n\u00e9cessaires ( p = 99 % {displayStyle p = 99,%} ) Exemple nombre de points requis Aberrant dix % 20% 30% 40% 50% 60% 70% Droit 2 3 5 7 11 17 27 49 niveau 3 4 7 11 19 35 70 169 Fondamentalmatrix 8 9 26 78 272 1177 7025 70188 Taille de l’ensemble de consensus [ Modifier | Modifier le texte source ]] Dans la variante g\u00e9n\u00e9rale de l’algorithme, cette valeur ne doit pas n\u00e9cessairement \u00eatre connue, car s’il n’y a pas de contr\u00f4le de plausibilit\u00e9, le plus grand Ensemble de consensus peut \u00eatre utilis\u00e9 dans le cours plus approfondi. Cependant, ses connaissances sont n\u00e9cessaires \u00e0 la variante pr\u00e9matur\u00e9e. Avec cela la taille minimale du Ensemble de consensus principalement d\u00e9termin\u00e9 analytiquement ou exp\u00e9rimentalement. Une bonne approximation est la quantit\u00e9 totale des valeurs mesur\u00e9es, moins la proportion de valeurs aberrantes \u03f5 {displaystyle epsilon} qui est suspect\u00e9 dans les donn\u00e9es. Pour n {displaystyle n} Les points de donn\u00e9es sont les m\u00eames que la taille minimale ( d’abord – \u03f5 ) \u22c5 n {displayStyle (1-epsilon) cdot n} . Par exemple, avec 12 points de donn\u00e9es et 20% de valeurs aberrantes, la taille minimale est d’environ 10. La proportion de valeurs aberrantes dans la quantit\u00e9 totale des points de donn\u00e9es est souvent inconnue. Il n’est donc pas possible, le nombre d’it\u00e9rations requis et la taille minimale de une Ensemble de consensus d\u00e9terminer. Dans ce cas, l’algorithme est initialis\u00e9 avec la pire hypoth\u00e8se d’une part aberrante de 50%, par exemple, et le nombre d’it\u00e9rations et la taille de la Ensemble de consensus calcul\u00e9 en cons\u00e9quence. Apr\u00e8s chaque it\u00e9ration, les deux valeurs sont ajust\u00e9es lorsqu’une quantit\u00e9 coh\u00e9rente plus grande a \u00e9t\u00e9 trouv\u00e9e. Par exemple, l’algorithme est lanc\u00e9 avec un ripper de 50% et contient le calcul\u00e9 Ensemble de consensus Mais 80% de tous les points de donn\u00e9es se traduisent par une valeur am\u00e9lior\u00e9e pour la part de la valeur aberrante de 20%. Le nombre d’it\u00e9rations et la taille n\u00e9cessaire du Ensemble de consensus sont ensuite calcul\u00e9s \u00e0 nouveau. On doit \u00eatre ajust\u00e9 dans de nombreux points au niveau. Les points sont affich\u00e9s dans la premi\u00e8re image. Dans la deuxi\u00e8me image, le r\u00e9sultat de divers passages est dessin\u00e9. Les points rouges les soutiennent. Les points qui sont sup\u00e9rieurs \u00e0 la barri\u00e8re d’erreur sont color\u00e9s en bleu. La troisi\u00e8me image montre la solution trouv\u00e9e apr\u00e8s 1000 \u00e9tapes d’it\u00e9ration. Ransac pour adapter un droit \u00e0 des points de donn\u00e9es 2. Animation de plusieurs it\u00e9rations. 3e r\u00e9sultat apr\u00e8s 1000 it\u00e9rations. Il y a quelques extensions de Ransac, dont deux sont pr\u00e9sent\u00e9es ici. Lo-ransac [ Modifier | Modifier le texte source ]] Le mod\u00e8le droit n’est pas pris en charge par tous les points sans erreur. Il a \u00e9t\u00e9 d\u00e9montr\u00e9 dans des exp\u00e9riences que surtout plus d’\u00e9tapes d’it\u00e9ration que le nombre th\u00e9oriquement suffisant sont n\u00e9cessaires: si un mod\u00e8le est calcul\u00e9 avec une quantit\u00e9 de points sans valeur aberrante, toutes les autres valeurs qui ne sont pas aberrantes ne doivent pas prendre en charge ce mod\u00e8le. Le probl\u00e8me est illustr\u00e9 dans l’illustration adjacente. Bien qu’ils aient \u00e9t\u00e9 calcul\u00e9s par deux valeurs sans erreur (points noirs), certains autres points manifestement corrects sont class\u00e9s en haut \u00e0 droite de l’image en tant que valeurs aberrantes (\u00e9toiles bleues). Pour cette raison, l’algorithme d’origine de Lo-Ransac (Ransac optimis\u00e9 local) est \u00e9largi \u00e0 l’\u00e9tape 3. Premi\u00e8rement, comme d’habitude, le sous-ensemble des points qui ne sont pas des valeurs aberrantes sont d\u00e9termin\u00e9s. Selon cela, le mod\u00e8le est \u00e0 nouveau d\u00e9termin\u00e9 en utilisant ce montant et \u00e0 l’aide de tout processus de compensation tel que la m\u00e9thode des plus petits carr\u00e9s. Enfin, le sous-ensemble est calcul\u00e9, la distance \u00e0 ce mod\u00e8le optimis\u00e9 est plus petite que la barri\u00e8re d’erreur. Seul ce sous-ensemble am\u00e9lior\u00e9 sera Ensemble de consensus enregistr\u00e9. [8] MSAC [ Modifier | Modifier le texte source ]] \u00c0 Ransac, le mod\u00e8le est s\u00e9lectionn\u00e9, qui est soutenu par la plupart des valeurs mesur\u00e9es. Cela correspond \u00e0 la minimisation d’une somme C {DisplayStyle C} , dans lequel toutes les valeurs sans erreur sont re\u00e7ues avec 0 et toutes les valeurs aberrantes avec une valeur constante: C = \u2211 ip ( Erreur ) avec p = { 0,wenn Fehlerip ( Erreur ) avec p = { Fehler,wenn Fehler (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/all2fr\/wiki1\/ransac-algorithmus-wikipedia-wikipedia\/#breadcrumbitem","name":"Ransac-Algorithmus – Wikipedia Wikipedia"}}]}]