[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki8\/2020\/12\/09\/transduktion-maschinelles-lernen-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki8\/2020\/12\/09\/transduktion-maschinelles-lernen-wikipedia\/","headline":"Transduktion (maschinelles Lernen) – Wikipedia","name":"Transduktion (maschinelles Lernen) – Wikipedia","description":"before-content-x4 In Logik, statistischer Inferenz und \u00fcberwachtem Lernen Transduktion oder transduktive Inferenz ist eine Argumentation von beobachteten, spezifischen (Trainings-) F\u00e4llen","datePublished":"2020-12-09","dateModified":"2020-12-09","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki8\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki8\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/en\/1\/19\/Labels.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/en\/1\/19\/Labels.png","height":"320","width":"312"},"url":"https:\/\/wiki.edu.vn\/wiki8\/2020\/12\/09\/transduktion-maschinelles-lernen-wikipedia\/","wordCount":1647,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4In Logik, statistischer Inferenz und \u00fcberwachtem LernenTransduktion oder transduktive Inferenz ist eine Argumentation von beobachteten, spezifischen (Trainings-) F\u00e4llen zu spezifischen (Test-) F\u00e4llen. Im Gegensatz dazu ist die Induktion eine Argumentation von beobachteten Trainingsf\u00e4llen zu allgemeinen Regeln, die dann auf die Testf\u00e4lle angewendet werden. Die Unterscheidung ist am interessantesten in F\u00e4llen, in denen die Vorhersagen des transduktiven Modells von keinem induktiven Modell erreicht werden k\u00f6nnen. Beachten Sie, dass dies durch transduktive Inferenz auf verschiedenen Tests\u00e4tzen verursacht wird, die zu inkonsistenten Vorhersagen f\u00fchren. Die Transduktion wurde in den 1990er Jahren von Vladimir Vapnik eingef\u00fchrt, motiviert durch seine Ansicht, dass die Transduktion der Induktion vorzuziehen ist, da die Induktion seiner Meinung nach die L\u00f6sung eines allgemeineren Problems (Ableiten einer Funktion) erfordert, bevor ein spezifischeres Problem gel\u00f6st wird (Berechnung der Ergebnisse f\u00fcr neue F\u00e4lle) ): “Wenn Sie ein Problem von Interesse l\u00f6sen, l\u00f6sen Sie kein allgemeineres Problem als Zwischenschritt. Versuchen Sie, die Antwort zu erhalten, die Sie wirklich brauchen, aber keine allgemeinere.” Eine \u00e4hnliche Beobachtung hatte Bertrand Russell zuvor gemacht: “Wir werden zu dem Schluss kommen, dass Sokrates mit einem gr\u00f6\u00dferen Ansatz zur Gewissheit sterblich ist, wenn wir unsere Argumentation rein induktiv machen, als wenn wir \u00fcber ‘alle Menschen sind sterblich’ gehen und dann verwenden Abzug “(Russell 1912, Kap. VII).Ein Beispiel f\u00fcr Lernen, das nicht induktiv ist, w\u00e4re die bin\u00e4re Klassifizierung, bei der die Eingaben dazu neigen, sich in zwei Gruppen zu gruppieren. Eine gro\u00dfe Anzahl von Testeingaben kann beim Auffinden der Cluster hilfreich sein und somit n\u00fctzliche Informationen zu den Klassifizierungsbezeichnungen liefern. Die gleichen Vorhersagen w\u00e4ren nicht aus einem Modell erh\u00e4ltlich, das eine Funktion induziert, die nur auf den Trainingsf\u00e4llen basiert. Einige Leute nennen dies vielleicht ein Beispiel f\u00fcr das eng verwandte halb\u00fcberwachte Lernen, da Vapniks Motivation ganz anders ist. Ein Beispiel f\u00fcr einen Algorithmus in dieser Kategorie ist die Transductive Support Vector Machine (TSVM).Eine dritte m\u00f6gliche Motivation, die zur Transduktion f\u00fchrt, ergibt sich aus der Notwendigkeit der Ann\u00e4herung. Wenn eine genaue Inferenz rechnerisch untragbar ist, kann man zumindest versuchen, sicherzustellen, dass die Approximationen an den Testeingaben gut sind. In diesem Fall k\u00f6nnten die Testeingaben aus einer beliebigen Verteilung stammen (die nicht unbedingt mit der Verteilung der Trainingseingaben zusammenh\u00e4ngt), die beim halb\u00fcberwachten Lernen nicht zul\u00e4ssig w\u00e4re. Ein Beispiel f\u00fcr einen Algorithmus, der in diese Kategorie f\u00e4llt, ist die Bayesian Committee Machine (BCM). Table of ContentsBeispiel Problem[edit]Transduktionsalgorithmen[edit]Partitionierung der Transduktion[edit]Agglomerative Transduktion[edit]Verteilertransduktion[edit]Siehe auch[edit]Verweise[edit]Externe Links[edit]Beispiel Problem[edit]Das folgende Beispielproblem stellt einige der einzigartigen Eigenschaften der Transduktion gegen die Induktion gegen\u00fcber.Es wird eine Sammlung von Punkten angegeben, sodass einige der Punkte beschriftet sind (A, B oder C), die meisten Punkte jedoch nicht beschriftet sind (?). Ziel ist es, geeignete Beschriftungen f\u00fcr alle unbeschrifteten Punkte vorherzusagen. Der induktive Ansatz zur L\u00f6sung dieses Problems besteht darin, die markierten Punkte zum Trainieren eines \u00fcberwachten Lernalgorithmus zu verwenden und dann Beschriftungen f\u00fcr alle unbeschrifteten Punkte vorhersagen zu lassen. Bei diesem Problem verf\u00fcgt der \u00fcberwachte Lernalgorithmus jedoch nur \u00fcber f\u00fcnf markierte Punkte, die als Grundlage f\u00fcr die Erstellung eines Vorhersagemodells verwendet werden k\u00f6nnen. Es wird sicherlich schwierig sein, ein Modell zu erstellen, das die Struktur dieser Daten erfasst. Wenn beispielsweise ein Algorithmus f\u00fcr den n\u00e4chsten Nachbarn verwendet wird, werden die Punkte in der N\u00e4he der Mitte mit “A” oder “C” bezeichnet, obwohl offensichtlich ist, dass sie zu demselben Cluster geh\u00f6ren wie der mit “B” bezeichnete Punkt.Die Transduktion hat den Vorteil, dass bei der Ausf\u00fchrung der Beschriftungsaufgabe alle Punkte ber\u00fccksichtigt werden k\u00f6nnen, nicht nur die markierten Punkte. In diesem Fall w\u00fcrden transduktive Algorithmen die unbeschrifteten Punkte gem\u00e4\u00df den Clustern kennzeichnen, zu denen sie nat\u00fcrlich geh\u00f6ren. Die Punkte in der Mitte w\u00fcrden daher h\u00f6chstwahrscheinlich als “B” bezeichnet, da sie sehr nahe an diesem Cluster gepackt sind.Ein Vorteil der Transduktion besteht darin, dass sie m\u00f6glicherweise mit weniger markierten Punkten bessere Vorhersagen treffen kann, da die nat\u00fcrlichen Br\u00fcche in den nicht markierten Punkten verwendet werden. Ein Nachteil der Transduktion besteht darin, dass sie kein Vorhersagemodell erstellt. Wenn der Menge ein zuvor unbekannter Punkt hinzugef\u00fcgt wird, m\u00fcsste der gesamte transduktive Algorithmus mit allen Punkten wiederholt werden, um eine Markierung vorherzusagen. Dies kann rechenintensiv sein, wenn die Daten in einem Stream schrittweise verf\u00fcgbar gemacht werden. Au\u00dferdem kann dies dazu f\u00fchren, dass sich die Vorhersagen einiger der alten Punkte \u00e4ndern (die je nach Anwendung gut oder schlecht sein k\u00f6nnen). Ein \u00fcberwachter Lernalgorithmus hingegen kann neue Punkte mit sehr geringem Rechenaufwand sofort kennzeichnen.Transduktionsalgorithmen[edit]Transduktionsalgorithmen k\u00f6nnen grob in zwei Kategorien unterteilt werden: diejenigen, die unbeschrifteten Punkten diskrete Beschriftungen zuweisen m\u00f6chten, und diejenigen, die fortlaufende Beschriftungen f\u00fcr unbeschriftete Punkte zur\u00fcckf\u00fchren m\u00f6chten. Algorithmen, die diskrete Bezeichnungen vorhersagen m\u00f6chten, werden in der Regel durch Hinzuf\u00fcgen einer teilweisen \u00dcberwachung zu einem Clustering-Algorithmus abgeleitet. Diese k\u00f6nnen weiter in zwei Kategorien unterteilt werden: diejenigen, die sich durch Partitionierung gruppieren, und diejenigen, die sich durch Agglomerieren gruppieren. Algorithmen, die kontinuierliche Markierungen vorhersagen m\u00f6chten, werden in der Regel durch Hinzuf\u00fcgen einer Teil\u00fcberwachung zu einem vielf\u00e4ltigen Lernalgorithmus abgeleitet.Partitionierung der Transduktion[edit]Die Partitionierung der Transduktion kann als Top-Down-Transduktion betrachtet werden. Es ist eine halb\u00fcberwachte Erweiterung des partitionbasierten Clusters. Es wird typischerweise wie folgt durchgef\u00fchrt:Consider the set of all points to be one large partition.While any partition P contains two points with conflicting labels: Partition P into smaller partitions.For each partition P: Assign the same label to all of the points in P.Nat\u00fcrlich k\u00f6nnte mit diesem Algorithmus jede vern\u00fcnftige Partitionierungstechnik verwendet werden. Zu diesem Zweck sind Partitionsschemata mit maximalem Durchfluss und minimalem Schnitt sehr beliebt.Agglomerative Transduktion[edit]Agglomerative Transduktion kann als Bottom-Up-Transduktion betrachtet werden. Es ist eine halb\u00fcberwachte Erweiterung der agglomerativen Clusterbildung. Es wird typischerweise wie folgt durchgef\u00fchrt:Compute the pair-wise distances, D, between all the points.Sort D in ascending order.Consider each point to be a cluster of size 1.For each pair of points {a,b} in D: If (a is unlabeled) or (b is unlabeled) or (a and b have the same label) Merge the two clusters that contain a and b. Label all points in the merged cluster with the same label.Verteilertransduktion[edit]Die auf vielf\u00e4ltigem Lernen basierende Transduktion ist noch ein sehr junges Forschungsgebiet.Siehe auch[edit]Verweise[edit]VN Vapnik. Statistische Lerntheorie. New York: Wiley, 1998. (Siehe Seiten 339-371)V. Tresp. Eine Bayesianische Komiteemaschine, Neural Computation, 12, 2000, pdf.B. Russell. Die Probleme der Philosophie, Home University Library, 1912. [1].Externe Links[edit]Ein Gammerman, V. Vovk, V. Vapnik (1998). “”Lernen durch Transduktion“Eine fr\u00fche Erkl\u00e4rung des transduktiven Lernens.“”Eine Diskussion \u00fcber halb\u00fcberwachtes Lernen und Transduktion, “Kapitel 25 von Halb\u00fcberwachtes Lernen, Olivier Chapelle, Bernhard Sch\u00f6lkopf und Alexander Zien, Hrsg. (2006). MIT Press. Eine Diskussion \u00fcber den Unterschied zwischen SSL und Transduktion.Waffeln ist eine Open-Source-C ++ – Bibliothek von Algorithmen f\u00fcr maschinelles Lernen, einschlie\u00dflich Transduktionsalgorithmen, auch Waffeln.SVMlight ist ein Allzweck-SVM-Paket, das die transduktive SVM-Option enth\u00e4lt. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki8\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki8\/2020\/12\/09\/transduktion-maschinelles-lernen-wikipedia\/#breadcrumbitem","name":"Transduktion (maschinelles Lernen) – Wikipedia"}}]}]