[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/27\/meta-lernen-informatik-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/27\/meta-lernen-informatik-wikipedia\/","headline":"Meta-Lernen (Informatik) – Wikipedia","name":"Meta-Lernen (Informatik) – Wikipedia","description":"Teilbereich des maschinellen Lernens Meta-Lernen[1][2] ist ein Teilbereich des maschinellen Lernens, in dem automatische Lernalgorithmen auf Metadaten zu Experimenten mit","datePublished":"2021-01-27","dateModified":"2021-01-27","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki16\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki16\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":100,"height":100},"video":[null,null,null],"url":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/27\/meta-lernen-informatik-wikipedia\/","wordCount":5935,"articleBody":"Teilbereich des maschinellen Lernens Meta-Lernen[1][2]ist ein Teilbereich des maschinellen Lernens, in dem automatische Lernalgorithmen auf Metadaten zu Experimenten mit maschinellem Lernen angewendet werden. Bis 2017 hatte der Begriff keine Standardinterpretation gefunden. Das Hauptziel besteht jedoch darin, solche Metadaten zu verwenden, um zu verstehen, wie automatisches Lernen bei der L\u00f6sung von Lernproblemen flexibel werden kann, um so die Leistung bestehender Lernalgorithmen zu verbessern oder das Lernen (Induzieren) der Lernalgorithmus selbst, daher der alternative Begriff lernen zu lernen.[1]Flexibilit\u00e4t ist wichtig, da jeder Lernalgorithmus auf einer Reihe von Annahmen \u00fcber die Daten basiert, deren induktive Vorspannung.[3] Dies bedeutet, dass es nur dann gut lernen wird, wenn die Verzerrung dem Lernproblem entspricht. Ein Lernalgorithmus kann in einer Dom\u00e4ne sehr gut funktionieren, in der n\u00e4chsten jedoch nicht. Dies f\u00fchrt zu starken Einschr\u00e4nkungen bei der Verwendung von Techniken des maschinellen Lernens oder des Data Mining, da die Beziehung zwischen dem Lernproblem (h\u00e4ufig eine Art Datenbank) und der Wirksamkeit verschiedener Lernalgorithmen noch nicht verstanden ist. Durch die Verwendung verschiedener Arten von Metadaten, wie Eigenschaften des Lernproblems, Algorithmeneigenschaften (wie Leistungsmessungen) oder Muster, die zuvor aus den Daten abgeleitet wurden, ist es m\u00f6glich, verschiedene Lernalgorithmen zu lernen, auszuw\u00e4hlen, zu \u00e4ndern oder zu kombinieren, um ein bestimmtes Lernen effektiv zu l\u00f6sen Problem. Die Kritik an Meta-Lernans\u00e4tzen hat eine starke \u00c4hnlichkeit mit der Kritik an Metaheuristik, einem m\u00f6glicherweise damit verbundenen Problem. Eine gute Analogie zum Meta-Lernen und die Inspiration f\u00fcr J\u00fcrgen Schmidhubers Fr\u00fchwerk (1987)[1] und die Arbeit von Yoshua Bengio et al. (1991),[4] ist der Ansicht, dass die genetische Evolution den Lernprozess lernt, der in Genen kodiert und im Gehirn jedes Einzelnen ausgef\u00fchrt wird. In einem offenen hierarchischen Meta-Lernsystem[1] Mit Hilfe der genetischen Programmierung k\u00f6nnen bessere Evolutionsmethoden durch Meta-Evolution erlernt werden, die selbst durch Meta-Meta-Evolution usw. verbessert werden kann.[1]Table of ContentsDefinition[edit]Gemeinsame Ans\u00e4tze[edit]Modellbasiert[edit]Speichererweiterte neuronale Netze[edit]Meta-Netzwerke[edit]Metrikbasiert[edit]Faltungs-Siamesisches Neuronales Netz[edit]Passende Netzwerke[edit]Beziehungsnetzwerk[edit]Prototypische Netzwerke[edit]Optimierungsbasiert[edit]LSTM Meta-Lerner[edit]Zeitliche Diskretion[edit]Reptil[edit]Beispiele[edit]VerweiseExterne Links[edit]Definition[edit]Eine vorgeschlagene Definition[5] F\u00fcr ein Meta-Lernsystem werden drei Anforderungen kombiniert:Das System muss ein Lernsubsystem enthalten.Erfahrungen werden durch die Nutzung des extrahierten Metawissens gesammeltin einer fr\u00fcheren Lernepisode f\u00fcr einen einzelnen Datensatz oderaus verschiedenen Dom\u00e4nen.Lernbias muss dynamisch gew\u00e4hlt werden.Vorspannen bezieht sich auf die Annahmen, die die Wahl der erkl\u00e4renden Hypothesen beeinflussen[6] und nicht der Begriff der Verzerrung, der im Verzerrungsvarianz-Dilemma dargestellt wird. Meta-Lernen befasst sich mit zwei Aspekten der Lernverzerrung. Die deklarative Verzerrung gibt die Darstellung des Raums von Hypothesen an und beeinflusst die Gr\u00f6\u00dfe des Suchraums (z. B. stellen Hypothesen nur mit linearen Funktionen dar).Die prozedurale Verzerrung legt Einschr\u00e4nkungen f\u00fcr die Reihenfolge der induktiven Hypothesen fest (z. B. Bevorzugung kleinerer Hypothesen). [7]Gemeinsame Ans\u00e4tze[edit]Es gibt drei g\u00e4ngige Ans\u00e4tze:[8]1) Verwendung von (zyklischen) Netzwerken mit externem oder internem Speicher (modellbasiert)2) Lernen effektiver Distanzmetriken (metrikbasiert)3) explizite Optimierung der Modellparameter f\u00fcr schnelles Lernen (optimierungsbasiert).Modellbasiert[edit]Modellbasierte Meta-Lernmodelle aktualisieren ihre Parameter schnell mit wenigen Trainingsschritten, die durch ihre interne Architektur erreicht oder von einem anderen Meta-Lernermodell gesteuert werden k\u00f6nnen.[8]Speichererweiterte neuronale Netze[edit]Das Modell ist als MANN-Abk\u00fcrzung f\u00fcr Memory-Augmented Neural Networks bekannt. Es wird erwartet, dass es neue Informationen schnell codiert und sich somit nach nur wenigen Beispielen an neue Aufgaben anpasst. Es eignet sich gut f\u00fcr Meta-Learning.[9]Meta-Netzwerke[edit]Meta Networks (MetaNet) lernt ein Wissen auf Metaebene \u00fcber Aufgaben hinweg und verschiebt seine induktiven Verzerrungen durch schnelle Parametrisierung f\u00fcr eine schnelle Verallgemeinerung.[10]Metrikbasiert[edit]Die Kernidee des metrikbasierten Meta-Lernens \u00e4hnelt den Algorithmen f\u00fcr die n\u00e4chsten Nachbarn, deren Gewicht von einer Kernelfunktion generiert wird. Ziel ist es, eine Metrik- oder Distanzfunktion \u00fcber Objekten zu lernen. Die Vorstellung einer guten Metrik ist problemabh\u00e4ngig. Es sollte die Beziehung zwischen Eingaben im Aufgabenbereich darstellen und die Probleml\u00f6sung erleichtern.[8]Faltungs-Siamesisches Neuronales Netz[edit]Das siamesische neuronale Netz besteht aus zwei Zwillingsnetzen, deren Ausgang gemeinsam trainiert wird. Es gibt eine Funktion oben, um die Beziehung zwischen Eingabedaten-Stichprobenpaaren zu lernen. Die beiden Netzwerke sind gleich und haben das gleiche Gewicht und die gleichen Netzwerkparameter.[11]Passende Netzwerke[edit]\u00dcbereinstimmende Netzwerke lernen ein Netzwerk kennen, das einen kleinen beschrifteten Unterst\u00fctzungssatz und ein unbeschriftetes Beispiel seinem Etikett zuordnet, sodass keine Feinabstimmung erforderlich ist, um sich an neue Klassentypen anzupassen.[12]Beziehungsnetzwerk[edit]Das Relation Network (RN) wird von Grund auf neu trainiert. W\u00e4hrend des Meta-Lernens lernt es, eine Tiefenmetrik zu lernen, um eine kleine Anzahl von Bildern innerhalb von Episoden zu vergleichen, von denen jedes die Einstellung f\u00fcr wenige Aufnahmen simuliert.[13]Prototypische Netzwerke[edit]Prototypische Netzwerke lernen einen metrischen Raum, in dem die Klassifizierung durchgef\u00fchrt werden kann, indem Entfernungen zu Prototypdarstellungen jeder Klasse berechnet werden. Im Vergleich zu neueren Ans\u00e4tzen f\u00fcr das Lernen mit wenigen Sch\u00fcssen spiegeln sie eine einfachere induktive Vorspannung wider, die in diesem Regime mit begrenzten Datenmengen von Vorteil ist, und erzielen zufriedenstellende Ergebnisse.[14]Optimierungsbasiert[edit]Optimierungsbasierte Meta-Learning-Algorithmen beabsichtigen, den Optimierungsalgorithmus so anzupassen, dass das Modell anhand einiger Beispiele gut lernen kann.[8]LSTM Meta-Lerner[edit]LSTM-basierter Meta-Lernender soll den genauen Optimierungsalgorithmus lernen, der zum Trainieren eines anderen Klassifikators f\u00fcr neuronale Netze eines Lernenden im Wenig-Schuss-Regime verwendet wird. Die Parametrisierung erm\u00f6glicht es ihm, geeignete Parameteraktualisierungen speziell f\u00fcr das Szenario zu lernen, in dem eine festgelegte Anzahl von Aktualisierungen vorgenommen wird, und gleichzeitig eine allgemeine Initialisierung des Netzwerks der Lernenden (Klassifizierer) zu lernen, die eine schnelle Konvergenz des Trainings erm\u00f6glicht.[15]Zeitliche Diskretion[edit]MAML, kurz f\u00fcr Model-Agnostic Meta-Learning, ist ein ziemlich allgemeiner Optimierungsalgorithmus, der mit jedem Modell kompatibel ist, das durch Gradientenabstieg lernt.[16]Reptil[edit]Reptile ist ein bemerkenswert einfacher Algorithmus zur Optimierung des Meta-Lernens, da beide auf Meta-Optimierung durch Gradientenabstieg beruhen und beide modellunabh\u00e4ngig sind.[17]Beispiele[edit]Einige Ans\u00e4tze, die als Beispiele f\u00fcr Meta-Lernen angesehen wurden:Wiederkehrende neuronale Netze (RNNs) sind universelle Computer. 1993 zeigte J\u00fcrgen Schmidhuber, wie “selbstreferenzielle” RNNs im Prinzip durch Backpropagation lernen k\u00f6nnen, ihren eigenen Gewichts\u00e4nderungsalgorithmus auszuf\u00fchren, der sich m\u00f6glicherweise stark von der Backpropagation unterscheidet.[18] Im Jahr 2001 bauten Sepp Hochreiter & AS Younger & PR Conwell einen erfolgreichen betreuten Meta-Lernenden auf der Basis von RNNs mit Langzeit-Kurzzeitged\u00e4chtnis auf. Durch Backpropagation wurde ein Lernalgorithmus f\u00fcr quadratische Funktionen erlernt, der viel schneller als Backpropagation ist.[19][2] Forscher von Deepmind (Marcin Andrychowicz et al.) Haben diesen Ansatz 2017 auf die Optimierung ausgeweitet.[20]In den 1990er Jahren wurde Meta Reinforcement Learning oder Meta RL in Schmidhubers Forschungsgruppe durch selbstmodifizierende Richtlinien erreicht, die in einer universellen Programmiersprache verfasst wurden, die spezielle Anweisungen zum \u00c4ndern der Richtlinie selbst enth\u00e4lt. Es gibt eine einzige lebenslange Studie. Das Ziel des RL-Agenten ist es, die Belohnung zu maximieren. Es lernt, die Aufnahme von Belohnungen zu beschleunigen, indem es seinen eigenen Lernalgorithmus kontinuierlich verbessert, der Teil der “selbstreferenziellen” Politik ist.[21][22]Eine extreme Art des Meta-Reinforcement-Lernens verk\u00f6rpert die G\u00f6del-Maschine, ein theoretisches Konstrukt, das jeden Teil seiner eigenen Software untersuchen und modifizieren kann, der auch einen allgemeinen Theorembeweiser enth\u00e4lt. Es kann auf nachweislich optimale Weise eine rekursive Selbstverbesserung erreichen.[23][2]Modellunabh\u00e4ngiges Meta-Lernen (MAML) wurde 2017 von Chelsea Finn et al.[24] Bei einer bestimmten Abfolge von Aufgaben werden die Parameter eines bestimmten Modells so trainiert, dass wenige Iterationen des Gradientenabfalls mit wenigen Trainingsdaten von einer neuen Aufgabe zu einer guten Generalisierungsleistung f\u00fcr diese Aufgabe f\u00fchren. MAML “trainiert das Modell so, dass es leicht zu optimieren ist.”[24] MAML wurde erfolgreich auf Benchmarks f\u00fcr die Klassifizierung von Bildern mit wenigen Aufnahmen und auf das auf Richtliniengradienten basierende Verst\u00e4rkungslernen angewendet.[24]Meta-Wissen entdecken funktioniert durch Induzieren von Wissen (z. B. Regeln), das ausdr\u00fcckt, wie jede Lernmethode bei unterschiedlichen Lernproblemen funktioniert. Die Metadaten bestehen aus Merkmalen der Daten (allgemein, statistisch, informationstheoretisch, …) im Lernproblem und Merkmalen des Lernalgorithmus (Typ, Parametereinstellungen, Leistungsmessungen, …). Ein anderer Lernalgorithmus lernt dann, wie sich die Dateneigenschaften auf die Algorithmusmerkmale beziehen. Bei einem neuen Lernproblem werden die Dateneigenschaften gemessen und die Leistung verschiedener Lernalgorithmen vorhergesagt. Daher kann man die Algorithmen vorhersagen, die f\u00fcr das neue Problem am besten geeignet sind.Gestapelte Verallgemeinerung funktioniert durch Kombinieren mehrerer (unterschiedlicher) Lernalgorithmen. Die Metadaten werden durch die Vorhersagen dieser verschiedenen Algorithmen gebildet. Ein anderer Lernalgorithmus lernt aus diesen Metadaten, um vorherzusagen, welche Kombinationen von Algorithmen im Allgemeinen gute Ergebnisse liefern. Bei einem neuen Lernproblem werden die Vorhersagen des ausgew\u00e4hlten Satzes von Algorithmen kombiniert (z. B. durch (gewichtete) Abstimmung), um die endg\u00fcltige Vorhersage bereitzustellen. Da davon ausgegangen wird, dass jeder Algorithmus an einer Teilmenge von Problemen arbeitet, soll eine Kombination flexibler sein und gute Vorhersagen treffen k\u00f6nnen.Erh\u00f6hen bezieht sich auf die gestapelte Verallgemeinerung, verwendet jedoch mehrmals denselben Algorithmus, wobei die Beispiele in den Trainingsdaten bei jedem Lauf unterschiedliche Gewichte erhalten. Dies f\u00fchrt zu unterschiedlichen Vorhersagen, die sich jeweils darauf konzentrieren, eine Teilmenge der Daten richtig vorherzusagen, und die Kombination dieser Vorhersagen f\u00fchrt zu besseren (aber teureren) Ergebnissen.Dynamische Bias-Auswahl funktioniert durch \u00c4ndern der induktiven Vorspannung eines Lernalgorithmus, um dem gegebenen Problem zu entsprechen. Dies erfolgt durch \u00c4ndern von Schl\u00fcsselaspekten des Lernalgorithmus, wie z. B. der Darstellung von Hypothesen, heuristischen Formeln oder Parametern. Es gibt viele verschiedene Ans\u00e4tze.Induktive \u00dcbertragung untersucht, wie der Lernprozess im Laufe der Zeit verbessert werden kann. Metadaten bestehen aus Wissen \u00fcber fr\u00fchere Lernepisoden und werden verwendet, um effizient eine effektive Hypothese f\u00fcr eine neue Aufgabe zu entwickeln. Ein verwandter Ansatz hei\u00dft Lernen lernen, wobei das Ziel darin besteht, erworbenes Wissen aus einem Bereich zu nutzen, um das Lernen in anderen Bereichen zu unterst\u00fctzen.Andere Ans\u00e4tze, die Metadaten verwenden, um das automatische Lernen zu verbessern, sind Lernklassifikatorsysteme, fallbasiertes Denken und die Erf\u00fcllung von Einschr\u00e4nkungen.Einige erste theoretische Arbeiten wurden zur Verwendung initiiert Angewandte Verhaltensanalyse als Grundlage f\u00fcr agentenvermitteltes Meta-Lernen \u00fcber die Leistungen menschlicher Lernender und Anpassung des Lehrverlaufs eines k\u00fcnstlichen Agenten.[25]AutoML wie das “AI Building AI” -Projekt von Google Brain, das laut Google die bestehenden ImageNet-Benchmarks im Jahr 2017 kurzzeitig \u00fcbertroffen hat.[26][27]Verweise^ ein b c d e Schmidhuber, J\u00fcrgen (1987). “Evolution\u00e4re Prinzipien beim selbstreferenziellen Lernen oder beim Lernen, wie man lernt: der Meta-Meta-Haken.” (PDF). Diplomarbeit, Tech. Univ. M\u00fcnchen.^ ein b c Schaul, Tom; Schmidhuber, J\u00fcrgen (2010). “Metalearning”. Scholarpedia. 5 (6): 4650. Bibcode:2010SchpJ … 5.4650S. doi:10.4249 \/ Scholarpedia.4650.^ PE Utgoff (1986). “Verschiebung der Voreingenommenheit f\u00fcr induktives Konzeptlernen”. In R. Michalski, J. Carbonell und T. Mitchell: Maschinelles Lernen: 163\u2013190.^ Bengio, Yoshua; Bengio, Samy; Cloutier, Jocelyn (1991). Lernen, eine synaptische Regel zu lernen (PDF). IJCNN’91.^ Lemke, Christiane; Budka, Marcin; Gabrys, Bogdan (20.07.2013). “Metalearning: Ein \u00dcberblick \u00fcber Trends und Technologien”. \u00dcberpr\u00fcfung der k\u00fcnstlichen Intelligenz. 44 (1): 117\u2013130. doi:10.1007 \/ s10462-013-9406-y. ISSN 0269-2821. PMC 4459543. PMID 26069389.^ Brazdil, Pavel; Tr\u00e4ger, Christophe Giraud; Soares, Carlos; Vilalta, Ricardo (2009). Metalearning – Springer. Kognitive Technologien. doi:10.1007 \/ 978-3-540-73263-1. ISBN 978-3-540-73262-4.^ Gordon, Diana; Desjardins, Marie (1995). “Bewertung und Auswahl von Vorurteilen beim maschinellen Lernen” (PDF). Maschinelles Lernen. 20: 5\u201322. doi:10.1023 \/ A: 1022630017346. Abgerufen 27. M\u00e4rz 2020.^ ein b c d [1] Lilian Weng (2018). Meta-Learning: Lernen, schnell zu lernen. OpenAI Blog. November 2018. Abgerufen am 27. Oktober 2019^ [2] Adam Santoro, Sergey Bartunov, Daan Wierstra und Timothy Lillicrap. Meta-Lernen mit ged\u00e4chtnisverst\u00e4rkten neuronalen Netzen. Google DeepMind. Abgerufen am 29. Oktober 2019^ [3] Tsendsuren Munkhdalai, Hong Yu (2017). Meta Networks.arXiv: 1703.00837 [cs.LG]^ [4] Gregory Koch GKOCH, Richard Zemel ZEMEL, Ruslan Salakhutdinov (2015). Siamesische neuronale Netze f\u00fcr die einmalige Bilderkennung. Institut f\u00fcr Informatik, Universit\u00e4t von Toronto. Toronto, Ontario, Kanada.^ [5] O. Vinyals, C. Blundell, T. Lillicrap, K. Kavukcuoglu & D. Wierstra. (2016). Passende Netzwerke f\u00fcr One-Shot-Lernen. Google DeepMind. Abgerufen am 3. November 2019^ [6] Sung, F., Yang, Y., Zhang, L., Xiang, T., Torr, PHS & Hospedales, TM. (2018). Vergleichen lernen: Beziehungsnetzwerk f\u00fcr das Lernen mit wenigen Sch\u00fcssen^ [7] Snell, J., Swersky, K. & Zemel, RS. (2017). Prototypische Netzwerke f\u00fcr das Lernen mit wenigen Sch\u00fcssen.^ [8] Sachin Ravi \u2217 und Hugo Larochelle (2017). \u201d Optimierung als Modell f\u00fcr das Lernen mit wenigen Sch\u00fcssen \u201c. ICLR 2017. Abgerufen am 3. November 2019^ [9] Chelsea Finn, Pieter Abbeel und Sergey Levine (2017). \u201eModellunabh\u00e4ngiges Meta-Lernen zur schnellen Anpassung tiefer Netzwerke\u201c arXiv: 1703.03400 [cs.LG]^ [10] Chelsea Finn, Pieter Abbeel und Sergey Levine (2017). Alex Nichol und Joshua Achiam und John Schulman (2018). \u201c \u00dcber Meta-Lernalgorithmen erster Ordnung \u201c. arXiv: 1803.02999 [cs.LG]^ Schmidhuber, J\u00fcrgen (1993). “Eine selbstreferenzielle Gewichtsmatrix”. Verfahren von ICANN’93, Amsterdam: 446\u2013451.^ Hochreiter, Sepp; J\u00fcnger, AS; Conwell, PR (2001). “Lernen mit Gradientenabstieg lernen”. Verfahren von ICANN’01: 87\u201394.^ Andrychowicz, Marcin; Denil, Mischa; Gomez, Sergio; Hoffmann, Matthew; Pfau, David; Schaul, Tom; Shillingford, Brendan; de Freitas, Nando (2017). “Lernen, durch Gradientenabstieg durch Gradientenabstieg zu lernen”. Verfahren von ICML’17, Sydney, Australien.^ Schmidhuber, J\u00fcrgen (1994). “\u00dcber das Erlernen von Lernstrategien”. Technischer Bericht FKI-198-94, Tech. Univ. M\u00fcnchen.^ Schmidhuber, J\u00fcrgen; Zhao, J.; Wiering, M. (1997). “Verschiebung der induktiven Verzerrung durch Erfolgsgeschichtenalgorithmus, adaptive Levin-Suche und inkrementelle Selbstverbesserung”. Maschinelles Lernen. 28: 105\u2013130. doi:10.1023 \/ a: 1007383707642.^ Schmidhuber, J\u00fcrgen (2006). “G\u00f6del-Maschinen: Vollst\u00e4ndig selbstreferenzielle optimale universelle Selbstverbesserer”. In B. Goertzel & C. Pennachin, Hrsg.: K\u00fcnstliche Allgemeine Intelligenz: 199\u2013226.^ ein b c Finn, Chelsea; Abbeel, Pieter; Levine, Sergey (2017). “Modellunabh\u00e4ngiges Meta-Lernen zur schnellen Anpassung tiefer Netzwerke”. arXiv:1703.03400 [cs.LG].^ Begoli, Edmon (Mai 2014). Prozedurale Argumentationsarchitektur f\u00fcr auf angewandter Verhaltensanalyse basierende Anweisungen. Knoxville, Tennessee, USA: Universit\u00e4t von Tennessee, Knoxville. S. 44\u201379. Abgerufen 14. Oktober 2017.^ “Roboter erstellen jetzt neue Roboter”, sagt Tech Reporter.. NPR.org. 2018. Abgerufen 29. M\u00e4rz 2018.^ “AutoML f\u00fcr gro\u00dfformatige Bildklassifizierung und Objekterkennung”. Google Research Blog. November 2017. Abgerufen 29. M\u00e4rz 2018.Externe Links[edit]Metalearning Artikel in ScholarpediaVilalta R. und Drissi Y. (2002). Eine perspektivische Ansicht und \u00dcbersicht \u00fcber Meta-Learning, Artificial Intelligence Review, 18 (2), 77\u201395.C. Giraud-Carrier & J. Keller (2002). Umgang mit der Datenflut, J. Meij (Hrsg.), Kapitel Meta-Learning. STT \/ Beweton, Den Haag.Brazdil P., Giraud-Carrier C., Soares C., Vilalta R. (2009) Metalearning: Anwendungen f\u00fcr Data Mining, Kapitel Metalearning: Konzepte und Systeme, SpringerVideokurse \u00fcber Meta-Learning mit schrittweiser Erkl\u00e4rung von MAML, Prototypische Netzwerke, und Beziehungsnetzwerke."},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki16\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/27\/meta-lernen-informatik-wikipedia\/#breadcrumbitem","name":"Meta-Lernen (Informatik) – Wikipedia"}}]}]