Meta-Lernen (Informatik) – Wikipedia

before-content-x4

Teilbereich des maschinellen Lernens

Meta-Lernen[1][2]

ist ein Teilbereich des maschinellen Lernens, in dem automatische Lernalgorithmen auf Metadaten zu Experimenten mit maschinellem Lernen angewendet werden. Bis 2017 hatte der Begriff keine Standardinterpretation gefunden. Das Hauptziel besteht jedoch darin, solche Metadaten zu verwenden, um zu verstehen, wie automatisches Lernen bei der Lösung von Lernproblemen flexibel werden kann, um so die Leistung bestehender Lernalgorithmen zu verbessern oder das Lernen (Induzieren) der Lernalgorithmus selbst, daher der alternative Begriff lernen zu lernen.[1]

Flexibilität ist wichtig, da jeder Lernalgorithmus auf einer Reihe von Annahmen über die Daten basiert, deren induktive Vorspannung.[3] Dies bedeutet, dass es nur dann gut lernen wird, wenn die Verzerrung dem Lernproblem entspricht. Ein Lernalgorithmus kann in einer Domäne sehr gut funktionieren, in der nächsten jedoch nicht. Dies führt zu starken Einschränkungen bei der Verwendung von Techniken des maschinellen Lernens oder des Data Mining, da die Beziehung zwischen dem Lernproblem (häufig eine Art Datenbank) und der Wirksamkeit verschiedener Lernalgorithmen noch nicht verstanden ist.

Durch die Verwendung verschiedener Arten von Metadaten, wie Eigenschaften des Lernproblems, Algorithmeneigenschaften (wie Leistungsmessungen) oder Muster, die zuvor aus den Daten abgeleitet wurden, ist es möglich, verschiedene Lernalgorithmen zu lernen, auszuwählen, zu ändern oder zu kombinieren, um ein bestimmtes Lernen effektiv zu lösen Problem. Die Kritik an Meta-Lernansätzen hat eine starke Ähnlichkeit mit der Kritik an Metaheuristik, einem möglicherweise damit verbundenen Problem. Eine gute Analogie zum Meta-Lernen und die Inspiration für Jürgen Schmidhubers Frühwerk (1987)[1] und die Arbeit von Yoshua Bengio et al. (1991),[4] ist der Ansicht, dass die genetische Evolution den Lernprozess lernt, der in Genen kodiert und im Gehirn jedes Einzelnen ausgeführt wird. In einem offenen hierarchischen Meta-Lernsystem[1] Mit Hilfe der genetischen Programmierung können bessere Evolutionsmethoden durch Meta-Evolution erlernt werden, die selbst durch Meta-Meta-Evolution usw. verbessert werden kann.[1]

Definition[edit]

Eine vorgeschlagene Definition[5] Für ein Meta-Lernsystem werden drei Anforderungen kombiniert:

  • Das System muss ein Lernsubsystem enthalten.
  • Erfahrungen werden durch die Nutzung des extrahierten Metawissens gesammelt
    • in einer früheren Lernepisode für einen einzelnen Datensatz oder
    • aus verschiedenen Domänen.
  • Lernbias muss dynamisch gewählt werden.

Vorspannen bezieht sich auf die Annahmen, die die Wahl der erklärenden Hypothesen beeinflussen[6] und nicht der Begriff der Verzerrung, der im Verzerrungsvarianz-Dilemma dargestellt wird. Meta-Lernen befasst sich mit zwei Aspekten der Lernverzerrung.

  • Die deklarative Verzerrung gibt die Darstellung des Raums von Hypothesen an und beeinflusst die Größe des Suchraums (z. B. stellen Hypothesen nur mit linearen Funktionen dar).
  • Die prozedurale Verzerrung legt Einschränkungen für die Reihenfolge der induktiven Hypothesen fest (z. B. Bevorzugung kleinerer Hypothesen). [7]

Gemeinsame Ansätze[edit]

Es gibt drei gängige Ansätze:[8]

  • 1) Verwendung von (zyklischen) Netzwerken mit externem oder internem Speicher (modellbasiert)
  • 2) Lernen effektiver Distanzmetriken (metrikbasiert)
  • 3) explizite Optimierung der Modellparameter für schnelles Lernen (optimierungsbasiert).

Modellbasiert[edit]

Modellbasierte Meta-Lernmodelle aktualisieren ihre Parameter schnell mit wenigen Trainingsschritten, die durch ihre interne Architektur erreicht oder von einem anderen Meta-Lernermodell gesteuert werden können.[8]

Speichererweiterte neuronale Netze[edit]

Das Modell ist als MANN-Abkürzung für Memory-Augmented Neural Networks bekannt. Es wird erwartet, dass es neue Informationen schnell codiert und sich somit nach nur wenigen Beispielen an neue Aufgaben anpasst. Es eignet sich gut für Meta-Learning.[9]

Meta-Netzwerke[edit]

Meta Networks (MetaNet) lernt ein Wissen auf Metaebene über Aufgaben hinweg und verschiebt seine induktiven Verzerrungen durch schnelle Parametrisierung für eine schnelle Verallgemeinerung.[10]

Metrikbasiert[edit]

Die Kernidee des metrikbasierten Meta-Lernens ähnelt den Algorithmen für die nächsten Nachbarn, deren Gewicht von einer Kernelfunktion generiert wird. Ziel ist es, eine Metrik- oder Distanzfunktion über Objekten zu lernen. Die Vorstellung einer guten Metrik ist problemabhängig. Es sollte die Beziehung zwischen Eingaben im Aufgabenbereich darstellen und die Problemlösung erleichtern.[8]

Faltungs-Siamesisches Neuronales Netz[edit]

Das siamesische neuronale Netz besteht aus zwei Zwillingsnetzen, deren Ausgang gemeinsam trainiert wird. Es gibt eine Funktion oben, um die Beziehung zwischen Eingabedaten-Stichprobenpaaren zu lernen. Die beiden Netzwerke sind gleich und haben das gleiche Gewicht und die gleichen Netzwerkparameter.[11]

Passende Netzwerke[edit]

Übereinstimmende Netzwerke lernen ein Netzwerk kennen, das einen kleinen beschrifteten Unterstützungssatz und ein unbeschriftetes Beispiel seinem Etikett zuordnet, sodass keine Feinabstimmung erforderlich ist, um sich an neue Klassentypen anzupassen.[12]

Beziehungsnetzwerk[edit]

Das Relation Network (RN) wird von Grund auf neu trainiert. Während des Meta-Lernens lernt es, eine Tiefenmetrik zu lernen, um eine kleine Anzahl von Bildern innerhalb von Episoden zu vergleichen, von denen jedes die Einstellung für wenige Aufnahmen simuliert.[13]

Prototypische Netzwerke[edit]

Prototypische Netzwerke lernen einen metrischen Raum, in dem die Klassifizierung durchgeführt werden kann, indem Entfernungen zu Prototypdarstellungen jeder Klasse berechnet werden. Im Vergleich zu neueren Ansätzen für das Lernen mit wenigen Schüssen spiegeln sie eine einfachere induktive Vorspannung wider, die in diesem Regime mit begrenzten Datenmengen von Vorteil ist, und erzielen zufriedenstellende Ergebnisse.[14]

Optimierungsbasiert[edit]

Optimierungsbasierte Meta-Learning-Algorithmen beabsichtigen, den Optimierungsalgorithmus so anzupassen, dass das Modell anhand einiger Beispiele gut lernen kann.[8]

LSTM Meta-Lerner[edit]

LSTM-basierter Meta-Lernender soll den genauen Optimierungsalgorithmus lernen, der zum Trainieren eines anderen Klassifikators für neuronale Netze eines Lernenden im Wenig-Schuss-Regime verwendet wird. Die Parametrisierung ermöglicht es ihm, geeignete Parameteraktualisierungen speziell für das Szenario zu lernen, in dem eine festgelegte Anzahl von Aktualisierungen vorgenommen wird, und gleichzeitig eine allgemeine Initialisierung des Netzwerks der Lernenden (Klassifizierer) zu lernen, die eine schnelle Konvergenz des Trainings ermöglicht.[15]

Zeitliche Diskretion[edit]

MAML, kurz für Model-Agnostic Meta-Learning, ist ein ziemlich allgemeiner Optimierungsalgorithmus, der mit jedem Modell kompatibel ist, das durch Gradientenabstieg lernt.[16]

Reptil[edit]

Reptile ist ein bemerkenswert einfacher Algorithmus zur Optimierung des Meta-Lernens, da beide auf Meta-Optimierung durch Gradientenabstieg beruhen und beide modellunabhängig sind.[17]

Beispiele[edit]

Einige Ansätze, die als Beispiele für Meta-Lernen angesehen wurden:

  • Wiederkehrende neuronale Netze (RNNs) sind universelle Computer. 1993 zeigte Jürgen Schmidhuber, wie “selbstreferenzielle” RNNs im Prinzip durch Backpropagation lernen können, ihren eigenen Gewichtsänderungsalgorithmus auszuführen, der sich möglicherweise stark von der Backpropagation unterscheidet.[18] Im Jahr 2001 bauten Sepp Hochreiter & AS Younger & PR Conwell einen erfolgreichen betreuten Meta-Lernenden auf der Basis von RNNs mit Langzeit-Kurzzeitgedächtnis auf. Durch Backpropagation wurde ein Lernalgorithmus für quadratische Funktionen erlernt, der viel schneller als Backpropagation ist.[19][2] Forscher von Deepmind (Marcin Andrychowicz et al.) Haben diesen Ansatz 2017 auf die Optimierung ausgeweitet.[20]
  • In den 1990er Jahren wurde Meta Reinforcement Learning oder Meta RL in Schmidhubers Forschungsgruppe durch selbstmodifizierende Richtlinien erreicht, die in einer universellen Programmiersprache verfasst wurden, die spezielle Anweisungen zum Ändern der Richtlinie selbst enthält. Es gibt eine einzige lebenslange Studie. Das Ziel des RL-Agenten ist es, die Belohnung zu maximieren. Es lernt, die Aufnahme von Belohnungen zu beschleunigen, indem es seinen eigenen Lernalgorithmus kontinuierlich verbessert, der Teil der “selbstreferenziellen” Politik ist.[21][22]
  • Eine extreme Art des Meta-Reinforcement-Lernens verkörpert die Gödel-Maschine, ein theoretisches Konstrukt, das jeden Teil seiner eigenen Software untersuchen und modifizieren kann, der auch einen allgemeinen Theorembeweiser enthält. Es kann auf nachweislich optimale Weise eine rekursive Selbstverbesserung erreichen.[23][2]
  • Modellunabhängiges Meta-Lernen (MAML) wurde 2017 von Chelsea Finn et al.[24] Bei einer bestimmten Abfolge von Aufgaben werden die Parameter eines bestimmten Modells so trainiert, dass wenige Iterationen des Gradientenabfalls mit wenigen Trainingsdaten von einer neuen Aufgabe zu einer guten Generalisierungsleistung für diese Aufgabe führen. MAML “trainiert das Modell so, dass es leicht zu optimieren ist.”[24] MAML wurde erfolgreich auf Benchmarks für die Klassifizierung von Bildern mit wenigen Aufnahmen und auf das auf Richtliniengradienten basierende Verstärkungslernen angewendet.[24]
  • Meta-Wissen entdecken funktioniert durch Induzieren von Wissen (z. B. Regeln), das ausdrückt, wie jede Lernmethode bei unterschiedlichen Lernproblemen funktioniert. Die Metadaten bestehen aus Merkmalen der Daten (allgemein, statistisch, informationstheoretisch, …) im Lernproblem und Merkmalen des Lernalgorithmus (Typ, Parametereinstellungen, Leistungsmessungen, …). Ein anderer Lernalgorithmus lernt dann, wie sich die Dateneigenschaften auf die Algorithmusmerkmale beziehen. Bei einem neuen Lernproblem werden die Dateneigenschaften gemessen und die Leistung verschiedener Lernalgorithmen vorhergesagt. Daher kann man die Algorithmen vorhersagen, die für das neue Problem am besten geeignet sind.
  • Gestapelte Verallgemeinerung funktioniert durch Kombinieren mehrerer (unterschiedlicher) Lernalgorithmen. Die Metadaten werden durch die Vorhersagen dieser verschiedenen Algorithmen gebildet. Ein anderer Lernalgorithmus lernt aus diesen Metadaten, um vorherzusagen, welche Kombinationen von Algorithmen im Allgemeinen gute Ergebnisse liefern. Bei einem neuen Lernproblem werden die Vorhersagen des ausgewählten Satzes von Algorithmen kombiniert (z. B. durch (gewichtete) Abstimmung), um die endgültige Vorhersage bereitzustellen. Da davon ausgegangen wird, dass jeder Algorithmus an einer Teilmenge von Problemen arbeitet, soll eine Kombination flexibler sein und gute Vorhersagen treffen können.
  • Erhöhen bezieht sich auf die gestapelte Verallgemeinerung, verwendet jedoch mehrmals denselben Algorithmus, wobei die Beispiele in den Trainingsdaten bei jedem Lauf unterschiedliche Gewichte erhalten. Dies führt zu unterschiedlichen Vorhersagen, die sich jeweils darauf konzentrieren, eine Teilmenge der Daten richtig vorherzusagen, und die Kombination dieser Vorhersagen führt zu besseren (aber teureren) Ergebnissen.
  • Dynamische Bias-Auswahl funktioniert durch Ändern der induktiven Vorspannung eines Lernalgorithmus, um dem gegebenen Problem zu entsprechen. Dies erfolgt durch Ändern von Schlüsselaspekten des Lernalgorithmus, wie z. B. der Darstellung von Hypothesen, heuristischen Formeln oder Parametern. Es gibt viele verschiedene Ansätze.
  • Induktive Übertragung untersucht, wie der Lernprozess im Laufe der Zeit verbessert werden kann. Metadaten bestehen aus Wissen über frühere Lernepisoden und werden verwendet, um effizient eine effektive Hypothese für eine neue Aufgabe zu entwickeln. Ein verwandter Ansatz heißt Lernen lernen, wobei das Ziel darin besteht, erworbenes Wissen aus einem Bereich zu nutzen, um das Lernen in anderen Bereichen zu unterstützen.
  • Andere Ansätze, die Metadaten verwenden, um das automatische Lernen zu verbessern, sind Lernklassifikatorsysteme, fallbasiertes Denken und die Erfüllung von Einschränkungen.
  • Einige erste theoretische Arbeiten wurden zur Verwendung initiiert Angewandte Verhaltensanalyse als Grundlage für agentenvermitteltes Meta-Lernen über die Leistungen menschlicher Lernender und Anpassung des Lehrverlaufs eines künstlichen Agenten.[25]
  • AutoML wie das “AI Building AI” -Projekt von Google Brain, das laut Google die bestehenden ImageNet-Benchmarks im Jahr 2017 kurzzeitig übertroffen hat.[26][27]

Verweise

  1. ^ ein b c d e Schmidhuber, Jürgen (1987). “Evolutionäre Prinzipien beim selbstreferenziellen Lernen oder beim Lernen, wie man lernt: der Meta-Meta-Haken.” (PDF). Diplomarbeit, Tech. Univ. München.
  2. ^ ein b c Schaul, Tom; Schmidhuber, Jürgen (2010). “Metalearning”. Scholarpedia. 5 (6): 4650. Bibcode:2010SchpJ … 5.4650S. doi:10.4249 / Scholarpedia.4650.
  3. ^ PE Utgoff (1986). “Verschiebung der Voreingenommenheit für induktives Konzeptlernen”. In R. Michalski, J. Carbonell und T. Mitchell: Maschinelles Lernen: 163–190.
  4. ^ Bengio, Yoshua; Bengio, Samy; Cloutier, Jocelyn (1991). Lernen, eine synaptische Regel zu lernen (PDF). IJCNN’91.
  5. ^ Lemke, Christiane; Budka, Marcin; Gabrys, Bogdan (20.07.2013). “Metalearning: Ein Überblick über Trends und Technologien”. Überprüfung der künstlichen Intelligenz. 44 (1): 117–130. doi:10.1007 / s10462-013-9406-y. ISSN 0269-2821. PMC 4459543. PMID 26069389.
  6. ^ Brazdil, Pavel; Träger, Christophe Giraud; Soares, Carlos; Vilalta, Ricardo (2009). Metalearning – Springer. Kognitive Technologien. doi:10.1007 / 978-3-540-73263-1. ISBN 978-3-540-73262-4.
  7. ^ Gordon, Diana; Desjardins, Marie (1995). “Bewertung und Auswahl von Vorurteilen beim maschinellen Lernen” (PDF). Maschinelles Lernen. 20: 5–22. doi:10.1023 / A: 1022630017346. Abgerufen 27. März 2020.
  8. ^ ein b c d [1] Lilian Weng (2018). Meta-Learning: Lernen, schnell zu lernen. OpenAI Blog. November 2018. Abgerufen am 27. Oktober 2019
  9. ^ [2] Adam Santoro, Sergey Bartunov, Daan Wierstra und Timothy Lillicrap. Meta-Lernen mit gedächtnisverstärkten neuronalen Netzen. Google DeepMind. Abgerufen am 29. Oktober 2019
  10. ^ [3] Tsendsuren Munkhdalai, Hong Yu (2017). Meta Networks.arXiv: 1703.00837 [cs.LG]
  11. ^ [4] Gregory Koch GKOCH, Richard Zemel ZEMEL, Ruslan Salakhutdinov (2015). Siamesische neuronale Netze für die einmalige Bilderkennung. Institut für Informatik, Universität von Toronto. Toronto, Ontario, Kanada.
  12. ^ [5] O. Vinyals, C. Blundell, T. Lillicrap, K. Kavukcuoglu & D. Wierstra. (2016). Passende Netzwerke für One-Shot-Lernen. Google DeepMind. Abgerufen am 3. November 2019
  13. ^ [6] Sung, F., Yang, Y., Zhang, L., Xiang, T., Torr, PHS & Hospedales, TM. (2018). Vergleichen lernen: Beziehungsnetzwerk für das Lernen mit wenigen Schüssen
  14. ^ [7] Snell, J., Swersky, K. & Zemel, RS. (2017). Prototypische Netzwerke für das Lernen mit wenigen Schüssen.
  15. ^ [8] Sachin Ravi ∗ und Hugo Larochelle (2017). ” Optimierung als Modell für das Lernen mit wenigen Schüssen “. ICLR 2017. Abgerufen am 3. November 2019
  16. ^ [9] Chelsea Finn, Pieter Abbeel und Sergey Levine (2017). „Modellunabhängiges Meta-Lernen zur schnellen Anpassung tiefer Netzwerke“ arXiv: 1703.03400 [cs.LG]
  17. ^ [10] Chelsea Finn, Pieter Abbeel und Sergey Levine (2017). Alex Nichol und Joshua Achiam und John Schulman (2018). “ Über Meta-Lernalgorithmen erster Ordnung “. arXiv: 1803.02999 [cs.LG]
  18. ^ Schmidhuber, Jürgen (1993). “Eine selbstreferenzielle Gewichtsmatrix”. Verfahren von ICANN’93, Amsterdam: 446–451.
  19. ^ Hochreiter, Sepp; Jünger, AS; Conwell, PR (2001). “Lernen mit Gradientenabstieg lernen”. Verfahren von ICANN’01: 87–94.
  20. ^ Andrychowicz, Marcin; Denil, Mischa; Gomez, Sergio; Hoffmann, Matthew; Pfau, David; Schaul, Tom; Shillingford, Brendan; de Freitas, Nando (2017). “Lernen, durch Gradientenabstieg durch Gradientenabstieg zu lernen”. Verfahren von ICML’17, Sydney, Australien.
  21. ^ Schmidhuber, Jürgen (1994). “Über das Erlernen von Lernstrategien”. Technischer Bericht FKI-198-94, Tech. Univ. München.
  22. ^ Schmidhuber, Jürgen; Zhao, J.; Wiering, M. (1997). “Verschiebung der induktiven Verzerrung durch Erfolgsgeschichtenalgorithmus, adaptive Levin-Suche und inkrementelle Selbstverbesserung”. Maschinelles Lernen. 28: 105–130. doi:10.1023 / a: 1007383707642.
  23. ^ Schmidhuber, Jürgen (2006). “Gödel-Maschinen: Vollständig selbstreferenzielle optimale universelle Selbstverbesserer”. In B. Goertzel & C. Pennachin, Hrsg.: Künstliche Allgemeine Intelligenz: 199–226.
  24. ^ ein b c Finn, Chelsea; Abbeel, Pieter; Levine, Sergey (2017). “Modellunabhängiges Meta-Lernen zur schnellen Anpassung tiefer Netzwerke”. arXiv:1703.03400 [cs.LG].
  25. ^ Begoli, Edmon (Mai 2014). Prozedurale Argumentationsarchitektur für auf angewandter Verhaltensanalyse basierende Anweisungen. Knoxville, Tennessee, USA: Universität von Tennessee, Knoxville. S. 44–79. Abgerufen 14. Oktober 2017.
  26. ^ “Roboter erstellen jetzt neue Roboter”, sagt Tech Reporter.. NPR.org. 2018. Abgerufen 29. März 2018.
  27. ^ “AutoML für großformatige Bildklassifizierung und Objekterkennung”. Google Research Blog. November 2017. Abgerufen 29. März 2018.

Externe Links[edit]

after-content-x4