[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki7\/2020\/11\/28\/genetischer-algorithmus-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki7\/2020\/11\/28\/genetischer-algorithmus-wikipedia\/","headline":"Genetischer Algorithmus – Wikipedia","name":"Genetischer Algorithmus – Wikipedia","description":"before-content-x4 Kompetitiver Algorithmus zum Durchsuchen eines Problemraums Die 2006 NASA ST5 Raumfahrzeugantenne. Diese komplizierte Form wurde von einem evolution\u00e4ren Computerdesignprogramm","datePublished":"2020-11-28","dateModified":"2020-11-28","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki7\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki7\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/f\/ff\/St_5-xband-antenna.jpg\/220px-St_5-xband-antenna.jpg","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/f\/ff\/St_5-xband-antenna.jpg\/220px-St_5-xband-antenna.jpg","height":"282","width":"220"},"url":"https:\/\/wiki.edu.vn\/wiki7\/2020\/11\/28\/genetischer-algorithmus-wikipedia\/","wordCount":17993,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Kompetitiver Algorithmus zum Durchsuchen eines Problemraums Die 2006 NASA ST5 Raumfahrzeugantenne. Diese komplizierte Form wurde von einem evolution\u00e4ren Computerdesignprogramm gefunden, um das beste Strahlungsmuster zu erzeugen. Es ist als weiterentwickelte Antenne bekannt. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4In der Informatik und Operations Research, a genetischen Algorithmus (GA) ist eine Metaheuristik, die vom Prozess der nat\u00fcrlichen Selektion inspiriert ist und zur gr\u00f6\u00dferen Klasse der evolution\u00e4ren Algorithmen (EA) geh\u00f6rt. Genetische Algorithmen werden h\u00e4ufig verwendet, um qualitativ hochwertige L\u00f6sungen f\u00fcr Optimierungs- und Suchprobleme zu generieren, indem auf biologisch inspirierte Operatoren wie Mutation, Crossover und Selektion zur\u00fcckgegriffen wird.Table of Contents (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Methodik[edit]Optimierungsprobleme[edit]Initialisierung[edit]Auswahl[edit]Genetische Operatoren[edit]Heuristik[edit]Beendigung[edit]Die Bausteinhypothese[edit]Einschr\u00e4nkungen[edit]Varianten[edit]Chromosomendarstellung[edit]Elitismus[edit]Parallele Implementierungen[edit]Adaptive GAs[edit]Problemdom\u00e4nen[edit]Geschichte[edit]Kommerzielle Produkte[edit]Verwandte Techniken[edit]\u00dcbergeordnete Felder[edit]Verwandte Felder[edit]Evolution\u00e4re Algorithmen[edit]Schwarmintelligenz[edit]Andere evolution\u00e4re Rechenalgorithmen[edit]Andere metaheuristische Methoden[edit]Andere stochastische Optimierungsmethoden[edit]Siehe auch[edit]Verweise[edit]Literaturverzeichnis[edit]Externe Links[edit]Ressourcen[edit]Tutorials[edit]Methodik[edit]Optimierungsprobleme[edit]In einem genetischen Algorithmus wird eine Population von Kandidatenl\u00f6sungen (Individuen, Kreaturen oder Ph\u00e4notypen genannt) f\u00fcr ein Optimierungsproblem zu besseren L\u00f6sungen entwickelt. Jede Kandidatenl\u00f6sung hat eine Reihe von Eigenschaften (ihre Chromosomen oder ihr Genotyp), die mutiert und ver\u00e4ndert werden k\u00f6nnen. Traditionell werden L\u00f6sungen bin\u00e4r als Zeichenfolgen von 0 und 1 dargestellt, es sind jedoch auch andere Codierungen m\u00f6glich.Die Evolution beginnt normalerweise mit einer Population zuf\u00e4llig generierter Individuen und ist ein iterativer Prozess, wobei die Population in jeder Iteration als a bezeichnet wird Generation. In jeder Generation wird die Fitness jedes Einzelnen in der Bev\u00f6lkerung bewertet; Die Fitness ist normalerweise der Wert der Zielfunktion in dem zu l\u00f6senden Optimierungsproblem. Die passenderen Individuen werden stochastisch aus der aktuellen Population ausgew\u00e4hlt, und das Genom jedes Individuums wird modifiziert (rekombiniert und m\u00f6glicherweise zuf\u00e4llig mutiert), um eine neue Generation zu bilden. Die neue Generation von Kandidatenl\u00f6sungen wird dann in der n\u00e4chsten Iteration des Algorithmus verwendet. Im Allgemeinen wird der Algorithmus beendet, wenn entweder eine maximale Anzahl von Generationen erzeugt wurde oder ein zufriedenstellendes Fitnessniveau f\u00fcr die Bev\u00f6lkerung erreicht wurde.Ein typischer genetischer Algorithmus erfordert:eine genetische Darstellung der L\u00f6sungsdom\u00e4ne,eine Fitnessfunktion zur Bewertung der L\u00f6sungsdom\u00e4ne.Eine Standarddarstellung jeder Kandidatenl\u00f6sung ist ein Array von Bits. Arrays anderer Typen und Strukturen k\u00f6nnen im Wesentlichen auf die gleiche Weise verwendet werden. Die Haupteigenschaft, die diese genetischen Darstellungen bequem macht, besteht darin, dass ihre Teile aufgrund ihrer festen Gr\u00f6\u00dfe leicht ausgerichtet werden k\u00f6nnen, was einfache \u00dcberkreuzungsoperationen erleichtert. Darstellungen mit variabler L\u00e4nge k\u00f6nnen ebenfalls verwendet werden, aber die Crossover-Implementierung ist in diesem Fall komplexer. Baum\u00e4hnliche Darstellungen werden in der genetischen Programmierung untersucht, und grafische Darstellungen werden in der evolution\u00e4ren Programmierung untersucht. Bei der Programmierung der Genexpression wird eine Mischung aus linearen Chromosomen und B\u00e4umen untersucht. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Sobald die genetische Repr\u00e4sentation und die Fitnessfunktion definiert sind, initialisiert eine GA eine Population von L\u00f6sungen und verbessert sie dann durch wiederholte Anwendung der Mutations-, Crossover-, Inversions- und Selektionsoperatoren.Initialisierung[edit]Die Bev\u00f6lkerungsgr\u00f6\u00dfe h\u00e4ngt von der Art des Problems ab, enth\u00e4lt jedoch in der Regel mehrere Hundert oder Tausende m\u00f6glicher L\u00f6sungen. Oft wird die anf\u00e4ngliche Grundgesamtheit zuf\u00e4llig generiert, wodurch die gesamte Bandbreite m\u00f6glicher L\u00f6sungen (der Suchraum) ber\u00fccksichtigt wird. Gelegentlich k\u00f6nnen die L\u00f6sungen in Bereichen “ausges\u00e4t” werden, in denen wahrscheinlich optimale L\u00f6sungen gefunden werden.Auswahl[edit]W\u00e4hrend jeder nachfolgenden Generation wird ein Teil der bestehenden Population ausgew\u00e4hlt, um eine neue Generation zu z\u00fcchten. Individuelle L\u00f6sungen werden durch a ausgew\u00e4hlt Fitness-basiert Prozess, bei dem fitter L\u00f6sungen (gemessen anhand einer Fitnessfunktion) in der Regel eher ausgew\u00e4hlt werden. Bestimmte Auswahlmethoden bewerten die Eignung jeder L\u00f6sung und w\u00e4hlen vorzugsweise die besten L\u00f6sungen aus. Andere Methoden bewerten nur eine zuf\u00e4llige Stichprobe der Bev\u00f6lkerung, da der erstere Prozess sehr zeitaufw\u00e4ndig sein kann.Die Fitnessfunktion wird \u00fcber die genetische Repr\u00e4sentation definiert und misst die Qualit\u00e4t der dargestellten L\u00f6sung. Die Fitnessfunktion ist immer problemabh\u00e4ngig. Zum Beispiel m\u00f6chte man beim Rucksackproblem den Gesamtwert von Objekten maximieren, die in einen Rucksack mit fester Kapazit\u00e4t gesteckt werden k\u00f6nnen. Eine Darstellung einer L\u00f6sung kann ein Array von Bits sein, wobei jedes Bit ein anderes Objekt darstellt und der Wert des Bits (0 oder 1) angibt, ob sich das Objekt im Rucksack befindet oder nicht. Nicht jede solche Darstellung ist g\u00fcltig, da die Gr\u00f6\u00dfe der Objekte die Kapazit\u00e4t des Rucksacks \u00fcberschreiten kann. Das Fitness der L\u00f6sung ist die Summe der Werte aller Objekte im Rucksack, wenn die Darstellung g\u00fcltig ist, oder 0, wenn dies nicht der Fall ist.Bei einigen Problemen ist es schwierig oder sogar unm\u00f6glich, den Fitnessausdruck zu definieren. In diesen F\u00e4llen kann eine Simulation verwendet werden, um den Fitnessfunktionswert eines Ph\u00e4notyps zu bestimmen (z. B. wird die rechnergest\u00fctzte Fluiddynamik verwendet, um den Luftwiderstand eines Fahrzeugs zu bestimmen, dessen Form als Ph\u00e4notyp codiert ist), oder es werden sogar interaktive genetische Algorithmen verwendet.Genetische Operatoren[edit]Der n\u00e4chste Schritt besteht darin, eine Population von L\u00f6sungen der zweiten Generation aus den durch eine Kombination genetischer Operatoren ausgew\u00e4hlten L\u00f6sungen zu generieren: Crossover (auch als Rekombination bezeichnet) und Mutation.F\u00fcr jede neue zu produzierende L\u00f6sung wird ein Paar “Eltern” -L\u00f6sungen zur Z\u00fcchtung aus dem zuvor ausgew\u00e4hlten Pool ausgew\u00e4hlt. Durch die Herstellung einer “Kind” -L\u00f6sung unter Verwendung der oben genannten Methoden der \u00dcberkreuzung und Mutation wird eine neue L\u00f6sung geschaffen, die typischerweise viele der Merkmale ihrer “Eltern” teilt. F\u00fcr jedes neue Kind werden neue Eltern ausgew\u00e4hlt, und der Prozess wird fortgesetzt, bis eine neue Population von L\u00f6sungen geeigneter Gr\u00f6\u00dfe generiert wird. Obwohl Reproduktionsmethoden, die auf der Verwendung von zwei Elternteilen basieren, eher “biologisch inspiriert” sind, gibt es einige Untersuchungen[3][4] legt nahe, dass mehr als zwei “Eltern” Chromosomen h\u00f6herer Qualit\u00e4t erzeugen.Diese Prozesse f\u00fchren letztendlich zu einer Chromosomenpopulation der n\u00e4chsten Generation, die sich von der urspr\u00fcnglichen Generation unterscheidet. Im Allgemeinen hat sich die durchschnittliche Fitness durch dieses Verfahren f\u00fcr die Population erh\u00f6ht, da nur die besten Organismen der ersten Generation f\u00fcr die Zucht ausgew\u00e4hlt werden, zusammen mit einem kleinen Anteil weniger geeigneter L\u00f6sungen. Diese weniger geeigneten L\u00f6sungen gew\u00e4hrleisten die genetische Vielfalt innerhalb des genetischen Pools der Eltern und damit die genetische Vielfalt der nachfolgenden Kindergeneration.Die Meinung ist geteilt \u00fcber die Bedeutung von Crossover gegen\u00fcber Mutation. In Fogel (2006) gibt es viele Referenzen, die die Bedeutung der mutationsbasierten Suche unterst\u00fctzen.Obwohl Crossover und Mutation als die wichtigsten genetischen Operatoren bekannt sind, ist es m\u00f6glich, andere Operatoren wie Umgruppierung, Kolonisierung-Extinktion oder Migration in genetischen Algorithmen zu verwenden.[citation needed]Es lohnt sich, Parameter wie die Mutationswahrscheinlichkeit, die \u00dcberkreuzungswahrscheinlichkeit und die Populationsgr\u00f6\u00dfe zu optimieren, um angemessene Einstellungen f\u00fcr die Problemklasse zu finden, an der gearbeitet wird. Eine sehr geringe Mutationsrate kann zu einer genetischen Drift f\u00fchren (die nicht ergodischer Natur ist). Eine zu hohe Rekombinationsrate kann zu einer vorzeitigen Konvergenz des genetischen Algorithmus f\u00fchren. Eine zu hohe Mutationsrate kann zum Verlust guter L\u00f6sungen f\u00fchren, sofern keine elit\u00e4re Selektion angewendet wird. Eine angemessene Populationsgr\u00f6\u00dfe stellt eine ausreichende genetische Vielfalt f\u00fcr das jeweilige Problem sicher, kann jedoch zu einer Verschwendung von Rechenressourcen f\u00fchren, wenn ein Wert festgelegt wird, der gr\u00f6\u00dfer als erforderlich ist.Heuristik[edit]Zus\u00e4tzlich zu den oben genannten Hauptoperatoren k\u00f6nnen andere Heuristiken verwendet werden, um die Berechnung schneller oder robuster zu machen. Das Speziation Heuristik bestraft \u00dcberkreuzung zwischen zu \u00e4hnlichen Kandidatenl\u00f6sungen; Dies f\u00f6rdert die Bev\u00f6lkerungsvielfalt und tr\u00e4gt dazu bei, eine vorzeitige Konvergenz zu einer weniger optimalen L\u00f6sung zu verhindern.[5][6]Beendigung[edit]Dieser Generationsprozess wird wiederholt, bis eine Beendigungsbedingung erreicht ist. \u00dcbliche K\u00fcndigungsbedingungen sind:Es wird eine L\u00f6sung gefunden, die Mindestkriterien erf\u00fclltFeste Anzahl von Generationen erreichtZugewiesenes Budget (Rechenzeit \/ Geld) erreichtDie Fitness der L\u00f6sung mit dem h\u00f6chsten Rang erreicht oder hat ein Plateau erreicht, sodass aufeinanderfolgende Iterationen keine besseren Ergebnisse mehr liefernManuelle InspektionKombinationen der oben genanntenDie Bausteinhypothese[edit]Genetische Algorithmen sind einfach zu implementieren, aber ihr Verhalten ist schwer zu verstehen. Insbesondere ist es schwer zu verstehen, warum es diesen Algorithmen h\u00e4ufig gelingt, L\u00f6sungen mit hoher Fitness zu generieren, wenn sie auf praktische Probleme angewendet werden. Die Bausteinhypothese (BBH) besteht aus:Eine Beschreibung einer Heuristik, die eine Anpassung durch Identifizieren und Rekombinieren von “Bausteinen” durchf\u00fchrt, dh Schemata niedriger Ordnung mit geringer definierter L\u00e4nge und \u00fcberdurchschnittlicher Fitness.Eine Hypothese, dass ein genetischer Algorithmus eine Anpassung durch implizite und effiziente Implementierung dieser Heuristik durchf\u00fchrt.Goldberg beschreibt die Heuristik wie folgt:“Schemata mit kurzer, niedriger Ordnung und hoher Anpassung werden abgetastet und neu kombiniert [crossed over]und neu abgetastet, um Saiten mit potenziell h\u00f6herer Fitness zu bilden. In gewisser Weise durch die Arbeit mit diesen bestimmten Schemata [the building blocks]haben wir die Komplexit\u00e4t unseres Problems reduziert; Anstatt Hochleistungs-Strings zu erstellen, indem wir jede erdenkliche Kombination ausprobieren, konstruieren wir immer bessere Strings aus den besten Teill\u00f6sungen vergangener Samples.“Weil hochpassende Schemata von geringer Definitionsl\u00e4nge und niedriger Ordnung eine so wichtige Rolle bei der Wirkung genetischer Algorithmen spielen, haben wir ihnen bereits einen besonderen Namen gegeben: Bausteine. So wie ein Kind durch die Anordnung einfacher Bl\u00f6cke gro\u00dfartige Festungen schafft Holz, so sucht ein genetischer Algorithmus eine nahezu optimale Leistung durch das Nebeneinander von kurzen Schemata niedriger Ordnung, hoher Leistung oder Bausteinen. “Trotz des fehlenden Konsenses \u00fcber die G\u00fcltigkeit der Bausteinhypothese wurde sie im Laufe der Jahre konsequent bewertet und als Referenz verwendet. Beispielsweise wurden viele Sch\u00e4tzungen von Verteilungsalgorithmen vorgeschlagen, um eine Umgebung bereitzustellen, in der die Hypothese gelten w\u00fcrde.[8][9] Obwohl f\u00fcr einige Problemklassen gute Ergebnisse berichtet wurden, bleibt die Skepsis hinsichtlich der Allgemeinheit und \/ oder Praktikabilit\u00e4t der Bausteinhypothese als Erkl\u00e4rung f\u00fcr die Effizienz der GA bestehen. In der Tat gibt es einen angemessenen Arbeitsaufwand, der versucht, seine Grenzen unter dem Gesichtspunkt der Sch\u00e4tzung von Verteilungsalgorithmen zu verstehen.[10][11][12]Einschr\u00e4nkungen[edit]Die Verwendung eines genetischen Algorithmus unterliegt im Vergleich zu alternativen Optimierungsalgorithmen Einschr\u00e4nkungen:Die wiederholte Bewertung der Fitnessfunktion bei komplexen Problemen ist h\u00e4ufig das unerschwinglichste und einschr\u00e4nkendste Segment k\u00fcnstlicher evolution\u00e4rer Algorithmen. Um die optimale L\u00f6sung f\u00fcr komplexe hochdimensionale, multimodale Probleme zu finden, sind h\u00e4ufig sehr teure Fitnessfunktionsbewertungen erforderlich. Bei realen Problemen wie Strukturoptimierungsproblemen kann eine einzelne Funktionsbewertung mehrere Stunden bis mehrere Tage der vollst\u00e4ndigen Simulation erfordern. Typische Optimierungsmethoden k\u00f6nnen solche Probleme nicht l\u00f6sen. In diesem Fall kann es erforderlich sein, auf eine genaue Bewertung zu verzichten und eine ungef\u00e4hre Fitness zu verwenden, die rechnerisch effizient ist. Es ist offensichtlich, dass die Zusammenf\u00fchrung von N\u00e4herungsmodellen einer der vielversprechendsten Ans\u00e4tze sein kann, um GA \u00fcberzeugend zur L\u00f6sung komplexer realer Probleme einzusetzen.Genetische Algorithmen lassen sich nicht gut mit der Komplexit\u00e4t skalieren. Das hei\u00dft, wenn die Anzahl der Elemente, die einer Mutation ausgesetzt sind, gro\u00df ist, nimmt die Gr\u00f6\u00dfe des Suchraums h\u00e4ufig exponentiell zu. Dies macht es \u00e4u\u00dferst schwierig, die Technik bei Problemen wie dem Entwurf eines Motors, eines Hauses oder eines Flugzeugs anzuwenden. Um solche Probleme f\u00fcr die evolution\u00e4re Suche zug\u00e4nglich zu machen, m\u00fcssen sie in eine m\u00f6glichst einfache Darstellung zerlegt werden. Daher sehen wir normalerweise evolution\u00e4re Algorithmen, die Konstruktionen f\u00fcr L\u00fcfterfl\u00fcgel anstelle von Triebwerken, Geb\u00e4udeformen anstelle detaillierter Baupl\u00e4ne und Tragfl\u00e4chen anstelle ganzer Flugzeugkonstruktionen codieren. Das zweite Problem der Komplexit\u00e4t ist die Frage, wie Teile, die sich entwickelt haben, um gute L\u00f6sungen darzustellen, vor weiteren zerst\u00f6rerischen Mutationen gesch\u00fctzt werden k\u00f6nnen, insbesondere wenn ihre Fitnessbewertung erfordert, dass sie sich gut mit anderen Teilen kombinieren lassen.Die “bessere” L\u00f6sung ist nur im Vergleich zu anderen L\u00f6sungen. Infolgedessen ist das Stoppkriterium nicht bei jedem Problem klar.Bei vielen Problemen tendieren GAs eher zu lokalen Optima oder sogar zu beliebigen Punkten als zum globalen Optimum des Problems. Dies bedeutet, dass es nicht “wei\u00df”, wie man kurzfristige Fitness opfert, um l\u00e4ngerfristige Fitness zu erlangen. Die Wahrscheinlichkeit, dass dies auftritt, h\u00e4ngt von der Form der Fitnesslandschaft ab: Bestimmte Probleme k\u00f6nnen einen einfachen Aufstieg zu einem globalen Optimum erm\u00f6glichen, andere k\u00f6nnen es der Funktion erleichtern, die lokalen Optima zu finden. Dieses Problem kann durch Verwendung einer anderen Fitnessfunktion, Erh\u00f6hung der Mutationsrate oder durch Verwendung von Auswahltechniken, die eine vielf\u00e4ltige Population von L\u00f6sungen aufrechterhalten, gelindert werden.[13] obwohl das No Free Lunch Theorem[14] beweist, dass es f\u00fcr dieses Problem keine allgemeine L\u00f6sung gibt. Eine \u00fcbliche Technik zur Aufrechterhaltung der Vielfalt besteht darin, eine “Nischenstrafe” zu verh\u00e4ngen, bei der jeder Gruppe von Personen mit ausreichender \u00c4hnlichkeit (Nischenradius) eine Strafe hinzugef\u00fcgt wird, die die Repr\u00e4sentation dieser Gruppe in nachfolgenden Generationen verringert und andere (weniger \u00e4hnliche) zul\u00e4sst ) Personen, die in der Bev\u00f6lkerung erhalten bleiben sollen. Dieser Trick ist jedoch je nach Landschaft des Problems m\u00f6glicherweise nicht effektiv. Eine andere m\u00f6gliche Technik w\u00e4re, einfach einen Teil der Bev\u00f6lkerung durch zuf\u00e4llig erzeugte Individuen zu ersetzen, wenn der gr\u00f6\u00dfte Teil der Bev\u00f6lkerung einander zu \u00e4hnlich ist. Diversit\u00e4t ist bei genetischen Algorithmen (und bei der genetischen Programmierung) wichtig, da das \u00dcberqueren einer homogenen Population keine neuen L\u00f6sungen liefert. In Evolutionsstrategien und in der evolution\u00e4ren Programmierung ist Diversit\u00e4t aufgrund einer st\u00e4rkeren Abh\u00e4ngigkeit von Mutationen nicht wesentlich.Die Bearbeitung dynamischer Datens\u00e4tze ist schwierig, da die Genome fr\u00fchzeitig zu L\u00f6sungen konvergieren, die f\u00fcr sp\u00e4tere Daten m\u00f6glicherweise nicht mehr g\u00fcltig sind. Es wurden verschiedene Methoden vorgeschlagen, um dies zu beheben, indem die genetische Vielfalt irgendwie erh\u00f6ht und eine fr\u00fche Konvergenz verhindert wird, entweder indem die Wahrscheinlichkeit einer Mutation erh\u00f6ht wird, wenn die L\u00f6sungsqualit\u00e4t sinkt (genannt) ausgel\u00f6ste Hypermutation) oder durch gelegentliches Einf\u00fchren v\u00f6llig neuer, zuf\u00e4llig erzeugter Elemente in den Genpool (genannt zuf\u00e4llige Einwanderer). Auch hier k\u00f6nnen Evolutionsstrategien und evolution\u00e4re Programmierung mit einer sogenannten “Kommastrategie” implementiert werden, bei der Eltern nicht gepflegt werden und neue Eltern nur aus Nachkommen ausgew\u00e4hlt werden. Dies kann bei dynamischen Problemen effektiver sein.GAs k\u00f6nnen Probleme nicht effektiv l\u00f6sen, bei denen die einzige Fitnessma\u00dfnahme eine einzelne richtige \/ falsche Ma\u00dfnahme ist (wie Entscheidungsprobleme), da es keine M\u00f6glichkeit gibt, auf die L\u00f6sung zu konvergieren (kein H\u00fcgel zum Klettern). In diesen F\u00e4llen kann eine zuf\u00e4llige Suche eine L\u00f6sung so schnell finden wie eine GA. Wenn die Situation jedoch erm\u00f6glicht, dass der Erfolgs- \/ Misserfolgsversuch wiederholt wird und (m\u00f6glicherweise) unterschiedliche Ergebnisse liefert, bietet das Verh\u00e4ltnis von Erfolg zu Misserfolg ein geeignetes Fitnessma\u00df.F\u00fcr bestimmte Optimierungsprobleme und Problemf\u00e4lle k\u00f6nnen andere Optimierungsalgorithmen hinsichtlich der Konvergenzgeschwindigkeit effizienter sein als genetische Algorithmen. Alternative und komplement\u00e4re Algorithmen umfassen Evolutionsstrategien, evolution\u00e4re Programmierung, simuliertes Tempern, Gau\u00dfsche Anpassung, Bergsteigen und Schwarmintelligenz (z. B. Ameisenkolonieoptimierung, Partikelschwarmoptimierung) und Methoden, die auf ganzzahliger linearer Programmierung basieren. Die Eignung genetischer Algorithmen h\u00e4ngt von der Kenntnis des Problems ab. Bekannte Probleme haben oft bessere, spezialisiertere Ans\u00e4tze.Varianten[edit]Chromosomendarstellung[edit]Der einfachste Algorithmus repr\u00e4sentiert jedes Chromosom als Bitfolge. In der Regel k\u00f6nnen numerische Parameter durch Ganzzahlen dargestellt werden, obwohl Gleitkomma-Darstellungen verwendet werden k\u00f6nnen. Die Gleitkomma-Darstellung ist f\u00fcr Evolutionsstrategien und evolution\u00e4re Programmierung selbstverst\u00e4ndlich. Der Begriff der realwertigen genetischen Algorithmen wurde angeboten, ist jedoch eine Fehlbezeichnung, da er nicht wirklich die von John Henry Holland in den 1970er Jahren vorgeschlagene Bausteintheorie darstellt. Diese Theorie ist jedoch nicht ohne Unterst\u00fctzung, basierend auf theoretischen und experimentellen Ergebnissen (siehe unten). Der Basisalgorithmus f\u00fchrt Crossover und Mutation auf Bitebene durch. Andere Varianten behandeln das Chromosom als eine Liste von Zahlen, die Indizes in einer Anweisungstabelle, Knoten in einer verkn\u00fcpften Liste, Hashes, Objekte oder jede andere vorstellbare Datenstruktur sind. Crossover und Mutation werden durchgef\u00fchrt, um Datenelementgrenzen zu respektieren. F\u00fcr die meisten Datentypen k\u00f6nnen bestimmte Variationsoperatoren entworfen werden. Verschiedene chromosomale Datentypen scheinen f\u00fcr verschiedene spezifische Problembereiche besser oder schlechter zu funktionieren.Wenn Bit-String-Darstellungen von ganzen Zahlen verwendet werden, wird h\u00e4ufig eine Gray-Codierung verwendet. Auf diese Weise k\u00f6nnen kleine \u00c4nderungen in der Ganzzahl leicht durch Mutationen oder \u00dcberkreuzungen beeinflusst werden. Es wurde festgestellt, dass dies dazu beitr\u00e4gt, eine vorzeitige Konvergenz bei sogenannten zu verhindern W\u00e4nde h\u00e4mmern, bei denen zu viele gleichzeitige Mutationen (oder Crossover-Ereignisse) auftreten m\u00fcssen, um das Chromosom in eine bessere L\u00f6sung umzuwandeln.Andere Ans\u00e4tze umfassen die Verwendung von Arrays mit reellen Zahlen anstelle von Bitfolgen zur Darstellung von Chromosomen. Ergebnisse aus der Schematheorie legen nahe, dass die Leistung im Allgemeinen umso besser ist, je kleiner das Alphabet ist. F\u00fcr Forscher war es jedoch zun\u00e4chst \u00fcberraschend, dass mit der Verwendung von Chromosomen mit echtem Wert gute Ergebnisse erzielt wurden. Dies wurde als die Menge der realen Werte in einer endlichen Population von Chromosomen als Bildung von a erkl\u00e4rt virtuelles Alphabet (wenn Selektion und Rekombination dominieren) mit einer viel geringeren Kardinalit\u00e4t, als dies von einer Gleitkomma-Darstellung zu erwarten w\u00e4re.[15][16]Eine Erweiterung der f\u00fcr den genetischen Algorithmus zug\u00e4nglichen Problemdom\u00e4ne kann durch komplexere Codierung der L\u00f6sungspools erhalten werden, indem mehrere Arten heterogen codierter Gene zu einem Chromosom verkettet werden.[17] Dieser spezielle Ansatz erm\u00f6glicht die L\u00f6sung von Optimierungsproblemen, die sehr unterschiedliche Definitionsdom\u00e4nen f\u00fcr die Problemparameter erfordern. Beispielsweise kann bei Problemen der kaskadierten Reglerabstimmung die interne Schleifenreglerstruktur zu einem herk\u00f6mmlichen Regler mit drei Parametern geh\u00f6ren, w\u00e4hrend die externe Schleife einen Sprachregler (wie ein Fuzzy-System) implementieren k\u00f6nnte, der eine inh\u00e4rent andere Beschreibung hat. Diese spezielle Form der Codierung erfordert einen speziellen Crossover-Mechanismus, der das Chromosom abschnittsweise rekombiniert, und ist ein n\u00fctzliches Werkzeug f\u00fcr die Modellierung und Simulation komplexer adaptiver Systeme, insbesondere von Evolutionsprozessen.Elitismus[edit]Eine praktische Variante des allgemeinen Prozesses zum Aufbau einer neuen Population besteht darin, den besten Organismen der aktuellen Generation unver\u00e4ndert auf den n\u00e4chsten zu \u00fcbertragen. Diese Strategie ist bekannt als elit\u00e4re Auswahl und garantiert, dass die von der GA erhaltene L\u00f6sungsqualit\u00e4t nicht von einer Generation zur n\u00e4chsten abnimmt.[18]Parallele Implementierungen[edit]Parallele Implementierungen genetischer Algorithmen gibt es in zwei Varianten. Grobk\u00f6rnige parallele genetische Algorithmen setzen eine Population auf jedem der Computerknoten und die Migration von Individuen zwischen den Knoten voraus. Feink\u00f6rnige parallele genetische Algorithmen setzen auf jedem Prozessorknoten ein Individuum voraus, das mit benachbarten Individuen zur Auswahl und Reproduktion zusammenarbeitet. Andere Varianten, wie genetische Algorithmen f\u00fcr Online-Optimierungsprobleme, f\u00fchren zu Zeitabh\u00e4ngigkeit oder Rauschen in der Fitnessfunktion.Adaptive GAs[edit]Genetische Algorithmen mit adaptiven Parametern (adaptive genetische Algorithmen, AGAs) sind eine weitere bedeutende und vielversprechende Variante genetischer Algorithmen. Die Wahrscheinlichkeiten von Crossover (pc) und Mutation (pm) bestimmen ma\u00dfgeblich den Grad der L\u00f6sungsgenauigkeit und die Konvergenzgeschwindigkeit, die genetische Algorithmen erzielen k\u00f6nnen. Anstatt feste Werte von zu verwenden pc und UhrAGAs nutzen die Bev\u00f6lkerungsinformationen in jeder Generation und passen die adaptiv an pc und Uhr um die Bev\u00f6lkerungsvielfalt zu erhalten und die Konvergenzkapazit\u00e4t aufrechtzuerhalten. In AGA (adaptiver genetischer Algorithmus),[19] die Einstellung von pc und Uhr h\u00e4ngt von den Fitnesswerten der L\u00f6sungen ab. Im CAGA (Clustering-basierter adaptiver genetischer Algorithmus),[20] durch die Verwendung der Clusteranalyse zur Beurteilung der Optimierungszust\u00e4nde der Bev\u00f6lkerung wird die Anpassung von pc und Uhr h\u00e4ngt von diesen Optimierungszust\u00e4nden ab. Es kann sehr effektiv sein, GA mit anderen Optimierungsmethoden zu kombinieren. GA ist in der Regel recht gut darin, allgemein gute globale L\u00f6sungen zu finden, aber ziemlich ineffizient darin, die letzten Mutationen zu finden, um das absolute Optimum zu finden. Andere Techniken (wie einfaches Bergsteigen) sind sehr effizient, um in einer begrenzten Region ein absolutes Optimum zu finden. Abwechselndes GA und Bergsteigen k\u00f6nnen die Effizienz von GA verbessern[citation needed] w\u00e4hrend die mangelnde Robustheit des Bergsteigens \u00fcberwunden wird.Dies bedeutet, dass die Regeln der genetischen Variation im nat\u00fcrlichen Fall eine andere Bedeutung haben k\u00f6nnen. Zum Beispiel kann – vorausgesetzt, dass Schritte in aufeinanderfolgender Reihenfolge gespeichert werden – das \u00dcberkreuzen eine Anzahl von Schritten von der m\u00fctterlichen DNA summieren, indem eine Anzahl von Schritten von der v\u00e4terlichen DNA hinzugef\u00fcgt wird und so weiter. Dies ist wie das Hinzuf\u00fcgen von Vektoren, die eher einem Kamm in der ph\u00e4notypischen Landschaft folgen k\u00f6nnen. Somit kann die Effizienz des Prozesses um viele Gr\u00f6\u00dfenordnungen erh\u00f6ht werden. Dar\u00fcber hinaus hat der Inversionsoperator die M\u00f6glichkeit, Schritte in aufeinanderfolgender Reihenfolge oder in einer anderen geeigneten Reihenfolge zugunsten des \u00dcberlebens oder der Effizienz zu platzieren.[21]Eine Variation, bei der sich die Population als Ganzes und nicht ihre einzelnen Mitglieder entwickelt, wird als Genpoolrekombination bezeichnet.Es wurde eine Reihe von Variationen entwickelt, um zu versuchen, die Leistung von GAs bei Problemen mit einem hohen Grad an Fitness-Epistase zu verbessern, dh wenn die Fitness einer L\u00f6sung aus der Interaktion von Teilmengen ihrer Variablen besteht. Solche Algorithmen zielen darauf ab, diese vorteilhaften ph\u00e4notypischen Wechselwirkungen (vor dem Ausnutzen) zu lernen. Als solche stimmen sie mit der Bausteinhypothese \u00fcberein, indem sie die st\u00f6rende Rekombination adaptiv reduzieren. Prominente Beispiele f\u00fcr diesen Ansatz sind die mGA,[22] GEMGA[23] und LLGA.[24]Problemdom\u00e4nen[edit]Zu den Problemen, die f\u00fcr die L\u00f6sung durch genetische Algorithmen besonders geeignet zu sein scheinen, geh\u00f6ren Zeitplan- und Planungsprobleme, und viele Planungssoftwarepakete basieren auf GAs[citation needed]. GAs wurden auch auf das Engineering angewendet[25] und die L\u00e4nge der psychologischen Frageb\u00f6gen zu reduzieren.[26] Genetische Algorithmen werden h\u00e4ufig als Ansatz zur L\u00f6sung globaler Optimierungsprobleme eingesetzt.Als allgemeine Faustregel k\u00f6nnen genetische Algorithmen in Problembereichen n\u00fctzlich sein, die eine komplexe Fitnesslandschaft aufweisen, da das Mischen, dh die Mutation in Kombination mit Crossover, die Bev\u00f6lkerung von lokalen Optima wegbewegt, damit ein traditioneller Bergsteigeralgorithmus stecken bleibt Beachten Sie, dass h\u00e4ufig verwendete Crossover-Operatoren keine einheitliche Grundgesamtheit \u00e4ndern k\u00f6nnen. Eine Mutation allein kann eine Ergodizit\u00e4t des gesamten genetischen Algorithmusprozesses liefern (als Markov-Kette angesehen).Beispiele f\u00fcr Probleme, die durch genetische Algorithmen gel\u00f6st werden, sind: Spiegel, die Sonnenlicht zu einem Sonnenkollektor leiten sollen,[27] Antennen zur Aufnahme von Funksignalen im Weltraum,[28] Gehmethoden f\u00fcr Computerfiguren,[29] Optimale Auslegung aerodynamischer K\u00f6rper in komplexen Str\u00f6mungsfeldern[30]In seinem Algorithmus-Design-Handbuch, Skiena r\u00e4t von genetischen Algorithmen f\u00fcr jede Aufgabe ab:[I]Es ist ziemlich unnat\u00fcrlich, Anwendungen in Bezug auf genetische Operatoren wie Mutation und Crossover auf Bitstrings zu modellieren. Die Pseudobiologie erh\u00f6ht die Komplexit\u00e4t zwischen Ihnen und Ihrem Problem. Zweitens dauern genetische Algorithmen bei nicht trivialen Problemen sehr lange. […] [T]Die Analogie zur Evolution – wo bedeutende Fortschritte erforderlich sind [sic] Millionen von Jahren – kann durchaus angemessen sein.[…]Ich bin nie auf ein Problem gesto\u00dfen, bei dem mir genetische Algorithmen der richtige Weg waren, es anzugreifen. Au\u00dferdem habe ich noch nie Rechenergebnisse mit genetischen Algorithmen gesehen, die mich positiv beeindruckt haben. Halten Sie sich an das simulierte Tempern f\u00fcr Ihre heuristischen Such-Voodoo-Anforderungen.– –Steven Skiena[31]::267Geschichte[edit]1950 schlug Alan Turing eine “Lernmaschine” vor, die den Prinzipien der Evolution entsprechen w\u00fcrde.[32] Die Computersimulation der Evolution begann bereits 1954 mit der Arbeit von Nils Aall Barricelli, der den Computer am Institute for Advanced Study in Princeton, New Jersey, verwendete.[33][34] Seine Ver\u00f6ffentlichung von 1954 wurde nicht allgemein wahrgenommen. Ab 1957[35] Der australische quantitative Genetiker Alex Fraser ver\u00f6ffentlichte eine Reihe von Arbeiten zur Simulation der k\u00fcnstlichen Selektion von Organismen mit mehreren Loci, die ein messbares Merkmal steuern. Von diesen Anf\u00e4ngen an wurde die Computersimulation der Evolution durch Biologen in den fr\u00fchen 1960er Jahren immer h\u00e4ufiger, und die Methoden wurden in B\u00fcchern von Fraser und Burnell (1970) beschrieben.[36] und Crosby (1973).[37] Frasers Simulationen umfassten alle wesentlichen Elemente moderner genetischer Algorithmen. Dar\u00fcber hinaus ver\u00f6ffentlichte Hans-Joachim Bremermann in den 1960er Jahren eine Reihe von Arbeiten, in denen auch eine Reihe von L\u00f6sungen f\u00fcr Optimierungsprobleme vorgestellt wurden, die einer Rekombination, Mutation und Selektion unterzogen wurden. Bremermanns Forschung umfasste auch die Elemente moderner genetischer Algorithmen.[38] Andere bemerkenswerte fr\u00fche Pioniere sind Richard Friedberg, George Friedman und Michael Conrad. Viele fr\u00fche Arbeiten wurden von Fogel (1998) nachgedruckt.[39]Obwohl Barricelli in seiner Arbeit, \u00fcber die er 1963 berichtete, die Entwicklung der F\u00e4higkeit simuliert hatte, ein einfaches Spiel zu spielen,[40]Die k\u00fcnstliche Evolution wurde erst durch die Arbeit von Ingo Rechenberg und Hans-Paul Schwefel in den 1960er und fr\u00fchen 1970er Jahren zu einer weithin anerkannten Optimierungsmethode. Die Gruppe von Rechenberg konnte komplexe technische Probleme durch Evolutionsstrategien l\u00f6sen.[41][42][43][44] Ein anderer Ansatz war die evolution\u00e4re Programmiertechnik von Lawrence J. Fogel, die zur Erzeugung k\u00fcnstlicher Intelligenz vorgeschlagen wurde. Bei der evolution\u00e4ren Programmierung wurden urspr\u00fcnglich Finite-State-Maschinen zur Vorhersage von Umgebungen verwendet und Variationen und Auswahl zur Optimierung der Vorhersagelogik verwendet. Insbesondere genetische Algorithmen wurden durch die Arbeit von John Holland in den fr\u00fchen 1970er Jahren und insbesondere durch sein Buch popul\u00e4r Anpassung in nat\u00fcrlichen und k\u00fcnstlichen Systemen (1975). Seine Arbeit entstand aus Studien \u00fcber zellul\u00e4re Automaten, die von Holland und seinen Studenten an der Universit\u00e4t von Michigan durchgef\u00fchrt wurden. Holland f\u00fchrte einen formalisierten Rahmen zur Vorhersage der Qualit\u00e4t der n\u00e4chsten Generation ein, der als Hollands Schemasatz bekannt ist. Die Forschung in GAs blieb bis Mitte der 1980er Jahre weitgehend theoretisch, als in Pittsburgh, Pennsylvania, die erste internationale Konferenz \u00fcber genetische Algorithmen stattfand.Kommerzielle Produkte[edit]In den sp\u00e4ten 1980er Jahren begann General Electric mit dem Verkauf des weltweit ersten genetischen Algorithmusprodukts, eines auf Mainframes basierenden Toolkits f\u00fcr industrielle Prozesse.[45] 1989 ver\u00f6ffentlichte Axcelis, Inc. Evolver, das weltweit erste kommerzielle GA-Produkt f\u00fcr Desktop-Computer. Der Technologie-Autor der New York Times, John Markoff, schrieb[46] \u00fcber Evolver im Jahr 1990, und es blieb der einzige interaktive kommerzielle genetische Algorithmus bis 1995.[47] Evolver wurde 1997 an Palisade verkauft, in mehrere Sprachen \u00fcbersetzt und befindet sich derzeit in der 6. Version.[48] Seit den 1990er Jahren hat MATLAB drei heuristische Algorithmen zur derivatfreien Optimierung (simuliertes Tempern, Partikelschwarmoptimierung, genetischer Algorithmus) und zwei direkte Suchalgorithmen (Simplex-Suche, Mustersuche) eingebaut.[49]Verwandte Techniken[edit]\u00dcbergeordnete Felder[edit]Genetische Algorithmen sind ein Unterfeld:Verwandte Felder[edit]Evolution\u00e4re Algorithmen[edit]Evolution\u00e4re Algorithmen sind ein Teilgebiet des evolution\u00e4ren Rechnens.Evolutionsstrategien (ES, siehe Rechenberg, 1994) entwickeln Individuen durch Mutation und intermedi\u00e4re oder diskrete Rekombination. ES-Algorithmen wurden speziell entwickelt, um Probleme im Real-Value-Bereich zu l\u00f6sen.[50] Sie verwenden die Selbstanpassung, um die Steuerparameter der Suche anzupassen. Die De-Randomisierung der Selbstanpassung hat zur zeitgen\u00f6ssischen Covariance Matrix Adaptation Evolution Strategy (CMA-ES) gef\u00fchrt.Die evolution\u00e4re Programmierung (EP) umfasst Populationen von L\u00f6sungen mit haupts\u00e4chlich Mutation und Selektion sowie willk\u00fcrlichen Darstellungen. Sie verwenden die Selbstanpassung zum Anpassen von Parametern und k\u00f6nnen andere Variationsoperationen umfassen, z. B. das Kombinieren von Informationen von mehreren Eltern.Die Sch\u00e4tzung des Verteilungsalgorithmus (EDA) ersetzt herk\u00f6mmliche Reproduktionsoperatoren durch modellgesteuerte Operatoren. Solche Modelle werden aus der Bev\u00f6lkerung unter Verwendung von Techniken des maschinellen Lernens gelernt und als probabilistische grafische Modelle dargestellt, aus denen neue L\u00f6sungen entnommen werden k\u00f6nnen[51][52] oder aus gef\u00fchrter Frequenzweiche generiert.[53]Die Genexpressionsprogrammierung (GEP) verwendet auch Populationen von Computerprogrammen. Diese komplexen Computerprogramme werden in einfacheren linearen Chromosomen fester L\u00e4nge codiert, die anschlie\u00dfend als Expressionsb\u00e4ume ausgedr\u00fcckt werden. Expressionsb\u00e4ume oder Computerprogramme entwickeln sich, weil die Chromosomen auf \u00e4hnliche Weise wie die kanonische GA mutiert und rekombiniert werden. Dank der speziellen Organisation der GEP-Chromosomen f\u00fchren diese genetischen Ver\u00e4nderungen jedoch immer zu g\u00fcltigen Computerprogrammen.[54]Genetische Programmierung (GP) ist eine von John Koza verbreitete Technik, bei der Computerprogramme anstelle von Funktionsparametern optimiert werden. Bei der genetischen Programmierung werden h\u00e4ufig baumbasierte interne Datenstrukturen verwendet, um die Computerprogramme zur Anpassung anstelle der f\u00fcr genetische Algorithmen typischen Listenstrukturen darzustellen.Der gruppengenetische Algorithmus (GGA) ist eine Weiterentwicklung der GA, bei der der Fokus von einzelnen Elementen, wie bei klassischen GAs, auf Gruppen oder Teilmengen von Elementen verlagert wird.[55] Die Idee hinter dieser von Emanuel Falkenauer vorgeschlagenen GA-Entwicklung ist die L\u00f6sung einiger komplexer Probleme, auch bekannt als Clustering oder Partitionierung Probleme, bei denen eine Reihe von Elementen auf optimale Weise in disjunkte Gruppen von Elementen aufgeteilt werden muss, sollten besser dadurch erreicht werden, dass die Eigenschaften der Elementgruppen den Genen gleichgestellt werden. Zu diesen Problemen geh\u00f6ren das Packen von Beh\u00e4ltern, das Ausgleichen von Linien, das Clustering in Bezug auf ein Abstandsma\u00df, gleiche Stapel usw., bei denen sich klassische GAs als schlecht erwiesen haben. Um Gene \u00e4quivalent zu Gruppen zu machen, sind Chromosomen mit im Allgemeinen variabler L\u00e4nge und spezielle genetische Operatoren erforderlich, die ganze Gruppen von Gegenst\u00e4nden manipulieren. Insbesondere f\u00fcr das Verpacken von Beh\u00e4ltern ist eine GGA, die mit dem Dominanzkriterium von Martello und Toth hybridisiert ist, wohl die bisher beste Technik.Interaktive evolution\u00e4re Algorithmen sind evolution\u00e4re Algorithmen, die die menschliche Bewertung verwenden. Sie werden normalerweise auf Bereiche angewendet, in denen es schwierig ist, eine rechnergest\u00fctzte Fitnessfunktion zu entwerfen, z. B. die Entwicklung von Bildern, Musik, k\u00fcnstlerischen Designs und Formen, um den \u00e4sthetischen Vorlieben der Benutzer zu entsprechen.Schwarmintelligenz[edit]Schwarmintelligenz ist ein Teilgebiet des evolution\u00e4ren Rechnens.Optimierung der Ameisenkolonie (ACO) verwendet viele Ameisen (oder Agenten), die mit einem Pheromonmodell ausgestattet sind, um den L\u00f6sungsraum zu durchqueren und lokal produktive Bereiche zu finden. Obwohl als Sch\u00e4tzung des Verteilungsalgorithmus angesehen,[56]Die Partikelschwarmoptimierung (PSO) ist eine Berechnungsmethode f\u00fcr die Mehrparameteroptimierung, die auch einen bev\u00f6lkerungsbasierten Ansatz verwendet. Eine Population (Schwarm) von Kandidatenl\u00f6sungen (Partikeln) bewegt sich im Suchraum, und die Bewegung der Partikel wird sowohl von ihrer eigenen bekanntesten Position als auch von der weltweit bekanntesten Position des Schwarms beeinflusst. Wie genetische Algorithmen h\u00e4ngt die PSO-Methode vom Informationsaustausch zwischen den Bev\u00f6lkerungsmitgliedern ab. Bei einigen Problemen ist das PSO h\u00e4ufig rechnerisch effizienter als die GAs, insbesondere bei uneingeschr\u00e4nkten Problemen mit kontinuierlichen Variablen.[57]Andere evolution\u00e4re Rechenalgorithmen[edit]Die evolution\u00e4re Berechnung ist ein Teilgebiet der metaheuristischen Methoden.Der Electimize-Algorithmus ist ein evolution\u00e4rer Algorithmus, der das Ph\u00e4nomen des Elektronenflusses und der elektrischen Leitf\u00e4higkeit simuliert. Einige aktuelle Forschungen haben gezeigt, dass Electimize bei der L\u00f6sung von NP-harten Optimierungsproblemen effizienter ist als herk\u00f6mmliche evolution\u00e4re Algorithmen. Der Algorithmus bietet eine h\u00f6here Kapazit\u00e4t f\u00fcr die umfassende Suche im L\u00f6sungsraum und die Identifizierung global optimaler Alternativen. Im Gegensatz zu anderen evolution\u00e4ren Algorithmen bewertet Electimize die Qualit\u00e4t der Werte in der L\u00f6sungszeichenfolge unabh\u00e4ngig.[58]Memetischer Algorithmus (MA), oft genannt hybrider genetischer Algorithmus ist unter anderem eine bev\u00f6lkerungsbasierte Methode, bei der L\u00f6sungen auch lokalen Verbesserungsphasen unterliegen. Die Idee der memetischen Algorithmen stammt von Memen, die sich im Gegensatz zu Genen anpassen k\u00f6nnen. In einigen Problembereichen wird gezeigt, dass sie effizienter sind als herk\u00f6mmliche evolution\u00e4re Algorithmen.Bakteriologische Algorithmen (BA), inspiriert von der Evolutions\u00f6kologie und insbesondere der bakteriologischen Anpassung. Evolutions\u00f6kologie ist die Untersuchung lebender Organismen im Kontext ihrer Umwelt mit dem Ziel herauszufinden, wie sie sich anpassen. Das Grundkonzept besteht darin, dass es in einer heterogenen Umgebung keine Person gibt, die zur gesamten Umgebung passt. Man muss also auf Bev\u00f6lkerungsebene argumentieren. Es wird auch angenommen, dass BAs erfolgreich bei komplexen Positionierungsproblemen (Antennen f\u00fcr Mobiltelefone, Stadtplanung usw.) oder Data Mining eingesetzt werden k\u00f6nnen.[59]Der kulturelle Algorithmus (CA) besteht aus der Populationskomponente, die fast identisch mit der des genetischen Algorithmus ist, und zus\u00e4tzlich aus einer Wissenskomponente, die als Glaubensraum bezeichnet wird.Differential Evolution (DS), inspiriert von der Migration von Superorganismen.[60]Die Gau\u00dfsche Anpassung (normale oder nat\u00fcrliche Anpassung, abgek\u00fcrzt NA, um Verwechslungen mit GA zu vermeiden) dient der Maximierung der Herstellungsausbeute von Signalverarbeitungssystemen. Es kann auch f\u00fcr die gew\u00f6hnliche parametrische Optimierung verwendet werden. Es beruht auf einem bestimmten Satz, der f\u00fcr alle Bereiche der Akzeptanz und alle Gau\u00dfschen Verteilungen gilt. Die Effizienz von NA beruht auf der Informationstheorie und einem bestimmten Effizienzsatz. Seine Effizienz ist definiert als Information geteilt durch die Arbeit, die erforderlich ist, um die Information zu erhalten.[61] Da NA eher die mittlere Fitness als die Fitness des Einzelnen maximiert, wird die Landschaft so gegl\u00e4ttet, dass T\u00e4ler zwischen Gipfeln verschwinden k\u00f6nnen. Daher hat es einen gewissen “Ehrgeiz”, lokale Spitzen in der Fitnesslandschaft zu vermeiden. NA ist auch gut darin, scharfe K\u00e4mme durch Anpassung der Momentenmatrix zu besteigen, da NA die St\u00f6rung (Durchschnittsinformation) des Gau\u00dfschen maximieren und gleichzeitig die mittlere Fitness konstant halten kann.Andere metaheuristische Methoden[edit]Metaheuristische Methoden fallen weitgehend unter stochastische Optimierungsmethoden.Simulated Annealing (SA) ist eine verwandte globale Optimierungstechnik, die den Suchraum durchl\u00e4uft, indem zuf\u00e4llige Mutationen an einer einzelnen L\u00f6sung getestet werden. Eine Mutation, die die Fitness erh\u00f6ht, wird immer akzeptiert. Eine Mutation, die die Fitness senkt, wird wahrscheinlich aufgrund des Unterschieds in der Fitness und eines abnehmenden Temperaturparameters akzeptiert. Im SA-Sprachgebrauch spricht man davon, die niedrigste Energie anstelle der maximalen Fitness zu suchen. SA kann auch innerhalb eines Standard-GA-Algorithmus verwendet werden, indem mit einer relativ hohen Mutationsrate begonnen und diese im Laufe der Zeit nach einem bestimmten Zeitplan verringert wird.Die Tabu-Suche (TS) \u00e4hnelt dem simulierten Tempern dahingehend, dass beide den L\u00f6sungsraum durchqueren, indem sie Mutationen einer einzelnen L\u00f6sung testen. W\u00e4hrend simuliertes Tempern nur eine mutierte L\u00f6sung erzeugt, erzeugt die Tabu-Suche viele mutierte L\u00f6sungen und bewegt sich zu der L\u00f6sung mit der niedrigsten Energie der erzeugten. Um das Radfahren zu verhindern und eine gr\u00f6\u00dfere Bewegung durch den L\u00f6sungsraum zu f\u00f6rdern, wird eine Tabu-Liste mit Teill\u00f6sungen oder vollst\u00e4ndigen L\u00f6sungen gef\u00fchrt. Es ist verboten, zu einer L\u00f6sung zu wechseln, die Elemente der Tabu-Liste enth\u00e4lt, die aktualisiert wird, wenn die L\u00f6sung den L\u00f6sungsbereich durchquert.Extremal Optimization (EO) Im Gegensatz zu GAs, die mit einer Population von Kandidatenl\u00f6sungen arbeiten, entwickelt EO eine einzige L\u00f6sung und nimmt lokale \u00c4nderungen an den schlechtesten Komponenten vor. Dies erfordert die Auswahl einer geeigneten Darstellung, die es erm\u00f6glicht, einzelnen L\u00f6sungskomponenten ein Qualit\u00e4tsma\u00df (“Fitness”) zuzuweisen. Das ma\u00dfgebliche Prinzip hinter diesem Algorithmus ist das von emergent Verbesserung durch selektives Entfernen von Komponenten geringer Qualit\u00e4t und Ersetzen durch eine zuf\u00e4llig ausgew\u00e4hlte Komponente. Dies steht entschieden im Widerspruch zu einer GA, die gute L\u00f6sungen ausw\u00e4hlt, um bessere L\u00f6sungen zu finden.Andere stochastische Optimierungsmethoden[edit]Die Cross-Entropy (CE) -Methode generiert Kandidatenl\u00f6sungen \u00fcber eine parametrisierte Wahrscheinlichkeitsverteilung. Die Parameter werden durch Kreuzentropieminimierung aktualisiert, um in der n\u00e4chsten Iteration bessere Abtastwerte zu generieren.Die reaktive Suchoptimierung (RSO) bef\u00fcrwortet die Integration sub-symbolischer Techniken des maschinellen Lernens in Suchheuristiken zur L\u00f6sung komplexer Optimierungsprobleme. Das Wort reaktiv weist auf eine schnelle Reaktion auf Ereignisse w\u00e4hrend der Suche durch eine interne Online-R\u00fcckkopplungsschleife zur Selbstoptimierung kritischer Parameter hin. Zu den f\u00fcr die reaktive Suche interessanten Methoden geh\u00f6ren maschinelles Lernen und Statistiken, insbesondere Verst\u00e4rkungslernen, aktives Lernen oder Abfragenlernen, neuronale Netze und Metaheuristiken.Siehe auch[edit]Verweise[edit]^ Eiben, AE et al. (1994). “Genetische Algorithmen mit Rekombination mehrerer Elternteile”. PPSN III: Vortr\u00e4ge der Internationalen Konferenz \u00fcber evolution\u00e4re Berechnungen. Die dritte Konferenz zur parallelen Probleml\u00f6sung aus der Natur: 78\u201387. ISBN 3-540-58484-6.^ Ting, Chuan-Kang (2005). “Zur mittleren Konvergenzzeit von genetischen Algorithmen mit mehreren Elternteilen ohne Selektion”. Fortschritte im k\u00fcnstlichen Leben: 403\u2013412. ISBN 978-3-540-28848-0.^ Deb, Kalyanmoy; Spears, William M. (1997). “C6.2: Speziationsmethoden”. Handbuch der evolution\u00e4ren Berechnung. Institut f\u00fcr Physikverlag. S2CID 3547258.^ Shir, Ofer M. (2012). “Niching in evolution\u00e4ren Algorithmen”. In Rozenberg, Grzegorz; B\u00e4ck, Thomas; Kok, Joost N. (Hrsg.). Handbuch des nat\u00fcrlichen Rechnens. Springer Berlin Heidelberg. S. 1035\u20131069. doi:10.1007 \/ 978-3-540-92910-9_32. ISBN 9783540929093.^ Harik, Georges R.; Lobo, Fernando G.; Sastry, Kumara (1. Januar 2006). Verkn\u00fcpfungslernen durch probabilistische Modellierung im Extended Compact Genetic Algorithm (ECGA). Skalierbare Optimierung durch probabilistische Modellierung. Studien in Computational Intelligence. 33. S. 39\u201361. doi:10.1007 \/ 978-3-540-34954-9_3. ISBN 978-3-540-34953-2.^ Pelikan, Martin; Goldberg, David E.; Cant\u00fa-Paz, Erick (1. Januar 1999). BOA: Der Bayes’sche Optimierungsalgorithmus. Vortr\u00e4ge der 1. Jahreskonferenz \u00fcber genetische und evolution\u00e4re Berechnungen – Band 1. Gecco’99. S. 525\u2013532. ISBN 9781558606111.^ Sarg, David; Smith, Robert E. (1. Januar 2008). Verkn\u00fcpfungslernen bei der Sch\u00e4tzung von Verteilungsalgorithmen. Verkn\u00fcpfung in der evolution\u00e4ren Berechnung. Studien in Computational Intelligence. 157. S. 141\u2013156. doi:10.1007 \/ 978-3-540-85068-7_7. ISBN 978-3-540-85067-0.^ Echegoyen, Carlos; Mendiburu, Alexander; Santana, Roberto; Lozano, Jose A. (8. November 2012). “Zur Taxonomie von Optimierungsproblemen bei der Sch\u00e4tzung von Verteilungsalgorithmen”. Evolutionsberechnung. 21 (3): 471\u2013495. doi:10.1162 \/ EVCO_a_00095. ISSN 1063-6560. PMID 23136917. S2CID 26585053.^ Sadowski, Krzysztof L.; Bosman, Peter AN; Thierens, Dirk (1. Januar 2013). Zur N\u00fctzlichkeit der Verkn\u00fcpfungsverarbeitung zur L\u00f6sung von MAX-SAT. Vortr\u00e4ge der 15. Jahreskonferenz \u00fcber genetische und evolution\u00e4re Berechnungen. Gecco ’13. S. 853\u2013860. doi:10.1145 \/ 2463372.2463474. hdl:1874\/290291. ISBN 9781450319638. S2CID 9986768.^ Taherdangkoo, Mohammad; Paziresh, Mahsa; Yazdi, Mehran; Bagheri, Mohammad Hadi (19. November 2012). “Ein effizienter Algorithmus zur Funktionsoptimierung: modifizierter Stammzellenalgorithmus”. Mitteleurop\u00e4isches Journal of Engineering. 3 (1): 36\u201350. doi:10.2478 \/ s13531-012-0047-8.^ Wolpert, DH, Macready, WG, 1995. Keine Theoreme zum freien Mittagessen zur Optimierung. Santa Fe Institut, SFI-TR-05-010, Santa Fe.^ Goldberg, David E. (1991). “Die Theorie der virtuellen Alphabete”. Parallele Probleml\u00f6sung aus der Natur. Parallele Probleml\u00f6sung aus der Natur, Vorlesungsunterlagen in der Informatik. Vorlesungsunterlagen in Informatik. 496. S. 13\u201322. doi:10.1007 \/ BFb0029726. ISBN 978-3-540-54148-6.^ Janikow, CZ; Michalewicz, Z. (1991). “Ein experimenteller Vergleich von Bin\u00e4r- und Gleitkomma-Darstellungen in genetischen Algorithmen” (PDF). Vortr\u00e4ge der vierten internationalen Konferenz \u00fcber genetische Algorithmen: 31\u201336. Abgerufen 2. Juli 2013.^ Patrascu, M.; Stancu, AF; Pop, F. (2014). “HELGA: ein heterogener codierender lebensechter genetischer Algorithmus f\u00fcr die Modellierung und Simulation der Populationsentwicklung”. Soft Computing. 18 (12): 2565\u20132576. doi:10.1007 \/ s00500-014-1401-y. S2CID 29821873.^ Baluja, Shumeet; Caruana, Rich (1995). Entfernen der Genetik aus dem genetischen Standardalgorithmus (PDF). ICML.^ Srinivas, M.; Patnaik, L. (1994). “Adaptive Wahrscheinlichkeiten von Crossover und Mutation in genetischen Algorithmen” (PDF). IEEE-Transaktionen zu System, Mensch und Kybernetik. 24 (4): 656\u2013667. doi:10.1109 \/ 21.286385.^ Zhang, J.; Chung, H.; Lo, WL (2007). “Clustering-basierte adaptive Crossover- und Mutationswahrscheinlichkeiten f\u00fcr genetische Algorithmen”. IEEE-Transaktionen zur evolution\u00e4ren Berechnung. 11 (3): 326\u2013335. doi:10.1109 \/ TEVC.2006.880727. S2CID 2625150.^ Siehe zum Beispiel Evolution auf den Punkt gebracht Archiviert 15. April 2016 an der Wayback-Maschine oder Beispiel bei einem Problem mit reisenden Verk\u00e4ufern, insbesondere die Verwendung eines Kantenrekombinationsoperators.^ Goldberg, DE; Korb, B.; Deb, K. (1989). “Messy Genetic Algorithms: Motivationsanalyse und erste Ergebnisse”. Komplexe Systeme. 5 (3): 493\u2013530.^ Genexpression: Das fehlende Glied in der evolution\u00e4ren Berechnung^ Harik, G. (1997). Lernverkn\u00fcpfung zur effizienten L\u00f6sung von Problemen mit begrenzten Schwierigkeiten mithilfe genetischer Algorithmen (PhD). Institut f\u00fcr Informatik, Universit\u00e4t von Michigan, Ann Arbor.^ Tomoiag B, Chindri\u015f M, Sumper A, Sudria-Andreu A, Villafafila-Robles R. Pareto Optimale Rekonfiguration von Energieverteilungssystemen mithilfe eines genetischen Algorithmus basierend auf NSGA-II. Energien. 2013; 6 (3): 1439-1455.^ Noetel M., Ciarrochi J., Sahdra B., Lonsdale C. (2019). “Verwendung genetischer Algorithmen zur Abk\u00fcrzung des Mindfulness Inventory for Sport: Eine inhaltlich-methodologische Synthese”. Sport- und Bewegungspsychologie. 45 (101545): 101545. doi:10.1016 \/ j.psychsport.2019.101545.^ Gross, Bill. “Eine Solaranlage, die die Sonne verfolgt”. TED. Abgerufen 20. November 2013.^ Hornby, GS; Linden, DS; Lohn, JD, Automatisiertes Antennendesign mit evolution\u00e4ren Algorithmen (PDF)^ “Flexible muskelbasierte Fortbewegung f\u00fcr zweibeinige Kreaturen”.^ Evans, B.; Walton, SP (Dezember 2017). “Aerodynamische Optimierung eines Hyperschall-Wiedereintrittsfahrzeugs basierend auf der L\u00f6sung der Boltzmann-BGK-Gleichung und der evolution\u00e4ren Optimierung”. Angewandte mathematische Modellierung. 52: 215\u2013240. doi:10.1016 \/ j.apm.2017.07.024. ISSN 0307-904X.^ Skiena, Steven (2010). Das Algorithmus-Design-Handbuch (2. Aufl.). Springer Science + Business Media. ISBN 978-1-849-96720-4.^ Turing, Alan M. (Oktober 1950). “Rechenmaschinen und Intelligenz”. Verstand. LIX (238): 433\u2013460. doi:10.1093 \/ mind \/ LIX.236.433.^ Barricelli, Nils Aall (1954). “Esempi numerici di processi di evoluzione”. Methodos: 45\u201368.^ Barricelli, Nils Aall (1957). “Symbiogenetische Evolutionsprozesse, die mit k\u00fcnstlichen Methoden realisiert werden”. Methodos: 143\u2013182.^ Fraser, Alex (1957). “Simulation genetischer Systeme durch automatische digitale Computer. I. Einf\u00fchrung”. Aust. J. Biol. Sci. 10 (4): 484\u2013491. doi:10.1071 \/ BI9570484.^ Fraser, Alex; Burnell, Donald (1970). Computermodelle in der Genetik. New York: McGraw-Hill. ISBN 978-0-07-021904-5.^ Crosby, Jack L. (1973). Computersimulation in der Genetik. London: John Wiley & Sons. ISBN 978-0-471-18880-3.^ 27.02.96 – Der emeritierte Professor und Pionier der mathematischen Biologie, Hans Bremermann von der UC Berkeley, ist im Alter von 69 Jahren verstorben^ Fogel, David B. (Herausgeber) (1998). Evolutionsberechnung: Der Fossilienbestand. New York: IEEE Press. ISBN 978-0-7803-3481-6.CS1-Wartung: zus\u00e4tzlicher Text: Autorenliste (Link)^ Barricelli, Nils Aall (1963). “Numerische Pr\u00fcfung von Evolutionstheorien. Teil II. Vorl\u00e4ufige Pr\u00fcfung von Leistung, Symbiogenese und terrestrischem Leben”. Acta Biotheoretica. 16 (3\u20134): 99\u2013126. doi:10.1007 \/ BF01556602. S2CID 86717105.^ Rechenberg, Ingo (1973). Evolutionsstrategie. Stuttgart: Holzmann-Froboog. ISBN 978-3-7728-0373-4.^ Schwefel, Hans-Paul (1974). Numerische F\u00e4higkeiten von Computer-Modelle (Doktorarbeit).^ Schwefel, Hans-Paul (1977). Numerische Herausforderungen von Computor-Modelle mittels der Evolutionsstrategie: mit einer vergleichenden Einf\u00fchrung in die Hill-Climbing- und Zufallsstrategie. Basel; Stuttgart: Birkh\u00e4user. ISBN 978-3-7643-0876-6.^ Schwefel, Hans-Paul (1981). Numerische Optimierung von Computermodellen (\u00dcbersetzung von 1977 Numerische F\u00e4higkeiten von Computor-Modelle mittels der Evolutionsstrategie. Chichester; New York: Wiley. ISBN 978-0-471-09988-8.^ Aldawoodi, Namir (2008). Ein Ansatz zum Entwerfen eines unbemannten Hubschrauberautopiloten unter Verwendung genetischer Algorithmen und simuliertem Tempern. p. 99. ISBN 978-0549773498 – \u00fcber Google Books.^ Markoff, John (29. August 1990). “Was ist die beste Antwort? Es ist das \u00dcberleben der St\u00e4rksten”. New York Times. Abgerufen 13. Juli 2016.^ Ruggiero, Murray A. (1. August 2009) F\u00fcnfzehn Jahre und Z\u00e4hlen Archiviert 30. Januar 2016 an der Wayback-Maschine. Futuresmag.com. Abgerufen am 2013-08-07.^ Evolver: Anspruchsvolle Optimierung f\u00fcr Tabellenkalkulationen. Palisade. Abgerufen am 2013-08-07.^ Benchmarks zur Bewertung von Optimierungsalgorithmen und zum Benchmarking von MATLAB-derivatfreien Optimierern f\u00fcr den schnellen Zugriff von Praktikern, IEEE Access, Band 7, 2019.^ Cohoon, J; et al. (2002). Evolution\u00e4re Algorithmen f\u00fcr das physikalische Design von VLSI-Schaltungen (PDF). Fortschritte im evolution\u00e4ren Rechnen: Theorie und Anwendungen. Springer, S. 683-712, 2003. ISBN 978-3-540-43330-9.^ Pelikan, Martin; Goldberg, David E.; Cant\u00fa-Paz, Erick (1. Januar 1999). BOA: Der Bayes’sche Optimierungsalgorithmus. Vortr\u00e4ge der 1. Jahreskonferenz \u00fcber genetische und evolution\u00e4re Berechnungen – Band 1. Gecco’99. S. 525\u2013532. ISBN 9781558606111.^ Pelikan, Martin (2005). Hierarchischer Bayes’scher Optimierungsalgorithmus: Auf dem Weg zu einer neuen Generation evolution\u00e4rer Algorithmen (1. Aufl.). Berlin [u.a.]: Springer. ISBN 978-3-540-23774-7.^ Thierens, Dirk (11. September 2010). “Der genetische Algorithmus des Verkn\u00fcpfungsbaums”. Parallele Probleml\u00f6sung aus der Natur, PPSN XI. S. 264\u2013273. doi:10.1007 \/ 978-3-642-15844-5_27. ISBN 978-3-642-15843-8. ^ Ferreira, C. “Genexpressionsprogrammierung: Ein neuer adaptiver Algorithmus zur L\u00f6sung von Problemen” (PDF). Complex Systems. 13, Ausgabe 2: 87-129.^ Falkenauer, Emanuel (1997). Genetische Algorithmen und Gruppierungsprobleme. Chichester, England: John Wiley & Sons Ltd. ISBN 978-0-471-97150-4.^ Zlochin, Mark; Birattari, Mauro; Meuleau, Nicolas; Dorigo, Marco (1. Oktober 2004). “Modellbasierte Suche nach kombinatorischer Optimierung: Eine kritische Umfrage”. Annals of Operations Research. 131 (1\u20134): 373\u2013395. CiteSeerX 10.1.1.3.427. doi:10.1023 \/ B: ANOR.0000039526.52305.af. ISSN 0254-5330. S2CID 63137.^ Rania Hassan, Babak Cohanim, Olivier de Weck und Gerhard Vente (2005) Ein Vergleich der Partikelschwarmoptimierung und des genetischen Algorithmus^ Khalafallah Ahmed; Abdel-Raheem Mohamed (1. Mai 2011). “Electimize: Neuer evolution\u00e4rer Algorithmus zur Optimierung mit Anwendung im Bauwesen”. Journal of Computing im Bauingenieurwesen. 25 (3): 192\u2013201. doi:10.1061 \/ (ASCE) CP.1943-5487.0000080.^ Baudry, Benoit; Franck Fleurey; Jean-Marc J\u00e9z\u00e9quel; Yves Le Traon (M\u00e4rz – April 2005). “Automatische Testfalloptimierung: Ein bakteriologischer Algorithmus” (PDF). IEEE-Software. 22 (2): 76\u201382. doi:10.1109 \/ MS.2005.30. S2CID 3559602. Abgerufen 9. August 2009.^ Civicioglu, P. (2012). “Transformation geozentrischer kartesischer Koordinaten in geod\u00e4tische Koordinaten unter Verwendung des Differential-Suchalgorithmus”. Computer & Geowissenschaften. 46: 229\u2013247. Bibcode:2012CG ….. 46..229C. doi:10.1016 \/ j.cageo.2011.12.011.^ Kjellstr\u00f6m, G. (Dezember 1991). “Zur Effizienz der Gau\u00dfschen Anpassung”. Zeitschrift f\u00fcr Optimierungstheorie und -anwendungen. 71 (3): 589\u2013597. doi:10.1007 \/ BF00941405. S2CID 116847975.Literaturverzeichnis[edit]Banzhaf, Wolfgang; Nordin, Peter; Keller, Robert; Francone, Frank (1998). Genetische Programmierung – Eine Einf\u00fchrung. San Francisco, Kalifornien: Morgan Kaufmann. ISBN 978-1558605107.Bies, Robert R.; Muldoon, Matthew F.; Pollock, Bruce G.; Manuck, Steven; Smith, Gwenn; Sale, Mark E. (2006). “Ein auf genetischen Algorithmen basierender, hybrider Ansatz des maschinellen Lernens zur Modellauswahl”. Zeitschrift f\u00fcr Pharmakokinetik und Pharmakodynamik. 33 (2): 196\u2013221. doi:10.1007 \/ s10928-006-9004-6. PMID 16565924. S2CID 39571129.Cha, Sung-Hyuk; Tappert, Charles C. (2009). “Ein genetischer Algorithmus zur Konstruktion kompakter bin\u00e4rer Entscheidungsb\u00e4ume”. Journal of Pattern Recognition Research. 4 (1): 1\u201313. CiteSeerX 10.1.1.154.8314. doi:10.13176 \/ 11.44.Fraser, Alex S. (1957). “Simulation genetischer Systeme durch automatische digitale Computer. I. Einf\u00fchrung”. Australisches Journal of Biological Sciences. 10 (4): 484\u2013491. doi:10.1071 \/ BI9570484.Goldberg, David (1989). Genetische Algorithmen in Suche, Optimierung und maschinellem Lernen. Reading, MA: Addison-Wesley Professional. ISBN 978-0201157673.Goldberg, David (2002). Das Design von Innovation: Lehren aus und f\u00fcr kompetente genetische Algorithmen. Norwell, MA: Kluwer Academic Publishers. ISBN 978-1402070983.Fogel, David (2006). Evolution\u00e4re Berechnung: Auf dem Weg zu einer neuen Philosophie der Maschinenintelligenz (3. Aufl.). Piscataway, NJ: IEEE Press. ISBN 978-0471669517.Holland, John (1992). Anpassung in nat\u00fcrlichen und k\u00fcnstlichen Systemen. Cambridge, MA: MIT Press. ISBN 978-0262581110.Koza, John (1992). Genetische Programmierung: Zur Programmierung von Computern mittels nat\u00fcrlicher Selektion. Cambridge, MA: MIT Press. ISBN 978-0262111706.Michalewicz, Zbigniew (1996). Genetische Algorithmen + Datenstrukturen = Evolutionsprogramme. Springer-Verlag. ISBN 978-3540606765.Mitchell, Melanie (1996). Eine Einf\u00fchrung in genetische Algorithmen. Cambridge, MA: MIT Press. ISBN 9780585030944.Poli, R.; Langdon, WB; McPhee, NF (2008). Ein Leitfaden zur genetischen Programmierung. Lulu.com, frei verf\u00fcgbar im Internet. ISBN 978-1-4092-0073-4.[self-published source?]Rechenberg, Ingo (1994): Evolutionsstrategie ’94, Stuttgart: Fromman-Holzboog.Schmitt, Lothar M.; Nehaniv, Chrystopher L.; Fujii, Robert H. (1998). “Lineare Analyse genetischer Algorithmen”. Theoretische Informatik. 208: 111\u2013148.Schmitt, Lothar M. (2001). “Theorie genetischer Algorithmen”. Theoretische Informatik. 259 (1\u20132): 1\u201361. doi:10.1016 \/ S0304-3975 (00) 00406-0.Schmitt, Lothar M. (2004). “Theorie genetischer Algorithmen II: Modelle f\u00fcr genetische Operatoren \u00fcber die String-Tensor-Darstellung von Populationen und die Konvergenz zu globalen Optima f\u00fcr eine beliebige Fitnessfunktion unter Skalierung”. Theoretische Informatik. 310 (1-3): 181-231. doi:10.1016 \/ S0304-3975 (03) 00393-1.Schwefel, Hans-Paul (1974): Numerische Arbeiten von Computer-Modelle. Nachdruck von Birkh\u00e4user (1977).Vose, Michael (1999). Der einfache genetische Algorithmus: Grundlagen und Theorie. Cambridge, MA: MIT Press. ISBN 978-0262220583.Whitley, Darrell (1994). “Ein Tutorial f\u00fcr genetische Algorithmen” (PDF). Statistik und Datenverarbeitung. 4 (2): 65\u201385. CiteSeerX 10.1.1.184.3999. doi:10.1007 \/ BF00175354. S2CID 3447126.Hingston, Philip; Barone, Luigi; Michalewicz, Zbigniew (2008). Design by Evolution: Fortschritte im evolution\u00e4ren Design. Springer. ISBN 978-3540741091.Eiben, Agoston; Smith, James (2003). Einf\u00fchrung in das evolution\u00e4re Rechnen. Springer. ISBN 978-3540401841.Externe Links[edit]Ressourcen[edit]Tutorials[edit] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki7\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki7\/2020\/11\/28\/genetischer-algorithmus-wikipedia\/#breadcrumbitem","name":"Genetischer Algorithmus – Wikipedia"}}]}]