Auf die gleiche Art und Weise kann nun jedes beliebige Individuum codiert werden. Es ist dabei übrigens nicht notwendig, dass die Eigenschaften eines Individuums zwingend aus einzelnen Zahlen bestehen, die dual codiert und dann aneinandergereiht werden. Die Codierung in eine Bitkette kann beliebig aussehen; es muss lediglich möglich sein, aus dieser Bitkette – dem Genotyp – das eigentliche Individuum – den Phänotyp – wiederherstellen zu können. Für diese Wiederherstellung wird eine Funktion g definiert, welche eine Bitkette auf das zugehörige Individuum abbildet. Für obiges Beispiel würde das etwa bedeuten, dass

g(11000111) = (12,7)

ist. Wie die Abbildung genau funktioniert, liegt dabei allein im Ermessen des Programmierers und kann praktisch beliebig umgesetzt werden. Zudem muss natürlich festgelegt werden, ob die Bitkette eine feste Länge haben soll (wie in unserem Beispiel mit 8 Bit) oder ob sie variabel sein kann; das hängt aber wie immer vom konkreten Problem ab. Übrigens muss man sich natürlich nicht auf Bitketten beschränken – jedes beliebige Wertesystem kann die Grundlage für die Informationskette bilden. Häufig verwendete Systeme sind eben das duale System, das Dezimalsystem mit nur natürlichen oder ganzen Zahlen oder auch das Dezimalsystem mit reellen Zahlen.

Wo liegt nun aber der eigentliche Vorteil darin, ein Individuum als Wertkette zu codieren und nicht den Phänotyp direkt für Mutation und Rekombination zu benutzen? Genau wie in der Natur alle Lebewesen auf der DNA basieren und Mutation sowie Rekombination den gleichen Prinzipien folgen – sei es ein Fisch, ein Insekt, eine Pflanze, ein Mensch oder ein anderes Tier -, können die gleichen Techniken bei der Mutation und Rekombination von Wertketten in einem evolutionären Algorithmus angewendet werden, unabhängig davon, wie das codierte Individuum aussieht. Man sagt, dass die Mutation und Rekombination auf dem Genotyp der Individuen stattfinden.

Die möglichen Mutationen hängen nun nicht mehr von den Eigenschaften des Individuums ab, sondern nur noch von den Operationen, die auf Wertketten – dem Genom – stattfinden können. Die einfachste Operation ist hier sicherlich auf Bitketten möglich: die Invertierung einer einzelnen, zufällig gewählten Position im Genom – aus einer 0 wird eine 1 oder umgekehrt – bewirkt die kleinstmögliche Änderung an einem derart codierten Individuum. Etwas umfangreichere Mutationen können mehrere Stellen im Genom oder ganze Abschnitte invertieren, bis hin zur gesamten Bitkette (wobei über die Sinnhaftigkeit einer solchen Makro-Mutation natürlich gestritten werden kann). Besteht das Genom nicht aus binären, sondern etwa aus natürlichen, ganzen oder reellen Zahlen, so können die einzelnen Positionen zwar nicht invertiert, so doch aber auf verschiedene andere Arten modifiziert werden. Denkbar ist hier alles, was man einer Zahl so antun kann; man kann Werte hinzuaddieren oder abziehen, man kann sie mit einem Faktor multiplizieren oder man kann dividieren, man kann sie auf einen Höchst- oder Mindestwert setzen und so weiter. Unabhängig von der dem Genom zugrundeliegenden Zahlenbasis kann man auch Abschnitte des Genoms austauschen oder – bei variabler Genomlänge – Abschnitte löschen oder zufällige neue Abschnitte hinzufügen. Ein kleines Beispiel hierzu; nehmen wir dazu unser obiges Beispielindividuum 11000111, welches die Position (12,7) codiert. Wenden wir verschiedene Mutationen darauf an, so können sich etwa die folgenden Individuen ergeben:

Invertierung einer einzelnen Bitposition (4):
11000111 -> 11010111 = (13,7)

Invertierung von zwei Bitpositionen (4 und 7):
11000111 -> 11010101 = (13,5)

Vertauschung zweier Genomabschnitte ([2,3] mit [5,6]):
11000111 -> 10111011 = (11,11)

 

Auch bei der Rekombination kann die einheitliche Darstellung des Genoms ausgenutzt werden. Ein typischer Rekombinationsvorgang eines evolutionären Algorithmus sieht so aus, dass die Genome zweier (oder mehrerer) Elternindividuen hergenommen, geteilt und zu (meist zwei) neuen Individuen zusammengesetzt werden. Die Teilung kann nach verschiedenen Verfahren erfolgen. Häufige Verwendung findet hier der 1-Punkt-Crossover, bei welchem die beiden Genome der Eltern an der gleichen Stelle geteilt und die beiden Teile jeweils untereinander vertauscht werden. Analog kann natürlich auch ein 2-Punkt-Crossover mit 2 Teilungspunkten oder ein beliebiger n-Punkt-Crossover verwendet werden. Darf die Länge des Genoms variieren, können die Teilungspunkte für den Crossover auch an unterschiedlichen Stellen innerhalb der Genome der Eltern liegen, so dass die Genomlänge der Kinder von der der Eltern abweicht. Da die Teilungspunkte in den Genomen natürlich nicht zwingend an den Stellen liegen müssen, welche bestimmte Eigenschaften des Individuums codieren (sofern überhaupt eine direkte Abbildung von Genomabschnitten auf Eigenschaften vorhanden ist), können bereits bei der Rekombination neue Eigenschaften entstehen, wodurch die Variabilität der Individuen in der Nachfolgegeneration erhöht wird (ein oft begrüßenswerter Umstand bei der Anwendung evolutionärer Algorithmen; warum, sehen wir im nächsten Artikel). Zur Demonstration noch 3 kleine Bilder (übernommen aus der Wikipedia); die beiden Farben repräsentieren jeweils die Genom(abschnitt)e der beiden Elternteile:

1 / 2 / 3

Kommentare (11)

  1. #1 Dr. Weihnachtswebbaer
    Dezember 21, 2011

    Mit dem hier beschriebenen Verfahren ist es also möglich, einen einmal programmierten evolutionären Algorithmus auf jedes beliebige Problem anwenden zu können.

    Rein philosophisch angemerkt: Alleslöser haben die Eigenschaft nichts zu lösen, hier auch erkennbar an der sog. Fitnessfunktion, die die Problemspezifität kapseln soll.

  2. #2 Engywuck
    Dezember 21, 2011

    Sorry, Wb, aber hier liegst du falsch.
    Der Vorteil an den “Alleslösern” liegt in diesem Fall darin, dass man nicht für jeden Fall *alles* neu schreiben muss, sondern “nur” noch die Fitnessfunktion, sowie evtl. ein, zwei Parameter (variable/feste Genomlänge, welche Arten Crossover…).
    Den ganzen restlichen lästigen Schmodder (wie *genau* wird vererbt oder mutiert), der im Katzenbeispiel schon bei Berücksichtigung auch nur einer dritten Dimension komplett neu hätte programmiert werden müssen kann man nun dank “Genom” in eine Bibliothek auslagern, die dann evtl. sogar hochoptimiert (z.B. in Assembler oder GPGPU) werden kann.

    Nebenbei auch nicht wirklich anders als beim biologischen Genom: *wie* kopiert und in Eiweiße umgesetzt wird ist quasi eine uralte, hochspezialisierte Bibliothek. Das einzige was sich wirklich ändert und zwischen Individuen wie Arten unterscheidet ist der Inhalt des Genoms. Die Fitnessfunktion ist IRL natürlich hochvariabel und unter anderem von allen anderen derzeit lebenden oder (kürzlich) verstorbenen Genomträgern und deren Vorgeschichte abhängig. Aber im Prinzip ist das was real stattfindet auch “nur” eine enorm gigantisch komplexere Version des simplifizierten Genom – Library zum kopieren/mutieren – Fitnessfunktion im Artikel.

  3. #3 Marcus Frenkel
    Dezember 21, 2011

    @Engywuck
    Danke für die Ausführung, ich hätte es nicht besser sagen können.
    Ich habe trotzdem den Text ein klein wenig angepasst, um Missverständnissen vorzubeugen.

  4. #4 Dr. Weihnachtswebbaer
    Dezember 21, 2011

    @Engywuck
    Wurde schon halbwegs korrekt hier so verstanden, war wohl ein wenig zynisch gemeint; das ganze Vorhaben ist ja der KI oder AI zuzuordnen und dort ist man ja eher mäßig erfolgreich.
    Die Problemspezifität bleibt trotzdem in der “Fitness”.

    MFG
    Dr. Wwb (der zudem noch das hier in den Ohren hat)

  5. #5 Physiker
    Dezember 22, 2011

    Vielen Dank für diese hervorragend erklärte Artikel-Serie. Ich bin schon ganz gespannt auf den nächsten Teil.
    Wenn ich mir etwas wünschen darf (es ist ja kurz vor Weihnachten), dann würde es mich freuen, etwas konkreter darüber zu lesen, welche Regeln (viel/wenig Mutation, Populationsgrösse, etc.) erfahrungsgemäss zu optimalen Ergebnissen führen. Denn offensichtlich gibt es bei evolutionären Algorithmen besonders viele Parameter, die man frei wählen kann (und das ist eigentlich sehr unbefriedigend). Ausserdem würde mich ein Vergleich mit “konventionellen” Algorithmen interessieren und/oder die Abgrenzung, welche Probleme sich z.B. nicht/ganz schlecht mit den üblichen/einfachen Optimierungsverfahren wie z.B. Simmulated Annealing lösen lassen. Um beim Simmulated Annealing zu bleiben: Dort ist es nämlich bekannt, wie die Parameter (z.B. Verlauf der Temperatur) zu wählen sind um brauchbare oder optimale Ergebnisse zu erziehlen. Meinem Vorurteil nach, sind konventionelle Optimierungsalgorithmen den evolutionären praktisch immer überlegen.

  6. #6 Marcus Frenkel
    Dezember 22, 2011

    @Physiker
    Wünschen darf man immer, nicht nur zu Weihnachten. 😉

    Zum Thema Parameterwahl gibt es im nächsten Artikel etwas, wenn nämlich die Problematik der lokalen Optima behandelt wird. Aber gleich zur Warnung: eine den Wunsch 100%ig befriedigende Antwort wird es wohl nicht geben, da gerade die Wahl der Parameter die Schwierigkeit bei den evolutionären Algorithmen ist. Man kann allerdings einige allgemeine Aussagen zur Parameterwahl treffen – das mache ich das nächste mal dann.

    Den Unterschied der EA zur simulierten Abkühlung (SA) kann ich gleich hier erklären. Beide Algorithmen sind sich eigentlich ziemlich ähnlich; der Unterschied besteht darin, dass SA lediglich ein einzelnes Individuum betrachtet. Man kann sagen, dass die SA ein EA mit einer Populationsgröße von 1 ist. Hinzu kommt, dass die SA im Gegensatz zu den EA (das hängt aber von der Implementierung ab) in den Mutationen etwas zielgerichteter ist, da bei den EA rein zufällig mutiert wird (bei geeigneter Wahl des Selektionsoperators entfällt dieses Problem aber). Und im Gegensatz zur SA decken EA ein größeres Gebiet bei der Suche ab. Dafür ist die SA im Allgemeinen der “schnellere” Algorithmus, heißt, bei gleicher, “kurzer” Zeit für beide Algorithmen wird mit der SA eine bessere Lösung gefunden. Hat man mehr Zeit zur Verfügung, werden meist die EA besser. Das hängt aber auch immer etwas vom Problem ab.

  7. #7 Engywuck
    Dezember 23, 2011

    welche Regeln (viel/wenig Mutation, Populationsgrösse, etc.) […] zu optimalen Ergebnissen führen.

    Das ist doch ganz einfach herauszufinden: Du nimmst deine Problemstellung, die du als evolutionären Algorithmus samt Fitnessfunktion etc erstellt hast und erstellst zusätzich ein weiteres Genom, das alle variablen Parameter codiert. Als Fitnessfunktion dieses Genoms nimmst du einfach die Fitness der Poulationen des ursprünglichen Problems (wenn du ganz gut drauf bist erzeugst du ein weiteres Genom, das dann noch entscheidet, ob durchschnittliche oder beste oder Median oder oder oder heranzuziehen ist und nach wievielen Generationen nachgeschaut wird ;-)).
    Dann lässt du einfach das ganze sich evolutionär entwickeln und voila, schon hast du die idealen Parameter dieses Problems *und* gleichzeitig noch das Ursprungsproblem gelöst.
    Ja, das ist etwas aufwendig, aber doch wohl die Sache wert, oder?

    😉

  8. #8 Marcus Frenkel
    Dezember 23, 2011

    @Engywuck
    So aufwändig ist das gar nicht. Wenn ich mich gerade richtig erinnere, gibt es sogar Verfahren, die diesem Ansatz folgen. Zwar nicht ganz so, dass die Parameter auch evolutionär bestimmt werden, aber immerhin durch einen anderen Algorithmus entsprechend der aktuellen Entwicklung in den Generationen angepasst werden.

  9. #9 Engywuck
    Dezember 23, 2011

    durch nen anderen Algorithmus angepasst… wie langweilig 😉
    Und wie wurden die Parameter des anderen Algorithmus bestimmt? 😀

  10. #10 Dr. Weihnachtswebbaer
    Dezember 23, 2011

    Durch die “Fitness” eben, btw: morgen ist Heilige Nacht, Weihnachten kommt oder droht, je nach Aufstellung, Dr. Weihnachtswebbaer wünscht auch hier gerne:
    Frohe Weihnachtstage!

    Rudolph schon ganz spitz,
    MFG
    Dr. Weihnachtswebbaer

  11. #11 Engywuck
    Dezember 25, 2011

    zumThema “Evolution” halbwegs passend ein Weihnachtsgruß, den ich heute gehört habe:

    “Vogelgrippe, Schweinepest – nur das Beste für das Fest”

    In diesem Sinne…