Teil 6
Neuronale Netze &
Genetische Algorithmen
Biologie-inspirierte Lernverfahren
2 verschiedene Standpunkte:
 KI durch Ausnutzung spezifischer Stärken der
verwendeten Systeme (z.B. Rechenleistung,
Speicherkapazität, etc.)
führt meist zu symbolischen logikbasierten Ansätzen
z.B. Entscheidungsbäume, ILP (s.a. letzte Vorlesung)
 KI durch Nachempfinden (simulieren, emulieren)
von Strukturen und Prozessen, die man in der
Natur vorfindet
meist subsymbolisch
z.B. neuronale Netze und genetische Algorithmen
diese Vorlesung
Neuronale Netze
Vorbild: Natur
 Wie funktioniert Wissensverarbeitung beim
Menschen?
 Gehirn
ca. 1011 Neuronen, die mit
ca. 104 anderen Neuronen
durch ca. 1013 Synapsen
verschaltet sind.
Neuronen in der Biologie
Neuronen abstrahiert
Dendriten
Zellkörper
Axon
Summieren
Gewichtung der Inputs
Es gibt mehrere Arten der Aktivierung von
Neuronen:
Allen gemeinsam ist die Gewichtung der Inputs. Die
Inputs x1,x2,...,xn werden stets mit ihren (Synapsen)Gewichten w1,w2,...,wn multipliziert: a1=x1*w1,
a2=x2*w2,..., an=xn*wn.
Akkumulation der Inputs
 Die am häufigsten angewandte Regel ist die Skalarprodukt-Regel:
Die gewichteten Inputs a1,a2, ...,an werden zur Aktivität des Neurons
aufaddiert: a = a1+a2+...+an
 Sehr häufig ist ebenfalls die Winner-take-all-Regel:
bei der die Aktivität a zunächst nach der Skalarproduktregel ermittelt
wird, dann aber mit allen Aktivitäten in derselben Schicht verglichen
wird und auf 0 herabgesetzt wird, wenn ein anderes Neuron höhere
Aktivität hat.
Outputfunktionen
Netzwerktopologie
 Um ein Netz zu erhalten, müssen die Neuronen
verschaltet werden (Verbindung von Outputs mit
Inputs)
 häufig: Anordnung in Schichten
(„layers“) mit gerichtetem Informationsfluss
Definition
 Künstliche Neuronale Netze sind
massiv parallel verbundene Netzwerke aus
einfachen (üblicherweise adaptiven) Elementen in
hierarchischer Anordnung oder Organisation,
die mit der Welt in der selben Art wie biologische
Nervensysteme interagieren sollen.
(Kohonen
1984)
Arbeitsweise
 gekennzeichnet durch:
massiv parallele Informationsverarbeitung
Propagierung der Informationen über
Verbindungsstellen (Synapsen)
verteilte Informationsspeicherung
Black-Box-Charakter
 unterschieden werden:
Aufbauphase (Topologie),
Trainingsphase (Lernen) und
Arbeitsphase (Propagation).
(Die Phasen können auch überlappen.)
Beispiel: einfaches Perzeptron
 Input:
 Gewichte:
 Output:
x = (x1, ...,xn)
w = (w1, ...,wn)
o = sgn(xw)
Geometrische Interpretation:
entnommen Rojas, S. 84
 Gleichung xw = 0 beschreibt eine Hyperebene
im n-dimensionalen Raum, die diesen Raum in
zwei Halbräume teilt.
Perzeptron: Lernaufgabe
Gegeben ist eine Menge von Beispielen,
bestehend aus Input-Vektoren x.
Überwachte Lernaufgabe: Daten sind disjunkt in
zwei Mengen X,Y geteilt.
Gesucht ist der Gewichtsvektor w (w1, ...,wn), so
dass eine Hyperebene spezifiziert wird, die die
Mengen X und Y voneinander trennt.
Mengen müssen linear trennbar sein, damit die
Aufgabe lösbar ist.
Perzeptron: Delta-Regel
 Beim Training werden die Beispiele dem Netz als Input
präsentiert.
 Output ist für die Beispiele bekannt
--> überwachte Lernaufgabe (supervised)
 (hier: liegt Beispiel in X oder Y?)
 Soll und Ist-Output werden verglichen.
Bei Diskrepanz werden Schwellenwert und Gewichte
nach folgender Delta-Regel angepasst:
wi,neu = wi,alt + xi * (Outputsoll - Outputist)
aktueller Fehler
Lernrate
Perzeptron: Delta-Regel
 Zwei Varianten für Gewichtsänderungen
Online Training: jedes Gewicht wird sofort angepasst
(folgt nur im Mittel dem Gradienten)
Batch-Verfahren: es werden alle Datensätze
präsentiert, die Gewichtsänderung des Gewichtes
berechnet, summiert und dann erst angepasst
(entspricht dem Gradienten über dem Datensatz)
Satz:
Wenn das Perzeptron eine Klasseneinteilung überhaupt
realisieren kann, dann lernt es diese mit der Delta-Regel in
endlich vielen Schritten.
Problem: Falls das Perzeptron nicht lernt, kann nicht unterschieden
werden, ob nur noch nicht genügend Schritte vollzogen wurden
oder ob das Problem nicht lernbar ist. (Es gibt keine obere
Schranke für die Lerndauer.)
Perzeptron: XOR-Problem
Logisches AND ist
linear separierbar
Logisches XOR ist nicht
linear separierbar
0
1
0
0
0
1
1
0
Führt man weitere Hyperebenen ein, so
kann man auch hier die Klassen
unterscheiden.
 Realisierung durch Zwischenschichten
2-layer Perzeptron
Input-Vektor
Gewichtsvektor
x=(x1,...,xm)
v=(v11,...,vnm)
Aktivitätsvektor
Gewichtsvektor
y=(y1,...,yn)
w
x1
Output
y = (v.x)
o = (w.y)
o
v11
x2
...
xm
v12
y1
vnm
y2
w1
w2
y3
...
yn
w3
wn
o
2-layer Perzeptron
In einem 2-Schichten-Netz beeinflussen die Neuronen der 2. Schicht
einander nicht, deshalb können sie voneinander getrennt betrachtet
werden.
Bei mehrschichtigen Netzen geht die Unabhängigkeit verloren, d.h.
sie können nicht so getrennt werden.
Backpropagation - Idee
Datenstrom (Propagation)
Input
Layer
hidden
Layer
hidden
Layer
Output
Layer
Daten
Input
Fehler
Berechnung
Fehlerstrom (Backpropagation)
Backpropagation - Algorithmus
1. Wähle ein Muster x aus der Menge der Trainingsbeispiele D
aus.
2. Präsentiere das Muster dem Netz und berechne Output
(Propagation).
3. Der Fehler F wird als Differenz von errechnetem und
gewünschten Output ermittelt.
4. Die Fehlerinformationen werden durch das Netz
zurückpropagiert (Backpropagation).
5. Die Gewichte zwischen den einzelnen Schichten werden so
angepasst (wik), dass der mittlere Ausgabefehler für das
Muster sinkt.
6. Abbruch, wenn Fehler auf Validierungsmenge unter gegebenem
Schwellwert liegt. (Siehe spätere Folien.)
Sonst gehe zu 1.
Anpassung der Gewichte
Fehlerfunktion F (mittlerer
quadratischer Fehler) für das Lernen:
x1
v11
2
1
FD =  t d  od 
2 d D
wobei gilt:

x2
...
xm
v12
y1
vnm
y2
w1
w2
y3
...
yn
w3
wn
o
D Menge der Trainingsbeispiele
td korrekter Output für d  D
od berechneter Output für d  D
Die Gewichte müssen so angepasst werden, dass der Fehler minimiert
wird. Dazu bietet sich wieder das Gradientenabstiegsverfahren an.
(D.h.: Bergsteigerverfahren mit Vektorraum der Gewichtsvektoren als
Suchraum!)
Anpassung der Gewichte
Sei nun ein d 2 D gegeben.
Anders geschrieben ist
Fd = (o - t)2
= ((w.y) - t)2
x1
v11
= (o-t)2/wi
= ((w.y) - t)2/wi
= 2.(o-t). '(w.y). (w.y)/wi
= 2.(o-t). '(w.y)yi
xm
vnm
y2
w1
w2
y3
...
w3
wn
o
F/ wi
...
v12
y1
Der Fehlergradient für wi lautet für dieses d:
x2
yn
Anpassung der Gewichte
Fehlergradient für vij lautet:
F/vij
=
F/yi . yi/vij
x1
v11
(Fehler von Neuron i)
= F/yi . '(vi. x).xj
= F/o . o/yi . '(vi. x).xj
= F/o . (w.y)/yi . '(vi. x).xj
= F/o . '(w.y).wi. '(vi. x).xj
= 2.(o-t) . '(w.y).wi. '(vi. x).xj
Fehler bei
der Ausgabe
Gewicht
Info von
Zwischenschicht
...
xm
v12
y1
= F/yi .  (vi. x)/vij
x2
vnm
y2
w1
w2
y3
...
yn
w3
wn
o
Input
Info von Inputschicht
Anpassung der Gewichte
• Die schichtweise Berechnung der Gradienten ist auch für
mehr als zwei Schichten möglich.
• Der Fehler wird dann schichtenweise nach oben propagiert
(Back-Propagation).
• Allgemein gilt für den Output-Fehler e eines Neurons j
ej = F/xj
• Gewichtsänderung
wik = a . ek . ‘(ak) .xi
Anpassung der Gewichte
• Betrachtet man den Fehler des Netzes als Funktion aller
Gewichte w, so kann man zeigen, dass bei jedem Schritt der
Fehler kleiner wird. Dies erfolgt unabhängig vom gewählten
Netz, also unabhängig von w.
• e(w) = (o -t)2 = (t -  (w.x))2
• Es gilt bei jedem Schritt:
e(w + w) 2 < e(w)2
Bemerkungen
 Jede boolesche Funktion kann durch derartiges Netz
repräsentiert werden.
 Beliebige Funktionen können durch ein ANN mit drei
Schichten beliebig genau approximiert werden.
 Hypothesenraum ist kontinuierlich im Gegensatz z.B.
zum diskreten Hypothesenraum von
Entscheidungsbaumverfahren.
 ANN kann für interne Schicht sinnvolle
Repräsentationen lernen, die im vorhinein nicht bekannt
sind;
 dies ist Gegensatz zu z.B. ILP (ein Verfahren mit
vorgegebenem Hintergrundwissen).
Overfitting
Problem der Überanpassung eines
Modells an Trainings-Datensatz.
Gute Anpassung an kleinen Weltausschnitt, aber fehlende Generalisierung  schlechte Reaktion auf
neue Situationen.
Kontrolle der Generalisierung
während Trainings durch Teilen
des Datensatzes:
Trainings-Datensatz
(Output bekannt)
Validierungs-Datensatz
(Output bekannt)
Anwendungsdaten
(Output unbekannt)
Evaluierung mit ValidierungsDatensatz
Abbruchbedingung
 Beschreibung des Backpropagation-Algorithmus
lässt Abbruchbedingung offen.
 schlechte Strategie: solange iterieren, bis Fehler
für Trainingsbeispiele unter vorgegebenem
Schwellwert liegt (Gefahr: Overfitting)
 besser: separate Menge von Beispielen zur
Validierung (validation set); iteriere solange, bis
Fehler für Validierungsmenge minimal ist
 Aber: Fehler auf der Validierungsmenge muss
nicht monoton fallen (im Gegensatz zu Fehler
auf der Trainingsmenge, siehe nächste Folien)!
Figure 8a:
Plots of error E as a function of the number of weight updates, for two
different robot perception tasks
(Mitchell 1997)
Figure 8b:
Plots of error E as a function of the number of weight updates, for
two different robot perception tasks
(Mitchell 1997)
Kreuzvalidierung
 Alternativ (insbes. bei wenigen Trainingsdaten) kann kfache Kreuzvalidierung (k-fold cross-validation)
verwendet werden:
 Unterteile Menge der Trainingsbeispiele in k gleich große
disjunkte Teilmengen.
 Verwende der Reihe nach jeweils eine andere Teilmenge als
Validierungsmenge und die restlichen (k - 1) Teilmengen als
Trainingsmenge.
 Für jede Validierungsmenge wird „optimale“ Anzahl i von
Iterationen bestimmt (d.h. mit kleinstem mittleren Fehler für die
Daten aus der Validierungsmenge).
 Der Mittelwert von i über alle k Trainingsphasen wird letztendlich
verwendet, um das gegebene ANN mit allen Trainingsbeispielen
zu trainieren.
Vorteile neuronaler Netze
 sehr gute Mustererkenner
 verarbeiten verrauschte, unvollständige und
widersprüchliche Inputs
 verarbeiten multisensorischen Input (Zahlen, Farben,
Töne, ...)
 erzeugen implizites Modell für Eingaben (ohne
Hypothesen des Anwenders)
 fehlertolerant auch gegenüber Hardwarefehlern
 schnelle Berechnung der gelernten Funktion
 leicht zu handhaben
Nachteile neuronaler Netze
 lange Trainingszeiten
 Lernerfolg kann nicht garantiert werden
 Generalisierungsfähigkeit kann nicht garantiert werden
(Overfitting)
 keine Möglichkeit, die Begründung einer Antwort zu
erhalten (Blackbox)
Anwendung neuronaler Netze








Interpretation von Sensordaten
Prozesssteuerung
Medizin
Elektronische Nase
Schrifterkennung
Risikomanagement
Zeitreihenanalyse und -prognose
Robotersteuerung
Was gibt es noch...
 hier nicht behandelt: dynamische Aspekte:
Spiking neurons
Reaktion eines Neurons auf einen Input (das
„Feuern“) ist nicht ein fester Wert, sondern hat einen
bestimmten Verlauf, auch das kann simuliert werden
Rekurrente Netze
Bei Analyse von zeitlichen Verläufen ist es sinnvoll,
wenn sich das Netz etwas „merken“ kann. Erreicht
wird dies, indem ein Teil des outputs wieder als input
in das Netz eingespeist wird.
Dynamische Anpassung der Netzwerktopologie
Anpassung der Netzstruktur (z.B. Anzahl von hidden
neurons und Verbindungen) während des Trainings
Genetische Algorithmen
Evolution und Genetische Optimierung
 Vorbild: Mechanismen der biologischen
Evolution
 Darwin:
 Natürliche Selektion
 Variationen in einer Population
 genetische Vererbung
 Rekombination
 Mutation
 Mendel:
 Genotyp  Phänotyp
 Die Natur hat über die Evolution die Fitness
der Individuen so optimiert, daß sie in Ihrer
Umgebung am besten überleben können.
Genetik: Replikation
Genetik: Translation
Genotyp  Phänotyp
Im Genom gespeicherte Information führt zur
Ausprägung bestimmter Merkmale und
Verhaltensweisen.
Natürliche Auslese (Selektion)
 Merkmale und Verhaltensweisen bewähren sich im
Kampf ums Dasein – oder
eben nicht.
 Gene mit positiven Auswirkungen werden mit
höherer Wahrscheinlichkeit
weitergegeben.
 Gesamtheit der überlebenden Individuen ist genetisch
besser an die Erfordernisse
der Umgebung angepasst.
Genetische Algorithmen
 Idee: diesen Prozess künstlich simulieren zum
Zwecke der Optimierung
 Varianten:
Genetische Algorithmen i.e.S.: festes Genom
Genetisches Programmieren: komplexes Genom
variabler Länge (z.B. Programmcode)
Genetische Algorithmen
 Von John Holland in den 70er Jahren als Problemlösungsmethode
entwickelt, welche sich evolutionärer Mechanismen bedient.
 Codierung einer Lösung durch Bitstrings
 Mögliche Lösungen unterschiedlicher Qualität bilden eine Population,
wobei die besten Individuen eine höhere Chance erhalten, sich
fortzupflanzen
 neue Lösungen entstehen durch Kreuzung und Mutation
Evaluation
Problemlösungsbeschreibung
0 1 1 1 0 0 0 0 1 1 0 0 0 0 1 1 1 ...
Bitoperationen
Genetische Algorithmen
Input:
eine Menge von Lösungen
unterschiedlicher Qualität
Ziel:
die beste Lösung
P (t )
0101110...
Fitness-basierte
Auswahl +
Anwendung
genetischer Operatoren
(Rekombination,
Mutation)
1010101...
0000101...
1100101...
0110011...
0110011...
1110000...
0110110...
1000011...
P ( t 1)
Genetische Algorithmen
Ausgabe der Lösung
ja
Zufallsgesteuerte Erzeugung
einer Population von m
möglichen Lösungen
Bewertung aller Lösungen
durch ein Fitness-Maß
Konvergenzkriterium
erfüllt ?
nein
Probabilistische Auswahl
genetischer Operatoren
P(h) =
f (h)
Fitness-basierte Auswahl
der Individuen
Erzeugung einer neuen Population mit m Lösungen
n
 f (h )
i
i=1
f ( h ) = Fitness des Individuums h
Wahrscheinlichkeit das Individuum h in einem Selektionsschritt auszuwählen:P(h)
Bestandteile
 Repräsentation
 Genetische Operatoren
 Initialisierung
 Fitness-Funktion
 Selektion
 Problemstellung erfordert oft Abweichungen
vom klassischen Ansatz
Repräsentation
 Bit-Strings: S  {0,1}n, n  
0 1 1 1 0 0 0 0 1 1 0 0 0 0 1 1 1
 Strings über einem endlichen Alphabet S  n, n  
z.B.  ={G,A,C,T}
G A G C C A T A T
 Strings, die aus reellen Zahlen bestehen S  Rn, oder
S    Rn , n  
0.1 0.3 0.2 0.2 0.1 0.5 0.9 0.1 0.7
Repräsentation
 Diploide Struktur
0 1 1 1 0 0 0 0 1 1 0 0 0 0 1 1 1
0 0 1 1 1 1 0 1 0 1 1 0 1 0 0 1 0
 Multiple Chromosen
Repräsentation
 Strings mit variabler Länge
3
3
177 251 112 -17 -32 -91 999 -25
177 251 -17 -32 100 -12 -91 999 -25
5
-12
 Permutationen der Menge {1, ..., n} , n   (z.B. für TSP)
2 5 4 8 3 1 6 9 7
 Strukturen aller Art: Bäume, S-expressions (Genetic
Programming), (Neuronale) Netze, ...
+
+

a
a
b
x
y
Genetische Operatoren
 Reproduktion, Mutation, Crossover
 Mutation
0 1 1 1 0 0 1 0 0 0 1 0
0 1 1 1 0 0 1 0 0 0 1 0
0 1 1 1 0 0 1 0 0 0 1 0
0 1 1 1 0 1 1 0 0 0 1 0
 Single-Point-Crossover
0 1 1 1 0 0 1 0 0 0 1 0
0 0 0 1 0 1 0 1 1 1 0 0
Maske
00000111111
0 1 1 1 0 1 0 1 1 1 0 0
0 0 0 1 0 0 1 0 0 0 1 0
Genetische Operatoren
 Two-Point-Crossover
0 1 1 1 0 0 1 0 0 0 1 0
Maske
001111110000
0 0 0 1 0 1 0 1 1 1 0 0
0 1 0 1 0 1 0 1 0 0 1 0
0 0 1 1 0 0 1 0 1 1 0 0
 Uniform Crossover
Maske
010011001110
0 1 1 1 0 0 1 0 0 0 1 0
0 0 1 1 0 1 1 0 1 1 0 0
0 0 0 1 0 1 0 1 1 1 0 0
0 1 0 1 0 0 0 1 0 0 1 0
Genetische Operatoren
 Mittelwertbildung (für reelle Zahlen)
0.1 0.3 0.2 0.2 0.1 0.5 0.9 0.1 0.7
0.9 0.3 1.8 0.6 1.7 0.7 0.1 0.3 0.5

0.5 0.3 1.0 0.4 1.4 0.6 0.5 0.2 0.6

Genetische Operatoren
 Segregation (für diploide Chromosomen):
 Translokation (multichromosomales Crossover)
 Austausch von Teilstrings über verschiedene Chromosomen
hinweg, wobei die Bedeutung einzelner Gene bewahrt werden muss
Genetische Operatoren
 Umordnung: Partiell matchendes Crossover (z.B. für TSP)
 2 Crossover-Punkte zufallsbasiert auswählen
 positionsweisen Austausch für alle betroffenen Positionen
vornehmen (erst zwischen ausgewählten Punkten, dann Rest
konsistent machen).
P1
9
8
4
5
6
7
1
3
2
10
P2
8
7
1
2
3
10
9
5
4
6
C1
9
8
4
2
3
10
1
6
5
7
C2
8
10
1
5
6
7
9
2
4
3
52
63
7  10
Initialisierung
 “Intelligente” Initialisierung der Population kann
ungünstigen Bias vermeiden und dementsprechend
vorzeitige Konvergenz verhindern und
Konvergenzverhalten insgesamt verbessern
 Mögliche Initialisierungen:
die n besten einer Menge zufällig gewählter
Individuen
heuristische, bereichsspezifische Regeln
mit einem anderen Verfahren erlernte Individuen
Selektion
 Auswahl der Individuen
proportional zur Fitness (ursprünglicher Ansatz)
Tournament Selection: aus n Gruppen mit je t
Individuen jeweils die besten auswählen
Truncation Selection: aus der Gruppe T der besten
Individuen alle mit gleicher Wahrscheinlichkeit
auswählen
Linear Ranking Selection: Individuen linear ordnen
und dann mit Wahrscheinlichkeit proportional zu
ihrem Rang auswählen
Exponential Ranking: wie Linear Ranking, jedoch mit
exponentiell gewichteten Rangfolgewerten
Selektion
 Auswahl der Operatoren: meist reduziert auf die
Optimierung folgender Parameter
Wahrscheinlichkeit von Crossover
Wahrscheinlichkeit von Reproduktion
Wahrscheinlichkeit von Mutation
 z.B. Senkung der Mutationsrate mit der Zeit
Bewertung







Globale Suche in riesigen Lösungsräumen möglich
Konvergenz zu lokalen Minima selten
bereichsunabhängig (aber nicht problemunabhängig)
Repräsentation mit Bitstrings oft unangemessen
Schwächen bei lokaler Suche
üblicherweise nur eine Lösung als Ergebnis
Korrelation zwischen Teilen der Problemlösung wird
weitgehend ignoriert und kann zu Konvergenzproblemen
führen
 nichtlinearer Einfluss auf den Gesamtfitnesswert durch einzelne
Gene
 Beitrag eines Gens zur Gesamtfitness hängt von anderen
Genen ab
No Free Lunch
 Ohne Berücksichtigung problemspezifischer
Randbedingungen kommt der kanonische
genetische Algorithmus nicht schneller zu einer
optimalen Lösung als eine zufallsbasierte Suche.
im Mittel ist die Performance über alle Probleme gleich
wenn bestimmte Probleme besser gelöst werden,
werden andere dafür schlechter gelöst
 Das gilt für alle Lösungsverfahren für
kombinatorische Optimierungsprobleme
Lamarck + Baldwin
 Lamarck’sche Hypothese: Individuen können
die während ihres Lebens erlernten/erworbenen
Fähigkeiten/Eigenschaften vererben.
Lamarck + Baldwin
 Baldwin-Effekt:
Lernfähige (und damit
besonders anpassungsfähige) Individuen haben
eine höhere Reproduktionsrate.
 Interaktion zwischen
(individuellem) Lernen
und Evolution.

IntroAI-V06 - Semantic-Web