UNIVERSITY
OF
PADERBORN
Projektgruppe KIMAS
NN in MAS
10.09.2003
Thomas Heinen
Projektgruppe KIMAS – Neuronale Netze in MAS
1/31
Inhalt






UNIVERSITY
OF
PADERBORN
Motivation + Definition
Geschichte
Original und „Fälschung“
Komponenten
Bekannte Verfahren
Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS
2/31
Motivation
UNIVERSITY
OF
PADERBORN
Was ist das Besondere an künstlichen neuronalen Netzen ?
 Natürliches Lernprinzip
 anpassungsfähig
Was für Anwendungen ?
 Mustererkennung
 Regelung
 Einordnung von Text, Bildern, … (sogenanntes Clustering)
 usw.
Projektgruppe KIMAS – Neuronale Netze in MAS
3/31
Definitionsversuche
UNIVERSITY
OF
PADERBORN
FAQ der comp.ai.neural-nets:
“An ANN is a network of many very simple
processors, each possibly having a local memory.
The units are connected by unidirectional
communication channels, which carry numeric data.
The units operate only on their local data and on
the inputs they receive via the connection”
DARPA, 1988:
“A neural network is a system composed of many
simple processing elements operating in parallel
whose function is determined by network
structure, connection strengths, and the
processing performed at computing elements or
nodes”
Projektgruppe KIMAS – Neuronale Netze in MAS
4/31
Randbedingungen
UNIVERSITY
OF
PADERBORN
Neuronale Netze sind bei gewissen Randbedingungen am
leistungsfähigsten:
 Viele Trainingsdaten
 Gegebenenfalls jemanden, der das Lernen überwacht
 Genug Zeit zum Lernen
 Gut ausbalancierte Trainingsdaten
Projektgruppe KIMAS – Neuronale Netze in MAS
5/31
Das Panzer-Problem
UNIVERSITY
OF
PADERBORN
Keine Erfolgsstory:
Projekt zur Panzererkennung der DARPA (80er Jahre)
„Panzer gefunden“ ?
„kein Panzer“ !?
Die volle Story unter http://neil.fraser.name/writing/tank/
Projektgruppe KIMAS – Neuronale Netze in MAS
6/31
Inhalt






UNIVERSITY
OF
PADERBORN
Motivation + Definition
Geschichte
Original und „Fälschung“
Komponenten
Bekannte Verfahren
Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS
7/31
Geschichte: 1942-1955
UNIVERSITY
OF
PADERBORN
Erste Betrachtungen 1942 von McCulloch/Pitts:
 Untersuchung der Fähigkeiten von NN
 Beweis, daß NN jede arithmetische/logische Funktion lösen
Donald Hebb beschreibt eine universelle Lernregel 1949
 Noch immer Basis vieler moderner Ansätze
Weitere psychologische und neuropsychologische Arbeiten
Projektgruppe KIMAS – Neuronale Netze in MAS
8/31
Geschichte: 1955-1969
UNIVERSITY
OF
PADERBORN
Das „Perzeptron“ als einfache Architektur eines NN wird entwickelt.
Erster echter Neurocomputer 1957 (Mark I Perceptron)
 Gewichte mit 512 motorbetriebenen Potentiomentern
 Erkennung einfacher Ziffern mit 20*20 Sensoren
Erste Neurocomputing-Firma „Memistor Corporation“
Glaube, universelle Lernprinzipien entdeckt zu haben
 Fehleinschätzung und erstes Motivationstief
Projektgruppe KIMAS – Neuronale Netze in MAS
9/31
Geschichte: 1969-1984
UNIVERSITY
OF
PADERBORN
Minsky/Papert untersuchen das „Perzeptron“ 1969 theoretisch
 Schock: Nicht alle Probleme lösbar („XOR-Problem“)
 Warum? Erläutere ich im 5. Abschnitt des Vortrags …
 Diese Erkenntnis lässt es fast 15 Jahre still werden um die NN
Weitergehende theoretische Forschung
 Backpropagation Lernregel
 Stereosehen mit Neuronalen Netzen
 Hopfield-Netze, Neocognitron, ART und viele andere
Projektgruppe KIMAS – Neuronale Netze in MAS
10/31
Geschichte: 1984-
UNIVERSITY
OF
PADERBORN
Schwierige Optimierungsaufgaben als praxistaugliche Beispiele
 Traveling Salesman Problem durch Hopfield
Backpropagation wird verbessert (ab 1986)
 Höheres Lerntempo durch ausgefeilte Optimierungen
Viele Anwendungen werden erschlossen:
 NN lernen das Vorlesen von Text
 Neurocomputer von Siemens
 Robotikanwendungen
Projektgruppe KIMAS – Neuronale Netze in MAS
11/31
Inhalt






UNIVERSITY
OF
PADERBORN
Motivation + Definition
Geschichte
Original und „Fälschung“
Komponenten
Bekannte Verfahren
Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS
12/31
Das Original
UNIVERSITY
OF
PADERBORN
Neuronen im Gehirn:
 Abertausendfach verbunden:
2.000 – 150.000 Eingangssignale
1.000 – 10.000 Ausgangssignale
 Geschätzte 110 Milliarden Neuronen
 Elektrische Signalisierung
 Umfangreiche chemische Einflüsse:
Neurotransmitter (Serotonin, Taurin, …)
Neuropeptide (Endorphine, …)
Projektgruppe KIMAS – Neuronale Netze in MAS
13/31
Die Fälschung
UNIVERSITY
OF
PADERBORN
Neuronen im Computer:
 Geringere Ein- und Ausgangszahlen:
10 – 100 Eingangssignale
noch weniger Ausgangssignale
 100 – 10.000 Neuronen insgesamt
 Signalisierung durch Numerische Werte
 Chemie meist nicht berücksichtigt
Aufteilung:
 Eingabeschicht
 Verdeckte Schichten
 Ausgabeschicht
Projektgruppe KIMAS – Neuronale Netze in MAS
14/31
Inhalt







UNIVERSITY
OF
PADERBORN
Motivation
Definition
Geschichte
Original und „Fälschung“
Komponenten
Bekannte Verfahren
Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS
15/31
Komponenten: Neuronen
UNIVERSITY
OF
PADERBORN
 Begriff für eine „Recheneinheit“ in einem Neuronalen Netz
 Nur „lokale Sicht“ auf Vorgänger im Netz und sich selbst
 Bekommt mehrere Eingaben, berechnet einen Ausgabewert
 Berechnung erfolgt durch verschiedenen Funktionen
Projektgruppe KIMAS – Neuronale Netze in MAS
16/31
Komponenten: Funktionen
UNIVERSITY
OF
PADERBORN
 Aggregationsfunktion
Fassen Eingangssignale zusammen zu einem Wert (z.B. Summe).
Gegebenenfalls wird das Ergebnis noch skaliert
 Aktivierungsfunktion
Berechnet den Ausgabewert.
Verschiedene Funktionen: binär, linear, sigmoid („s-förmig“)
Projektgruppe KIMAS – Neuronale Netze in MAS
17/31
Komponenten: Topologie
UNIVERSITY
OF
PADERBORN
Art des Verbindungsschemas bestimmt Funktion des Netzes
Verschiedenste Arten von Topologien:
 Vollständig verbundene Netze
Jedes Neuron einer Schicht hat Verbindungen zu allen der vorherigen.
 Vorwärtsgerichtete Netze
Es gibt immer nur Verbindungen Richtung Ausgabeschicht
 Rekurrente Netze
Ausgaben werden auch an Vorgängerzellen zurückgegeben
Projektgruppe KIMAS – Neuronale Netze in MAS
18/31
Komponenten: Gewichte
UNIVERSITY
OF
PADERBORN
Eingaben haben eine Priorität, ein sogenanntes „Gewicht“
Jeder Eingabewert wird mit seinem Gewicht multipliziert
Diese Werte faßt die Aggregationsfunktion zusammen.
Vorgänger können auch ignoriert werden (Nullgewicht)
 Selber Effekt wie eine fehlende Verbindung zum Vorgänger
Meist werden die Gewichte als Adjazenzmatrix gespeichert.
 Berechnungsvorgang dann durch Matrizenmultiplikation
Projektgruppe KIMAS – Neuronale Netze in MAS
19/31
Komponenten: Lernregel
UNIVERSITY
OF
PADERBORN
Bisherige verändert sich nichts beim NN. Woher kommt das „Lernen ?“
 Fehler bei der Erkennung werden durch das Netz zurückgeleitet.
Dabei werden die bestehenden Gewichte der Verbindungen geändert.
Fehler werden von außen durch Trainer signalisiert:
 Richtig / Falsch
 Prozentualer Wert der Richtigkeit
 Komplexere Beschreibungen der Abweichung („Fehlervektor“)
„Lernregeln“ berechnen die Gewichtsänderung abhängig vom
signalisierten Fehler.
Projektgruppe KIMAS – Neuronale Netze in MAS
20/31
Inhalt







UNIVERSITY
OF
PADERBORN
Motivation
Definition
Geschichte
Original und „Fälschung“
Komponenten
Bekannte Verfahren
Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS
21/31
Hebbsche Lernregel
UNIVERSITY
OF
PADERBORN
 Entwickelt schon 1949 von Donald Hebb
 Urvater der meisten moderneren Lernverfahren
Parameter:
wij
Gewichtsänderung der Verbindung von Neuron i zu Neuron j
n
Lerngeschwindigkeit (Konstanter Wert)
oi
Ausgabe der Vorgängerzelle i
aj
Aktivierung der Nachfolgezelle j
Projektgruppe KIMAS – Neuronale Netze in MAS
22/31
Perzeptron: Einstufig
UNIVERSITY
OF
PADERBORN
 Eine der ersten Strukturen in der Forschung zu Neuronalen Netzen
 Eingabe ist mit Sensormatrix verbunden
 Einsatz einer binären Aktivierung (Ausgabe „ja“ und „nein“)
Mathematisch formuliert:
Durch den Raum der Eingaben wird eine Ebene gelegt, die die „falschen“
von den „richtigen“ Aussagen trennt
Projektgruppe KIMAS – Neuronale Netze in MAS
23/31
Perzeptron: Das XOR-Problem
UNIVERSITY
OF
PADERBORN
Untersuchung des Perzeptrons war der Stolperstein der NN 1969:
Erkenntnis, daß nicht alle Probleme „linear separierbar“ sind
Die XOR-Funktion wird dann wahr, wenn die Eingaben gleich sind
Nicht durch eine Linie aufzuteilen
 Die Funktion ist nicht abzubilden.
Folgerung von Minsky `69:
Perzeptrons können nur linear separierbare Probleme lösen
Projektgruppe KIMAS – Neuronale Netze in MAS
24/31
Perzeptron: zweistufig
UNIVERSITY
OF
PADERBORN
Neuron Nr.6 bekommt die Funktion eines AND:
 Gewichte zum Neuron 6 sind jeweils fest auf 0.3
 Das sechste Neuron wird erst bei 0.3 * 3 = 0.9 wahr
Projektgruppe KIMAS – Neuronale Netze in MAS
25/31
Perzeptron: Akzeptanzbereiche
UNIVERSITY
OF
PADERBORN
Einfaches Perzeptron:
Akzeptanz durch lineare Separierung
Zweistufiges Perzeptron:
Komplexere Akzeptanz durch logische
Verknüpfungen
 Damit ist klar, daß die Folgerung von Minsky und Papert falsch war.
Projektgruppe KIMAS – Neuronale Netze in MAS
26/31
Inhalt







UNIVERSITY
OF
PADERBORN
Motivation
Definition
Geschichte
Original und „Fälschung“
Komponenten
Bekannte Verfahren
Fazit
Projektgruppe KIMAS – Neuronale Netze in MAS
27/31
Pro
UNIVERSITY
OF
PADERBORN
Biologisch motiviert
Intelligenz durch Imitation der Natur, wenngleich in abgespeckter Form
(Vernachlässigung der Chemie, kleinere Dimensionen)
Sehr anpassungsfähig
Neuronale Netze können als sogenanntes online-Lernverfahren auch nach
dem Training noch lernen. Viele andre Lernverfahren sind dagegen „offline“
(zum Beispiel Genetische Algorithmen)
Projektgruppe KIMAS – Neuronale Netze in MAS
28/31
Contra
UNIVERSITY
OF
PADERBORN
Relativ hoher Trainingsaufwand
In unserem Fall müßte man im Training vermutlich hunderte Spiele
durchlaufen lassen.
Probleme der Flexibilität
Bei einer Strategieänderung des „Gegners“ wäre eine neue Trainingsphase
das beste => wieder hunderte Spiele.
Projektgruppe KIMAS – Neuronale Netze in MAS
29/31
Das Fazit vom Fazit
UNIVERSITY
OF
PADERBORN
Neuronale Netze sind keine generelle Lösung
 Wir sollten eine Kombination von Lernverfahren nutzen
Beispielsweise
 schnelle offline-Lernverfahren für generelle Strategien
 Neuronale Netze für schnelle Anpassungen
Projektgruppe KIMAS – Neuronale Netze in MAS
30/31
Werbung :)
UNIVERSITY
OF
PADERBORN
In der Ausarbeitung wesentlich mehr Stoff:
 Details zu natürlichen NN
 Kategorisierung von Neuronalen Netzen
 Zwei weitere, modernere Lernregeln
 Neuronale Netze und Genetische Algorithmen im Zusammenspiel
Projektgruppe KIMAS – Neuronale Netze in MAS
31/31

PPT