Zusammenfassung
In diesem Abschnitt wurde anhand des Programms BACKPRO2.C die prinzipielle
Funktionsweise einer auf die neuronale Simulation unseres Standardbeispiels
zugeschnittenen Variante eines dreischichtigen neuronalen Backpropagation-Netzes
diskutiert. Wichtig war wieder das Problem der geeigneten Startparameter
(Random-Strategien) sowie die potentielle Fähigkeit der Netze zu generalisieren,
d. h. auch für nicht explizit trainierte Eingangsreize "aus dem
Gesamtkontext" auf plausible Ausgangsreize zu schließen.
In der Praxis ist insbesondere die Iniialisierung ein ausgesprochen
schwieriges Problem; wie soll man gute Startparameter finden? Im allgemeinen
geht man dabei, wie bereits erwähnt, so vor, dass man Startgewichte und
-schwellwerte zufällig initialisiert (Random-Initialisierung), dann das
Netz eine Weile lernen lässt und in Abhängigkeit vom Lernerfolg
(Gesamtfehlergröße) die Parameter entweder akzeptiert, oder aber sie erneut
Random-initialisiert. Genau auf diesem Wege -- unter der zusätzlichen
Beschränkung auf die Werte -1, 0 und 1 -- wurden die Dateien
GEW08 und GEW20 gefunden.
Neben dieser bereits bekannten Problematik der Startwerte kam bei der
Lösung der vorausgegangenen Aufgabe erstmals mit Nachdruck der Aspekt des
Generalisierens zum Tragen: Auf den explizit angegebenen Eingabevektoren
(x[1],x[2])=(0.11,0.22), (x[1],x[2])=(0.53,0.57) und
(x[1],x[2])=(0.87,0.93)
wurden die Netze gar nicht trainiert, dennoch lieferten die "guten" Netze
auch für diese Eingänge in vielen Fällen fast genau
die richtigen, durch f bestimmten
zugehörigen Assoziationen, nämlich
f(0.11,0.22)=0, f(0.53,0.57)=1 und
f(0.87,0.93)=0.
Dies ist eine der wesentlichen Eigenschaften,
die den Erfolg und die weite Verbreitung neuronaler Netze begründet.
Burkhard Lenze
Im Februar 2009