Zusammenfassung


In diesem Abschnitt wurde anhand des Programms BACKPRO2.C die prinzipielle Funktionsweise einer auf die neuronale Simulation unseres Standardbeispiels zugeschnittenen Variante eines dreischichtigen neuronalen Backpropagation-Netzes diskutiert. Wichtig war wieder das Problem der geeigneten Startparameter (Random-Strategien) sowie die potentielle Fähigkeit der Netze zu generalisieren, d. h. auch für nicht explizit trainierte Eingangsreize "aus dem Gesamtkontext" auf plausible Ausgangsreize zu schließen. In der Praxis ist insbesondere die Iniialisierung ein ausgesprochen schwieriges Problem; wie soll man gute Startparameter finden? Im allgemeinen geht man dabei, wie bereits erwähnt, so vor, dass man Startgewichte und -schwellwerte zufällig initialisiert (Random-Initialisierung), dann das Netz eine Weile lernen lässt und in Abhängigkeit vom Lernerfolg (Gesamtfehlergröße) die Parameter entweder akzeptiert, oder aber sie erneut Random-initialisiert. Genau auf diesem Wege -- unter der zusätzlichen Beschränkung auf die Werte -1, 0 und 1 -- wurden die Dateien GEW08 und GEW20 gefunden. Neben dieser bereits bekannten Problematik der Startwerte kam bei der Lösung der vorausgegangenen Aufgabe erstmals mit Nachdruck der Aspekt des Generalisierens zum Tragen: Auf den explizit angegebenen Eingabevektoren (x[1],x[2])=(0.11,0.22), (x[1],x[2])=(0.53,0.57) und (x[1],x[2])=(0.87,0.93) wurden die Netze gar nicht trainiert, dennoch lieferten die "guten" Netze auch für diese Eingänge in vielen Fällen fast genau die richtigen, durch f bestimmten zugehörigen Assoziationen, nämlich f(0.11,0.22)=0, f(0.53,0.57)=1 und f(0.87,0.93)=0. Dies ist eine der wesentlichen Eigenschaften, die den Erfolg und die weite Verbreitung neuronaler Netze begründet.



Burkhard Lenze
Im Februar 2009