Zusammenfassung


In diesem Abschnitt wurde anhand des Programms PERCEPT2.C (iteriertes Perceptron-Lernen) die prinzipielle Funktionsweise eines realistisch implementierten Perceptrons demonstriert. Wesentlich bei der Diskussion der Aufgaben war stets der Hinweis auf die kritische Bedingung der strengen linearen Separierbarkeit der zu lernenden Assoziationen. Insbesondere war es bei den Anwendungen i.a. ausgesprochen schwierig vorherzusagen, ob Perceptron-Lernen zum Erfolg führen würde oder nicht. Dies wurde besonders anhand der Lösung von Aufgabe 2 deutlich. Man erkannte dort zunächst, dass das Perceptron-Lernen nach 12949 Lernzyklen mit einem auf den Trainingsdaten perfekt arbeitenden Netz abbrach. Das Netz prognostizierte für eine 39-jährige, 87 kg schwere Person, die 10 Zigaretten pro Tag raucht, Verschleißerscheinungen (Generalisierung). Trainierte man nun das Netz erneut (veraendern), allerdings jetzt unter der Annahme, dass Proband D keinen Verschleiß hatte, so stellte man fest, dass das Netz selbst nach 15000 Lernzyklen den Trainingsdatensatz noch nicht beherrschte. Offenbar konnte das Perceptron diesen Datensatz nicht lernen -- er schien nicht streng linear separierbar zu sein -- oder aber hätten wir vielleicht maximal 20000 oder 30000 oder .... Lernzyklen zulassen müssen? Hier wurde ein grundsätzliches Problem beim Umgang mit dem Perceptron deutlich. Unabhängig von der sicherlich berechtigten Frage, ob ein Perceptron-Netz wirklich ein gutes und angemessenes Diagnosesystem liefern würde, war es doch offenbar so, dass bereits ein einziger statistischer Ausreißer die strenge lineare Separierbarkeit -- wenn sie denn zuvor bestanden hatte -- zerstören konnte. Dies ist für die Praxis natürlich ein ausgesprochen schwieriges Problem, da selbst bei theoretisch fundierter Annahme einer strengen linearen Trennung zweier Zuordnungsklassen derartige statistische Ausreißer nicht auszuschließen sind. Außerdem bleibt natürlich im konkreten Anwendungsfall grundsätzlich die Frage offen, ob der Trainingsdatensatz wirklich nicht streng linear separierbar ist oder ob man nur nicht hinreichend lange genug hat lernen lassen. Zusammenfassend kann man also festhalten, dass das Perceptron in seinem praktischen Einsatz alles andere als unkompliziert ist und somit ein Grund mehr besteht, sich mit alternativen neuronalen Netzwerkkonzepten zu beschäftigen.




Burkhard Lenze
Im Februar 2009