Zusammenfassung
In diesem Abschnitt wurde anhand des Programms PERCEPT2.C (iteriertes
Perceptron-Lernen) die prinzipielle Funktionsweise eines realistisch
implementierten Perceptrons demonstriert. Wesentlich bei der Diskussion der
Aufgaben war stets der Hinweis auf die kritische Bedingung der strengen
linearen Separierbarkeit der zu lernenden Assoziationen. Insbesondere war
es bei den Anwendungen i.a. ausgesprochen schwierig vorherzusagen, ob Perceptron-Lernen
zum Erfolg führen würde oder nicht. Dies wurde besonders anhand der
Lösung von Aufgabe 2 deutlich.
Man erkannte dort zunächst, dass das
Perceptron-Lernen nach 12949 Lernzyklen mit einem auf den Trainingsdaten
perfekt arbeitenden Netz abbrach. Das Netz prognostizierte für eine
39-jährige, 87 kg schwere Person, die 10 Zigaretten pro Tag raucht,
Verschleißerscheinungen (Generalisierung). Trainierte man nun das Netz
erneut (veraendern), allerdings jetzt unter der Annahme, dass Proband D
keinen Verschleiß hatte, so stellte man fest, dass das Netz selbst nach
15000 Lernzyklen den Trainingsdatensatz noch nicht beherrschte. Offenbar
konnte das Perceptron diesen Datensatz nicht lernen -- er schien nicht streng
linear separierbar zu sein -- oder aber hätten wir vielleicht maximal
20000 oder 30000 oder .... Lernzyklen zulassen müssen? Hier wurde ein
grundsätzliches Problem beim Umgang mit dem Perceptron deutlich.
Unabhängig von der sicherlich berechtigten Frage, ob ein Perceptron-Netz
wirklich ein gutes und angemessenes Diagnosesystem liefern würde, war
es doch offenbar so, dass bereits ein einziger statistischer Ausreißer
die strenge lineare Separierbarkeit -- wenn sie denn zuvor bestanden hatte --
zerstören konnte. Dies ist für die Praxis natürlich ein ausgesprochen
schwieriges Problem, da selbst bei theoretisch fundierter Annahme einer
strengen linearen Trennung zweier Zuordnungsklassen derartige statistische
Ausreißer nicht auszuschließen sind. Außerdem bleibt
natürlich im konkreten Anwendungsfall grundsätzlich die Frage offen,
ob der Trainingsdatensatz wirklich nicht streng linear separierbar ist
oder ob man nur nicht hinreichend lange genug hat lernen lassen. Zusammenfassend
kann man also festhalten, dass das Perceptron in seinem praktischen Einsatz
alles andere als unkompliziert ist und somit ein Grund mehr besteht,
sich mit alternativen neuronalen Netzwerkkonzepten
zu beschäftigen.
Burkhard Lenze
Im Februar 2009