Ziel dieses Buches ist es die Schwierigkeiten bei der Modellierung mit Black-Box Modellen aufzuzeigen, zu quantifizieren und Lösungsvorschläge zu bieten. Als primäres Beispiel werden Neuronale Netze in ihrer allgemeinsten Form gewählt und in zwei verschiedenen Formulierungen (deterministisch und stochastisch) dargestellt. Die folgenden Aspekte stehen hierbei im Vordergrund:
- Die grundsätzliche Approximationsfähigkeit von Neuronalen Netzen,
- die Komplexität der zu Grunde liegenden Hypothesenräume und der damit verbundene trade-off zwischen prinzipieller Approximationsgenauigkeit (Bias-Fehler) und Varianz der Schätzer,
- die Konvergenz der Neuronalen Netze gegen die Zielfunktion für steigende Anzahl von Trainingsdatenpunkten und wachsende Komplexität des Netzwerkes und
- die Robustheit der resultierenden Schätzfunktionen und der Netzwerk-Gewichte gegenüber Störungen in den Daten während der Trainings- und Anwendungsphase.
Der Autor gelangt zu völlig neuen Aussagen bezüglich Robustheit von Black-Box-Approximatoren gegenüber Störungen in Eingabedaten und Netzwerkgewichten. Hierauf aufbauend ergibt sich ein Konstruktionsalgorithmus für Neuronale Netze, der bezüglich mehrerer Aspekte als "optimal" bezeichnet werden kann und neue Perspektiven in der Anwendung auf reale Probleme bietet.
38.50 € | ||
in stock |