Einführung in die Mathematik neuronaler Netze

Mit C- und Java-Anwendungsprogrammen im Internet

Burkhard Lenze
ISBN 978-3-89722-021-8
250 Seiten, Erscheinungsjahr: 1997, 2003,
2009 (dritte durchgesehene und überarbeitete Auflage)
Preis: 35.00 EUR

Stichworte/keywords: neuronale Netze, linearer Assoziierer, Backpropagation, rekursive Netze, Hopfield, Kosko, Hebb

Mit dem vorliegenden, rund 250 Seiten umfassenden Buch, welches sich primär an Studierende der Informatik und Mathematik an Universitäten und Fachhochschulen richtet, stellen wir einen aktuellen Zweig der Informatik vor, nämlich die (künstlichen) neuronalen Netze. Ein Schwerpunkt des Buches liegt dabei neben der expliziten algorithmischen Formulierung der vorgeschlagenen Konzepte in einer ausführlichen mathematischen Analyse und Begründung der jeweiligen neuronalen Netzwerkrealisierungen und steht damit in einem gewissen Gegensatz zu vielen einschlägigen Büchern, bei denen die rein theoretischen Aspekte eine eher untergeordnete Rolle spielen.
Das Buch wird ergänzt durch ein begleitendes Internetangebot, welches unter http://www.logos-verlag.de/lenze abgerufen werden kann. Das Buch ist natürlich auch ohne diese anwendungsorientierten Zugaben lesbar und in sich geschlossen konzipiert, dennoch sei jede Leserin und jeder Leser ermuntert, wenn eben möglich einmal einen Blick auf diese Internetseite zu werfen. Dort werden nämlich zu allen zuvor im Buch ausführlich diskutierten Netzwerkvarianten einfach und modular strukturierte C-Simulationen vorgestellt und anhand konkreter, im allgemeinen recht umfangreicher Beispiele getestet. Dadurch wird die Leserin und der Leser in die Lage versetzt, die im Buch vorgestellten Netzwerkrealisierungen in Hinblick auf Aufwand und Nutzen auch in ihrem praktischen Einsatz kritisch hinterfragen und beurteilen zu können.

Abschließend die konkreten Inhalte des Buches kapitelweise im Überblick:

  1. Prinzipielles über neuronale Netze
    Motivation und Grundlagen
    Formale neuronale Strukturen: die Statik neuronaler Netze
    Lernen und Ausführen: die Dynamik neuronaler Netze
    Das Standardbeispiel: der rote Faden durch die Vorlesung
    Mathematischer Exkurs: der Fortsetzungssatz von Tietze
  2. Zweischichtige neuronale Feed-Forward-Netze
    Motivation und Grundlagen
    Der lineare Assoziierer und die Hebb-Lernregel
    Das Perceptron und die Perceptron-Lernregel
    Das XOR-Problem und die Minsky-Papert-Kritik
    Mathematischer Exkurs: der Satz von Stone-Weierstraß
  3. Dreischichtige neuronale Feed-Forward-Netze
    Motivation und Grundlagen
    Eine Lösung des XOR-Problems
    Resultate vom Kolmogorov-Typ
    Mathematischer Exkurs: das Gradienten-Verfahren und der Banachsche Fixpunktsatz
    Die Backpropagation-Lernregel
  4. Neuronale Feed-Forward-Netze höherer Ordnung
    Motivation und Grundlagen
    Eine Lösung des XOR-Problems und weitere Anwendungen
    Hyperbolische Sigma-Pi-Netze
    Der Sigma-Pi-Assoziierer und die Hebb-Lernregel
  5. Rekursive neuronale Netze
    Motivation und Grundlagen
    Heteroassoziative Kosko-Netze (BAM)
    Autoassoziative Sigma-Pi-Hopfield-Netze
    Bildverarbeitung mit rekursiven Netzen

Kaufoptionen
print:35.00 EUR 
Exemplar(e)