ISBN-13: 9783640862467 / Niemiecki / Miękka / 2011 / 154 str.
Diplomarbeit aus dem Jahr 2004 im Fachbereich Mathematik - Angewandte Mathematik, Note: 1.7, Universitat Bayreuth (Fakultat fur Mathematik und Physik), Sprache: Deutsch, Abstract: Neuronale Netze sind ursprunglich aus der Biologie bekannt. Sie haben eine grobe Analogie zum Gehirn der Saugetiere. Kunstliche Neuronale Netze sind informationsverarbeitende Systeme. Sie bestehen aus einer groen Anzahl einfacher Einheiten, den Neuronen, die sich Informationen in Form der Aktivierung der Neuronen uber gerichtete, gewichtete Verbindungen zusenden. Es sind massiv parallele, lernfahige Systeme. Neuronale Netze haben die Fahigkeit, eine Aufgabe selbstandig, anhand von Trainingsbeispielen, zu lernen. Uberblick uber die einzelnen Kapitel Kapitel 2.1 stellt die Grundlagen Neuronaler Netze dar. Dabei wird zuerst das Neuronale Netz definiert und seine Bestandteile erklart. Anschlieend werden verschiedene Netzstrukturen definiert. Kapitel 2.2 zeigt, welche Funktionen mittels Neuronaler Netze darstellbar sind. In Kapitel 3 werden verschiedene Lernverfahren fur Feedforward Netze dargestellt. Dabei wird das Training Neuronaler Netze als unrestringiertes Optimierungsproblem dargestellt. In den Lernverfahren wird auf die Theorie und teilweise auch auf die Konvergenz eingegangen. Dabei werden auch Vor- und Nachteile der Verfahren angesprochen. In Kapitel 4 werden verschiedene rekurrente Neuronale Netze dargestellt. Anschlieend werden verschiedene Lernverfahren fur diese Netze erlautert, die sich aus den Verfahren fur Feedforward Netze ableiten lassen. Auerdem wird in Kapitel 4.6 die Stabilitat rekurrenter Neuronaler Netze untersucht. In Kapitel 4.7 wird die Boltzmann Maschine als eine Anwendung des Hopfield-Netzes mit einem, auf der Idee des Simulated Annealing beruhenden, Lernverfahren erlautert. Kapitel 5 stellt Verfahren zur Minimierung von Neuronalen Netzen vor. Kapitel 6 zeigt eine Anwendung Neuronaler Netze in der Verkehrszeichenerkennung. Es wird erklart, wie die Bilder be