Dies ist eine alte Version des Dokuments!
Inhaltsverzeichnis
Backpropagation
In den bisherigen Aufgaben dieses Kapitels haben wir anhand vorgegebener gelabelter Testdaten künstliche Neuronen und dann neuronale Netze "von Hand" erstellt, sodass sie die durch die Testdaten vorgegebene Kategorisierung möglichst gut wiedergaben. In der Praxis sind die neuronalen Netze ungleich umfangreicher, sodass diese Vorgehensweise nicht tragfähig ist. Benötigt wird ein Algorithmus, der
- bei vorgegebenen gelabelten Trainingsdaten und
- vorgegebener Struktur des neuronalen Netzes (d.h. Anzahl der Schichten, Anzahl der Neuronen in den Schichten, gegebenen Aktivierungsfunktionen)
Gewichte und die Schwellenwerte ermitteln kann, die das neuronale Netz befähigen, sowohl bei den Trainingsdaten als auch anschließend bei den Testdaten möglichst passende Ausgabewerte zu liefern.
Wir werden in diesem Kapitel die grobe Vorgehensweise eines solchen Algorithmus kennenlernen. Die detaillierten Berechnungen sind nicht Gegenstand des Informatiklehrplans. Interessierten Schülerinnen und Schülern lege ich die Videos von Grant Sanderson dazu (s.u.) sehr ans Herz!
Kostenfunktion
Grant Sandersons Videos (3blue1brown)
Es gibt eine Video-Reihe zu neuronalen Netzen von Grant Sanderson (Youtube-Kanal 3blue1brown), deren Qualität so hervorragend ist, dass Sie sie unbedingt ansehen sollten. Sie ergänzt und vertieft die Ausführungen in diesem Skript auf sehr gute Art und Weise und Weise!
Hier der Link zur kompletten Playlist in Youtube.
Vieles in den Videos ist natürlich nicht lehrplanrelevant, insbesondere die Videos zu Large Language Models (LLMs).
Nachfolgend die Videos aus der Liste, die Sie sich unbedingt ansehen sollten.
1. Einführung in neuronale Netze
2. Kostenfunktion, Gradientenverfahren
3. Backpropagation (intuitiv)
4. Backpropagation (Analysis)
Bemerkung: Dieses Video geht weit über die Inhalte hinaus, die der Lehrplan vorsieht.
