ki:neuron
Dies ist eine alte Version des Dokuments!
Inhaltsverzeichnis
Wiederholung aus Jgst. 11: Künstliches Neuron
Ein künstliches Neuron ist eine Funktion, die $n$ Eingabewerte $x_1, x_2, \ldots, x_n$ entgegennimmt und einen Ausgabewert liefert. Die genaue Funktion des Neurons wird bestimmt durch folgende Konstanten:
- $n$ Gewichte $w_1, w_2, \ldots, w_n$
- den Schwellenwert $\theta$ und
- die Aktivierungsfunktion, z,B. die Heaviside-Funktion $H(x)$.
Der Ausgangswert des Neurons berechnet sich (bspw. mit Heaviside als Aktivierungsfunktion) folgendermaßen: $$H(x_1\cdot w_1 + x_2\cdot w_2 + \ldots + x_n\cdot w_n - \Theta)$$
Die am häufigsten verwendeten Aktivierungsfunktionen sind:
Hier eine überblicksartige graphische Darstellung eines künstlichen Neurons:
Für Interessierte: Warum ist das künstliche Neuron so definiert?
- Um den Eingangswerten $x_1, x_2, \ldots, x_n$ verschieden hohe Bedeutung zuzumessen, werden sie mit den Gewichten $w_1, w_2, \ldots, w_n$ multipliziert: $x_1\cdot w_1 + x_2\cdot w_2 + \ldots + x_n\cdot w_n$
- Fasst man die Werte zu Vektoren $\vec{x} = (x_1\ x_2\ \ldots\ x_n)$ und $\vec{w} = \begin{pmatrix} w_1 \\w_2 \\ \vdots \\w_3 \end{pmatrix}$ zusammen, so kann man die gewichtete Summe als Skalarprodukt auffassen:
$x_1\cdot w_1 + x_2\cdot w_2 + \ldots + x_n\cdot w_n = \vec{x} \circ \vec{w}$
Dieses lässt sich mit modernen Prozessoren sehr schnell berechnen. - Der Schwellenwert $\theta$ modelliert, dass das Neuron erst ab einem bestimmten Wert "feuert".
- Die Aktivierungsfunktion hat die Aufgabe, die Ausgangswerte auf das Intervall $[0; 1]$ abzubilden, also zu normieren. Besonderer Bedeutung kommt der Sigmoid-Funktion zu, da sie stetig und differenzierbar ist und ihre Ableitung sehr leicht berechnet werden kann: $\sigma'(x) = \sigma(x)\cdot(1-\sigma(x))$
Beispiel 1: Erkennen der Baumart anhand von Höhe und Masse
ki/neuron.1767631038.txt.gz · Zuletzt geändert: von Martin Pabst





