Ein künstliches Neuron ist die grundlegende Recheneinheit eines künstlichen neuronalen Netzes (KNN). Es ist inspiriert durch die Funktionsweise biologischer Neuronen, basiert jedoch auf einer mathematischen Modellierung. Künstliche Neuronen empfangen Eingaben, gewichten sie, summieren sie und erzeugen eine Ausgabe, die durch eine Aktivierungsfunktion bestimmt wird.
Ein künstliches Neuron kann formal als mathematische Funktion beschrieben werden:
y = f(Σ (wᵢxᵢ) + b)
Gewichtete Summe der Eingaben
z = Σ (wᵢxᵢ) + b
Anwendung der Aktivierungsfunktion
y = f(z)
Die Aktivierungsfunktion f(z) bestimmt, ob das Neuron aktiviert wird und in welcher Form die Ausgabe erfolgt.
| Aktivierungsfunktion | Definition | Eigenschaften |
|---|---|---|
| Schritt-Funktion (Threshold Function) | f(z) = 1 falls z ≥ 0, sonst
0 |
Veraltet, nur binäre Entscheidungen |
| Sigmoid-Funktion | f(z) = 1 / (1 + e⁻ᶻ) |
Glättet Werte zwischen 0 und 1, problematisch bei großen
z (Vanishing Gradient) |
| Hyperbolische Tangens (tanh) | f(z) = (e^z - e⁻ᶻ) / (e^z + e⁻ᶻ) |
Wertebereich von -1 bis 1, besser als Sigmoid |
| ReLU (Rectified Linear Unit) | f(z) = max(0, z) |
Standard in Deep Learning, schnelle Berechnung |
| Leaky ReLU | f(z) = z für z > 0, 0.01z
für z < 0 |
Verhindert „tote Neuronen“ |
Die Wahl der richtigen Aktivierungsfunktion ist entscheidend für die Effizienz und Lernfähigkeit eines neuronalen Netzes.
Gewichtete Summe berechnen:
z = (0.8 × 0.5) + (-0.6 × -1.2) + 0.3
z = 0.4 + 0.72 + 0.3 = 1.42
Aktivierungsfunktion anwenden:
y = max(0, 1.42) = 1.42
Das Neuron gibt den Wert 1.42 aus.