15 Das künstliche Neuron und seine mathematische Modellierung

15.1 Einführung

Ein künstliches Neuron ist die grundlegende Recheneinheit eines künstlichen neuronalen Netzes (KNN). Es ist inspiriert durch die Funktionsweise biologischer Neuronen, basiert jedoch auf einer mathematischen Modellierung. Künstliche Neuronen empfangen Eingaben, gewichten sie, summieren sie und erzeugen eine Ausgabe, die durch eine Aktivierungsfunktion bestimmt wird.


15.2 Mathematisches Modell eines Neurons

Ein künstliches Neuron kann formal als mathematische Funktion beschrieben werden:

y = f(Σ (wᵢxᵢ) + b)

15.2.1 Erklärung der Parameter:

15.2.2 Verarbeitungsschritte:

  1. Gewichtete Summe der Eingaben
    z = Σ (wᵢxᵢ) + b

  2. Anwendung der Aktivierungsfunktion
    y = f(z)


15.3 Aktivierungsfunktionen

Die Aktivierungsfunktion f(z) bestimmt, ob das Neuron aktiviert wird und in welcher Form die Ausgabe erfolgt.

15.3.1 Wichtige Aktivierungsfunktionen

Aktivierungsfunktion Definition Eigenschaften
Schritt-Funktion (Threshold Function) f(z) = 1 falls z ≥ 0, sonst 0 Veraltet, nur binäre Entscheidungen
Sigmoid-Funktion f(z) = 1 / (1 + e⁻ᶻ) Glättet Werte zwischen 0 und 1, problematisch bei großen z (Vanishing Gradient)
Hyperbolische Tangens (tanh) f(z) = (e^z - e⁻ᶻ) / (e^z + e⁻ᶻ) Wertebereich von -1 bis 1, besser als Sigmoid
ReLU (Rectified Linear Unit) f(z) = max(0, z) Standard in Deep Learning, schnelle Berechnung
Leaky ReLU f(z) = z für z > 0, 0.01z für z < 0 Verhindert „tote Neuronen“

Die Wahl der richtigen Aktivierungsfunktion ist entscheidend für die Effizienz und Lernfähigkeit eines neuronalen Netzes.


15.4 Beispiel: Berechnung eines Neurons

15.4.1 Gegeben:

15.4.2 Schrittweise Berechnung

  1. Gewichtete Summe berechnen:
    z = (0.8 × 0.5) + (-0.6 × -1.2) + 0.3
    z = 0.4 + 0.72 + 0.3 = 1.42

  2. Aktivierungsfunktion anwenden:
    y = max(0, 1.42) = 1.42

15.4.3 Ergebnis:

Das Neuron gibt den Wert 1.42 aus.