Künstliche neuronale Netze (KNN) sind ein zentraler Bestandteil des maschinellen Lernens und orientieren sich an der Funktionsweise des menschlichen Gehirns. Die Grundidee besteht darin, kognitive Prozesse wie Lernen und Mustererkennung durch künstliche Strukturen nachzubilden.
Das menschliche Gehirn besteht aus etwa 86 Milliarden Neuronen, die über Synapsen miteinander verbunden sind. Diese Neuronen sind die fundamentalen Bausteine der Informationsverarbeitung und ermöglichen durch elektrische und chemische Signale komplexe Denkvorgänge.
Ein biologisches Neuron besteht aus:
| Biologisches Neuron | Künstliches Neuron (in einem KNN) |
|---|---|
| Dendriten (Inputs) | Eingabewerte (x₁, x₂, ...) |
| Soma (Zellkörper) | Aktivierungsfunktion |
| Axon (Ausgang) | Neuronaler Output (y) |
| Synapsen (Gewichte) | Gewichtungsmatrix (w₁, w₂, ...) |
Neuronale Netze basieren auf der Annahme, dass Wissen durch Gewichtsanpassungen in den Verbindungen gespeichert wird. Ähnlich wie biologische Neuronen lernen künstliche Netze durch Anpassung der Gewichtungen zwischen Knoten, um Muster zu erkennen und Entscheidungen zu treffen.
Eine der biologischen Lernprinzipien wurde von Donald
Hebb formuliert:
“Neurons that fire together, wire together.”
➡ Je häufiger zwei Neuronen gleichzeitig aktiv sind, desto
stärker wird ihre Verbindung.
Dieses Konzept findet sich in Backpropagation und Gradientenabstieg wieder, die in modernen neuronalen Netzen zur Optimierung der Gewichte genutzt werden.