Deep Learning ist ein Teilbereich des maschinellen Lernens, der sich durch den Einsatz tiefer neuronaler Netze (mehrere versteckte Schichten) auszeichnet. Diese Netze ermöglichen die Verarbeitung großer Datenmengen und die Erkennung hochkomplexer Muster. Durch Fortschritte in Rechenleistung, Algorithmen und Datenverfügbarkeit hat sich Deep Learning in vielen Bereichen als dominierende KI-Technologie etabliert.
📌 Beispiel: Transformer-Modelle ermöglichen maschinelle Übersetzung, Textgenerierung und Sprachverarbeitung auf einem neuen Level.
📌 Beispiel: Deep Learning-Modelle können heute mit weniger Daten und schnellerer Konvergenz trainiert werden als vor wenigen Jahren.
📌 Beispiel: Modelle wie GPT-4 oder DALL·E erfordern Millionen von GPU-Stunden für das Training.
✅ Computer Vision: Bildklassifikation,
Objekterkennung, medizinische Bildanalyse
✅ Sprachverarbeitung (NLP): Chatbots,
Übersetzungsmodelle, Stimmenerkennung
✅ Generative KI: Text-, Bild- und Videoerzeugung
(Stable Diffusion, Midjourney, DALL·E)
✅ Autonomes Fahren: Sensorfusion und Echtzeitanalyse
zur Umgebungswahrnehmung
📌 Beispiel: DeepMind AlphaFold hat die Proteinfaltung revolutioniert und beschleunigt die Medikamentenentwicklung.
🔹 Deep Learning benötigt riesige Datenmengen, um
leistungsfähig zu sein.
🔹 Ungleichgewicht in Datensätzen führt zu Verzerrungen
und unzuverlässigen Ergebnissen.
🔹 Mangelnde Erklärbarkeit: Warum ein Modell eine
bestimmte Entscheidung trifft, ist oft nicht nachvollziehbar.
📌 Beispiel: Ein autonomes Fahrsystem, das überwiegend mit Daten aus Sonnenschein-Szenarien trainiert wurde, könnte bei starkem Regen unzuverlässig sein.
🔹 Training großer Modelle ist kostspielig und
benötigt spezialisierte Hardware (GPUs, TPUs).
🔹 Energieverbrauch und CO₂-Emissionen sind bei sehr
großen Netzen ein Problem.
🔹 Echtzeit-Anwendungen erfordern Optimierung für mobile Geräte
und Edge-Computing.
📌 Beispiel: Training eines großen Sprachmodells kann so viel Strom verbrauchen wie eine Kleinstadt.
🔹 Overfitting: Modelle passen sich zu stark an
Trainingsdaten an und generalisieren schlecht.
🔹 Adversarial Attacks: Kleinste gezielte Änderungen in
den Eingaben können Deep Learning-Modelle täuschen.
🔹 Vertrauenswürdigkeit: KI kann Fehler machen, die ein
Mensch niemals machen würde.
📌 Beispiel: Ein Bildklassifikationsmodell könnte ein verkehrtes Stoppschild als harmloses Straßenschild interpretieren.
🔹 Bias in KI-Modellen: Diskriminierung durch
unausgewogene Trainingsdaten.
🔹 Halluzinationen in generativer KI: KI-Modelle
erfinden Inhalte, die nicht der Realität entsprechen.
🔹 Jobmarktveränderungen: Automatisierung verdrängt
klassische Berufe, schafft aber auch neue.
📌 Beispiel: Gesichtserkennungssysteme haben oft Schwierigkeiten mit dunkleren Hauttönen, weil Trainingsdaten überwiegend aus weißen Gesichtern bestehen.