Next:
Impressum
KI
1
Impressum
2
Was ist Künstliche Intelligenz?
2.1
Definitionen und Abgrenzungen
2.2
Kernelemente Künstlicher Intelligenz
2.3
Abgrenzung zu benachbarten Disziplinen
3
Geschichte der KI – Von den Anfängen bis heute
3.1
Die Anfänge (1950er - 1970er)
3.2
Der erste KI-Winter (1970er - 1980er)
3.3
Wiederaufleben durch maschinelles Lernen (1980er - 1990er)
3.4
Zweiter KI-Winter (1990er)
3.5
Moderne KI (2000er - heute)
4
Symbolverarbeitende KI vs. Konnektionistische KI
4.1
Symbolverarbeitende KI
4.1.1
Merkmale der symbolverarbeitenden KI:
4.1.2
Vorteile:
4.1.3
Nachteile:
4.2
Konnektionistische KI
4.2.1
Merkmale der konnektionistischen KI:
4.2.2
Vorteile:
4.2.3
Nachteile:
4.3
Vergleich und Anwendungen
5
Ethische und gesellschaftliche Aspekte von KI
5.1
Verantwortung und Transparenz
5.1.1
Herausforderungen:
5.1.2
Lösungsansätze:
5.2
Diskriminierung und Bias
5.2.1
Ursachen für Bias:
5.2.2
Folgen:
5.2.3
Lösungsansätze:
5.3
Arbeitsmarkt und Automatisierung
5.3.1
Auswirkungen:
5.3.2
Lösungsansätze:
5.4
Überwachung und Datenschutz
5.4.1
Herausforderungen:
5.4.2
Lösungsansätze:
6
Der Einfluss von KI auf Wirtschaft und Gesellschaft
6.1
Wirtschaftliche Auswirkungen
6.1.1
Automatisierung und Produktivität
6.1.2
Arbeitsmarktveränderungen
6.1.3
Innovationsförderung
6.2
Gesellschaftliche Auswirkungen
6.2.1
Datenschutz und Überwachung
6.2.2
Soziale Ungleichheit
6.2.3
Ethik und gesellschaftliche Akzeptanz
7
Klassische Wissensverarbeitung und symbolische KI
7.1
Darstellung und Verarbeitung von Wissen
7.1.1
Arten der Wissensrepräsentation
7.1.2
Wissensverarbeitung
7.1.3
Herausforderungen der symbolischen Wissensverarbeitung
8
Grundlagen der Aussagenlogik
8.1
Grundbegriffe der Aussagenlogik
8.1.1
Aussagen und ihre Wahrheitswerte
8.2
Logische Operatoren
8.3
Wahrheitstabellen
8.4
Logische Äquivalenzen und Gesetze
8.4.1
De Morgansche Gesetze:
8.4.2
Idempotenzgesetz:
8.4.3
Kommutativität:
8.4.4
Assoziativität:
8.4.5
Distributivität:
8.5
Anwendungen der Aussagenlogik in der KI
9
Prädikatenlogik und Wissensrepräsentation
9.1
Grundlagen der Prädikatenlogik
9.1.1
Elemente der Prädikatenlogik
9.1.2
Beispiele
9.2
Wissensrepräsentation mit Prädikatenlogik
9.2.1
Beispiel: Familienbeziehungen
9.2.2
Anwendungen der Prädikatenlogik
9.3
Herausforderungen der Prädikatenlogik
10
Prolog Beispiel
10.1
Familienbeziehungen
10.2
Definition der Wissensbasis in Prolog
10.2.1
Erklärung der Prädikate
10.3
Beispielhafte Anfragen und Ergebnisse
10.3.1
Wer sind die Eltern von Anna?
10.3.2
Hat Anna Geschwister?
10.3.3
Wer sind die Großeltern von Lena?
11
Regelbasierte Systeme und Expertensysteme
11.1
Einführung
11.2
Regelbasierte Systeme
11.2.1
Aufbau eines regelbasierten Systems
11.2.2
Beispiel für ein regelbasiertes System
11.2.3
Vor- und Nachteile regelbasierter Systeme
11.3
Expertensysteme
11.3.1
Komponenten eines Expertensystems
11.3.2
Beispiel: Medizinisches Expertensystem
11.3.3
Anwendungsgebiete von Expertensystemen
11.3.4
Vor- und Nachteile von Expertensystemen
12
Semantische Netze und Frames
12.1
Semantische Netze
12.1.1
Struktur eines Semantischen Netzes
12.1.2
Beispiel eines Semantischen Netzes
12.1.3
Vorteile von Semantischen Netzen
12.1.4
Nachteile von Semantischen Netzen
12.2
Frames
12.2.1
Struktur eines Frames
12.2.2
Vorteile von Frames
12.2.3
Nachteile von Frames
12.3
Vergleich: Semantische Netze vs. Frames
12.4
Anwendungen von Semantischen Netzen und Frames
13
Probleme klassischer symbolischer KI
13.1
Wissensakquisitionsproblem
13.2
Skalierungsproblem
13.3
Problem der Unsicherheit
13.4
Anpassungs- und Lernproblem
13.5
Natürlichsprachliche Verarbeitung
14
Neuronale Netze und maschinelles Lernen
14.1
Biologische Inspiration: Das menschliche Gehirn als Vorbild
14.2
Aufbau des biologischen Gehirns
14.2.1
Eigenschaften biologischer Neuronen
14.2.2
Struktur eines Neurons
14.3
Parallelen zwischen biologischen und künstlichen Neuronen
14.4
Grundprinzip der Informationsverarbeitung
14.4.1
Hebbsche Lernregel
14.5
Vorteile der biologischen Inspiration für KI
15
Das künstliche Neuron und seine mathematische Modellierung
15.1
Einführung
15.2
Mathematisches Modell eines Neurons
15.2.1
Erklärung der Parameter:
15.2.2
Verarbeitungsschritte:
15.3
Aktivierungsfunktionen
15.3.1
Wichtige Aktivierungsfunktionen
15.4
Beispiel: Berechnung eines Neurons
15.4.1
Gegeben:
15.4.2
Schrittweise Berechnung
15.4.3
Ergebnis:
16
Architektur künstlicher neuronaler Netze
16.1
Einführung
16.2
Grundlegende Struktur eines neuronalen Netzes
16.3
Arten von neuronalen Netzarchitekturen
16.3.1
Feedforward-Neuronale Netze (FNN)
16.3.2
Konvolutionale neuronale Netze (CNNs)
16.3.3
Rekurrente neuronale Netze (RNNs)
16.3.4
Transformer-Architekturen
16.4
Tiefe vs. Breite eines neuronalen Netzes
17
Trainingsmethoden: Backpropagation und Gradientenabstieg
17.1
Einführung
17.2
Backpropagation (Fehlerrückführung)
17.2.1
Grundprinzip
17.2.2
Mathematische Grundlage
17.3
Gradientenabstieg
17.3.1
Formel für die Gewichtsaktualisierung
17.4
Varianten des Gradientenabstiegs
17.4.1
Batch-Gradientenabstieg
17.4.2
Stochastischer Gradientenabstieg (SGD)
17.4.3
Mini-Batch-Gradientenabstieg
17.5
Erweiterungen des Gradientenabstiegs
18
Convolutional Neural Networks (CNNs)
18.1
Einführung
18.2
Aufbau eines CNN
18.3
Faltungsschicht (Convolutional Layer)
18.3.1
Mathematische Darstellung
18.4
Pooling-Schicht
18.4.1
Wichtige Pooling-Methoden
18.5
Fully Connected Layer
18.5.1
Beispiel für eine Klassifikation
18.6
Anwendungsbereiche von CNNs
19
Rekurrente neuronale Netze (RNNs) und Long Short-Term Memory (LSTM)
19.1
Einführung
19.2
Architektur eines RNN
19.2.1
Mathematische Darstellung
19.2.2
Probleme klassischer RNNs
19.3
Long Short-Term Memory (LSTM)
19.3.1
Architektur eines LSTM
19.3.2
Vorteile von LSTM
19.4
Anwendungen von RNNs und LSTMs
20
Deep Learning: Fortschritte und Herausforderungen
20.1
Einführung
20.2
Fortschritte im Deep Learning
20.2.1
Leistungsfähigere Architekturen
20.2.2
Effizientere Optimierungsverfahren
20.2.3
Skalierbarkeit durch Hardware-Fortschritte
20.2.4
Anwendungen und Durchbrüche
20.3
Herausforderungen im Deep Learning
20.3.1
Datenbedarf und Qualität
20.3.2
Hoher Rechenaufwand
20.3.3
Überanpassung und Robustheit
20.3.4
Ethische und gesellschaftliche Fragen
21
Das Paper „Attention is All You Need“
21.1
Einführung
21.2
Problemstellung und Motivation
21.3
Kernidee: Self-Attention statt Rekurrenz
21.3.1
Self-Attention Mechanismus
21.4
Architektur des Transformers
21.5
Warum ist der Transformer so erfolgreich?
21.6
Anwendungen und Weiterentwicklungen
22
Self-Attention und die Bedeutung für maschinelles Lernen
22.1
Einführung
22.2
Was ist Self-Attention?
22.2.1
Beispiel: Self-Attention in einem Satz
22.3
Mathematische Darstellung von Self-Attention
22.3.1
Erklärung:
22.4
Multi-Head Self-Attention
22.5
Bedeutung von Self-Attention für maschinelles Lernen
22.5.1
Effizienz und Parallelisierung
22.5.2
Langfristige Abhängigkeiten
22.5.3
Flexibilität in verschiedenen Anwendungsbereichen
22.6
Anwendungen von Self-Attention
23
Architektur von Transformers und ihre Funktionsweise
23.1
Einführung
23.2
Gesamtarchitektur eines Transformers
23.2.1
Überblick über den Aufbau
23.3
Detaillierte Architektur
23.3.1
Eingabeverarbeitung
23.3.2
Encoder-Schicht
23.3.3
Decoder-Schicht
23.4
Warum ist der Transformer so leistungsfähig?
23.5
Anwendungen von Transformer-Modellen
24
Anwendungen von Transformers in NLP und Bildverarbeitung
24.1
Einführung
24.2
Anwendungen von Transformers in NLP
24.2.1
Maschinelle Übersetzung
24.2.2
Textgenerierung & Sprachmodelle
24.2.3
Frage-Antwort-Systeme & Suchmaschinen
24.2.4
Zusammenfassungen & Textklassifikation
24.2.5
Sprachsynthese & Spracherkennung
24.3
Anwendungen von Transformers in der Bildverarbeitung
24.3.1
Vision Transformer (ViT)
24.3.2
Objekterkennung & Bildsegmentierung
24.3.3
Bildgenerierung & Stiltransfer
24.3.4
Medizinische Bildanalyse
24.4
Vergleich: Transformer in NLP vs. Bildverarbeitung
25
Vergleich von Transformers mit klassischen neuronalen Netzen
25.1
Einführung
25.2
Vergleich: Transformer vs. RNNs (LSTMs, GRUs)
25.2.1
Fazit:
25.3
Vergleich: Transformer vs. CNNs
25.3.1
Fazit:
25.4
Anwendungsbereiche
25.5
Vor- und Nachteile von Transformers gegenüber klassischen neuronalen Netzen
25.5.1
Wann sind
Transformers
besser?
25.5.2
Wann sind
klassische neuronale Netze besser?
26
Grundlagen großer Sprachmodelle
26.1
Einführung
26.2
Architektur großer Sprachmodelle
26.2.1
Transformer als Basis
26.2.2
Self-Attention und Kontextverständnis
26.3
Skalierung großer Sprachmodelle
26.3.1
Skalierungsgesetze (Scaling Laws)
26.3.2
Datenquellen und Vortraining
26.4
Typen großer Sprachmodelle
26.4.1
Autoencoder-Modelle (z. B. BERT, T5)
26.4.2
Autoregressive Modelle (z. B. GPT-Serie, LLaMA)
26.4.3
Encoder-Decoder-Modelle (z. B. T5, BART)
26.5
Herausforderungen großer Sprachmodelle
27
Trainingsmethoden für LLMs
27.1
Einführung
27.2
Pretraining: Der erste Schritt zur Generalisierung
27.2.1
Arten des Pretrainings
27.3
Fine-Tuning: Anpassung an spezifische Aufgaben
27.3.1
Supervised Fine-Tuning
27.4
In-Context Learning: Lernen ohne Gewichtsaktualisierung
27.5
Reinforcement Learning mit menschlichem Feedback (RLHF)
27.5.1
Ablauf von RLHF
27.5.2
Algorithmen für RLHF
27.6
Effizienzsteigerung beim Training
27.6.1
Datenparalleles Training
27.6.2
Model Parallelism (Modellparallelisierung)
27.6.3
Quantisierung & Sparsity-Techniken
27.7
Fazit
28
Anwendungen und Grenzen von LLMs
28.1
Anwendungen großer Sprachmodelle (LLMs)
28.1.1
Natürliche Sprachverarbeitung (NLP)
28.1.2
Programmierung und Softwareentwicklung
28.1.3
Medizinische Diagnostik und Forschung
28.1.4
Bildung & Forschung
28.1.5
Rechtswesen & Automatisierte Vertragsanalyse
28.2
Grenzen und Herausforderungen von LLMs
28.2.1
Halluzinationen und Fehleranfälligkeit
28.2.2
Bias und ethische Herausforderungen
28.2.3
Rechenaufwand und Umweltkosten
28.2.4
Mangelnde Interpretierbarkeit
29
Bias, Halluzinationen und ethische Fragen in LLMs
29.1
Einführung
29.2
Bias (Verzerrungen in KI-Modellen)
29.2.1
Ursachen von Bias in LLMs
29.2.2
Beispiele für Bias in LLMs
29.2.3
Strategien zur Reduzierung von Bias
29.3
Halluzinationen (Falsche oder erfundene Antworten)
29.3.1
Ursachen von Halluzinationen
29.3.2
Beispiele für Halluzinationen
29.3.3
Strategien zur Reduzierung von Halluzinationen
29.4
Ethische Herausforderungen
29.4.1
Desinformation und Manipulation
29.4.2
Automatisierte Diskriminierung
29.4.3
Missbrauch für Cyberkriminalität
29.4.4
Übermäßige Automatisierung
30
Der richtige Einsatz von KI als Werkzeug
30.1
Einführung
30.2
KI als Unterstützung, nicht als Ersatz
30.3
KI als Werkzeug für Produktivität
30.3.1
Automatisierung repetitiver Aufgaben
30.3.2
KI in kreativen und wissenschaftlichen Prozessen
30.4
Grenzen der KI: Wo menschliche Expertise unverzichtbar bleibt
30.5
Best Practices für den sinnvollen KI-Einsatz
31
Fortschritte und Trends in der KI-Entwicklung
31.1
Einführung
31.2
Fortschritte in der Modellarchitektur
31.2.1
Effizientere und kleinere Modelle
31.2.2
Multimodale KI: Integration von Text, Bild, Audio und Video
31.3
Neue Optimierungstechniken und Rechenleistung
31.3.1
Revolution in der Hardware: KI-spezialisierte Chips
31.3.2
Selbstoptimierende und selbstlernende Modelle
31.4
Fortschritte in spezialisierter KI
31.4.1
Domänenspezifische Modelle statt General-Purpose-LLMs
31.5
Künstliche Intelligenz und ethische Herausforderungen
32
Realität vs. Science-Fiction: Der Mythos der AGI
32.1
Einführung
32.2
Definition: Was ist AGI?
32.3
Science-Fiction vs. Realität: Typische KI-Mythen
32.3.1
Mythos 1: “KI denkt wie ein Mensch.”
32.3.2
Mythos 2: “KI kann eigenständig Pläne schmieden und handeln.”
32.3.3
Mythos 3: “KI ist eine Bedrohung für die Menschheit.”
32.4
Technische Herausforderungen auf dem Weg zur AGI
32.5
Ist AGI in absehbarer Zeit realistisch?
32.5.1
Zwei gegensätzliche Ansichten in der Forschung
33
Warum „echte“ AGI unwahrscheinlich bleibt
33.1
Einführung
33.2
AGI erfordert fundamentale Durchbrüche
33.2.1
KI ≠ menschliche Intelligenz
33.2.2
Heutige KI-Modelle sind skalierte Statistik, keine Intelligenz
33.3
Technische Grenzen auf dem Weg zur AGI
33.3.1
Keine allgemeine Lernfähigkeit
33.3.2
Fehlendes Bewusstsein und Selbstreflexion
33.3.3
Unüberwindbare Rechen- und Speichergrenzen
33.4
Philosophische und theoretische Grenzen
33.4.1
Kann „echte Intelligenz“ überhaupt programmiert werden?
33.5
Die Realität: Fortschritt in spezialisierter KI, nicht in AGI
34
Absehbare Entwicklungen und Auswirkungen auf den Arbeitsmarkt
34.1
Einführung
34.2
Absehbare Entwicklungen in der KI-Technologie
34.2.1
KI wird effizienter, spezialisierter und autonomer
34.2.2
KI-Automatisierung schreitet weiter voran
34.3
Auswirkungen auf den Arbeitsmarkt
34.3.1
Jobs, die durch KI gefährdet sind
34.3.2
Jobs, die sich durch KI verändern werden
34.3.3
Jobs, die KI nicht ersetzen kann
34.4
Anforderungen an zukünftige Arbeitskräfte
34.5
KI als Chance oder Gefahr für den Arbeitsmarkt?
35
Fazit und offene Fragen für die Zukunft
35.1
Was wir bereits sicher wissen:
35.2
Offene Fragen für die Zukunft
35.2.1
Wird AGI überhaupt realisierbar sein?
35.2.2
Wie wird sich KI auf den Arbeitsmarkt langfristig auswirken?
35.2.3
Welche ethischen Grenzen muss KI respektieren?
35.2.4
Wird KI demokratisiert oder zentralisiert?
35.2.5
Wie verändert KI unser Verständnis von Wissen und Wahrheit?
35.3
Ausblick: Die nächsten Schritte in der KI-Entwicklung