| Bemerkung |
Diese Vorlesung baut auf den Grundlagen der KI auf und führt in aktuelle Methoden des maschinellen Lernens ein. Ein zentraler Schwerpunkt liegt auf modernen neuronalen Netzen, insbesondere Transformer-Architekturen wie GPT und BERT, die beispielsweise in Sprachmodellen oder Übersetzungssystemen eingesetzt werden. Dabei werden sowohl die theoretischen Grundlagen als auch praktische Anwendungen im Bereich Natural Language Processing behandelt. Ein weiteres Kernthema ist Reinforcement Learning, das für autonome Systeme und adaptive Agenten relevant ist. Hier lernen Sie Algorithmen wie Q-Learning oder Deep Q-Networks (DQN) kennen und beschäftigen sich mit Konzepten wie der Bellman-Gleichung und Markov-Entscheidungsprozessen. Darüber hinaus werden Optimierungsverfahren für KI-Modelle thematisiert – von Hyperparameter-Tuning mit Methoden wie Bayesian Optimization bis hin zu Feature-Engineering-Techniken, die die Leistungsfähigkeit von Modellen verbessern. Ein besonderer Fokus liegt auf der Interpretierbarkeit von KI-Systemen (Explainable AI, XAI). Sie lernen, wie sich Entscheidungen komplexer Modelle mit Ansätzen wie SHAP oder LIME nachvollziehen und erklären lassen. Die Vorlesung richtet sich an Studierende, die bereits über KI-Grundwissen verfügen und ihr Verständnis für fortschrittliche Methoden vertiefen möchten – sei es für die Forschung oder die praktische Anwendung in Bereichen wie maschinelles Lernen, Sprachverarbeitung oder autonomen Systemen.
|