In dieser Vorlesung geht es um Neuronale Netze und Large Language Models (LLMs) in Theorie und Praxis. Neuronale Netze bilden heute die technische Grundlage für zentrale Anwendungen der Künstlichen Intelligenz – von Sprachassistenten und Bilderkennung bis hin zur Bild- und Videogenerierung. Neben der Theorie steht die praktische Implementierung in Python im Mittelpunkt. Wir beginnen mit Feedforward-Netzen – ihrer mathematischen Grundlage sowie dem Lernprinzip mit Backpropagation und automatischer Differenzierung. Darauf aufbauend behandeln wir Konvolutions-, rekurrente und Transformer-Netze sowie moderne Transformer-Varianten. Als Anwendungsgebiete dienen Bildverarbeitung und – als Schwerpunkt – neuronale Sprachverarbeitung und LLMs.