Inhalt: Prozessentscheidungen, die auf Algorithmisierung und Automatisierung basieren, werden in der Öffentlichkeit als intransparente Black-Box-Systeme wahrgenommen. Die zugrunde liegende Künstliche Intelligenz (KI) wird von den betreibenden Unternehmen zumeist bewusst intransparent gehalten, um ökonomische Wettbewerbvorteile zu sichern und zu erweitern. Im Zuge der Trainings- und Test-Epochen von KI-Algorithmen ergeben sich nahezu immer Probleme bzgl. der Repräsentativität der vorhandenen Daten, die zu KI-Modellen führen, die offensichtlich diskriminierend/unfair sind. Praxisbeispiele umfassen u.a. Studienplatzvergabe, Kreditüberprüfung, Preisdifferenzierungspolitik, Crime Prediction, biased Google query results auf Basis von ethnischen Merkmalen etc.
Dieser Teil der Wissenschaftlichen Methoden beleuchtet den Schattenkegel der zugrunde liegenden KI, präziser die zugrunde liegenden Modelle des Maschinellen Lernens (ML). Anhand ausgewählter use cases u.a. aus HR Analytics, Banking oder Crime Prediction erlernen die Studierenden neben den formalen Aspekten des Wissenschaftlichen Arbeitens Tools und Methoden des Maschinellen Lernens, die sie in Teamarbeit einsetzen, um sowohl Vorhersagen zu erstellen als auch Algorithmen auf Fairness/Bias zu analysieren. Dabei werden Methoden und Tools aus Statistik und ML, wie z.B. aus Angewandte Datenwissenschaft (3. Semester) wiederholt, erweitert und in Python angewandt. Die erarbeiteten Ergebnisse resultieren in einer schriftlichen Ausarbeitung sowie einer Team-Präsentation mit anschließender Diskussion.
Anmeldung: Zentral
- Dozent/in: Jianing Zhang