Die künstliche Intelligenz hat in den Wissenschaften einen Siegeszug ohne Beispiel angetreten. Neuronale Netze oder Maschinenlernen erlauben in den unterschiedlichsten Forschungsdisziplinen dort schnelle und überraschende Ergebnisse zu erzielen, wo große Datenmengen für das Training der KI zur Verfügung stehen. Das Problem: die Forschenden verstehen nicht wirklich, wie das neuronale Netz zu bestimmten Ergebnissen kommt. Dieses so genannte Blackbox-Problem der KI hat Forschenden, die damit arbeiten den Vorwurf eingebracht, gar nicht wirklich Wissenschaft zu betreiben, sondern nur eine Art von Engineering. Ethisch bedenklich wird dieses Problem bei der Anwendung von KI in sozial sensiblen Bereichen wie etwa der Vergabe von Krediten oder der Auswahl geeigneter BewerberInnen für einen Arbeitsplatz. Wer hier den Entscheidungen der KI blind vertraut, geht ein hohes Risiko ein. Deshalb sind die Versuche die Blackbox-KI in eine mehr oder weniger transparente Glassbox-KI zu verwandeln, zu einer Frontlinie der Forschung geworden. Auch am Scientific Computing Center des Karlsruher Instituts für Technologie arbeitet man an der sogenannten Explainable AI, der erklärbaren KI und versucht die Geheimnisse der Black-Box ein Stück weit zu lüften.
Gesprächspartner: Prof. Nadja Klein, Tim Bündert, Scientific Computing Center
Campus Report vom 21. Oktober 2025