
Sign up to save your podcasts
Or
Maschinen entscheiden längst über Menschen. Wie verhindern wir, dass sie ungerecht urteilen? Regulierung allein helfe kaum, sagt Matthias Spielkamp von Algorithmwatch.
Zahlreiche Entscheidungen und Einschätzungen werden in unserem Alltag heute bereits von Algorithmen und künstlicher Intelligenz mitgetroffen: Sie sind es, die den Newsfeed auf Facebook sortieren, sie sind es aber auch, die die Plausibilität von Steuererklärungen in Deutschland prüfen oder Jobbewerber vorsortieren. Das klingt zunächst einmal effizient, modern und neutral – bis sich zeigt, dass auch Maschinen Menschen diskriminieren können. Oder eben Entscheidungen treffen sollen, die auch uns Menschen schwerfallen – etwa beim autonomen Fahren.
Wie aber weist man Diskriminierung nach? Warum treffen Algorithmen so oft Entscheidungen, die gar nicht so neutral sind, wie viele es von Computersystemen erwarten würden? Wie kann man diese Maschinen besser kontrollieren, ihre Entscheidungen im Notfall auch revidieren – und wie treibt man ihnen die Vorurteile wieder aus?
Staaten, aber auch Firmen arbeiten längst an Antworten auf diese Fragen. Pauschale Lösungen gebe es nicht, sagt Matthias Spielkamp von der Nichtregierungsorganisation "Algorithmwatch". Was daran liege, dass die Computersysteme an so unterschiedlichen Stellen eingesetzt würden und ganz unterschiedlich funktionierten. Seine Organisation klärt darüber auf, welche Wirkung Algorithmen haben und wo sie zum Einsatz kommen. Spielkamp versuchte, mit seinen Kolleginnen und Kollegen besser zu erforschen, wie die Schufa arbeitet. Und sie berichteten, wie eine Software in den Niederlanden Sozialbetrüger aufspüren sollte.
Es gehe darum, Softwaresysteme so einzusetzen, dass das Gemeinwohl gefördert, nicht geschwächt werde, sagt Spielkamp. Doch das sei schwer umzusetzen – unter anderem, weil eben sektorspezifisch auf die Algorithmen geschaut werden müsse, statt vermeintlich einfache Lösungen wie einen Algorithmen-TÜV oder politische Regulierungen zu fordern.
[ANZEIGE] Mehr über die Angebote unserer Werbepartnerinnen und -partner finden Sie HIER.
[ANZEIGE] Mehr hören? Dann testen Sie unser Podcast-Abo mit Zugriff auf alle Dokupodcasts und unser Podcast-Archiv. Jetzt 4 Wochen kostenlos testen. Und falls Sie uns nicht nur hören, sondern auch lesen möchten, testen Sie jetzt 4 Wochen kostenlos DIE ZEIT. Hier geht's zum Angebot.
Maschinen entscheiden längst über Menschen. Wie verhindern wir, dass sie ungerecht urteilen? Regulierung allein helfe kaum, sagt Matthias Spielkamp von Algorithmwatch.
Zahlreiche Entscheidungen und Einschätzungen werden in unserem Alltag heute bereits von Algorithmen und künstlicher Intelligenz mitgetroffen: Sie sind es, die den Newsfeed auf Facebook sortieren, sie sind es aber auch, die die Plausibilität von Steuererklärungen in Deutschland prüfen oder Jobbewerber vorsortieren. Das klingt zunächst einmal effizient, modern und neutral – bis sich zeigt, dass auch Maschinen Menschen diskriminieren können. Oder eben Entscheidungen treffen sollen, die auch uns Menschen schwerfallen – etwa beim autonomen Fahren.
Wie aber weist man Diskriminierung nach? Warum treffen Algorithmen so oft Entscheidungen, die gar nicht so neutral sind, wie viele es von Computersystemen erwarten würden? Wie kann man diese Maschinen besser kontrollieren, ihre Entscheidungen im Notfall auch revidieren – und wie treibt man ihnen die Vorurteile wieder aus?
Staaten, aber auch Firmen arbeiten längst an Antworten auf diese Fragen. Pauschale Lösungen gebe es nicht, sagt Matthias Spielkamp von der Nichtregierungsorganisation "Algorithmwatch". Was daran liege, dass die Computersysteme an so unterschiedlichen Stellen eingesetzt würden und ganz unterschiedlich funktionierten. Seine Organisation klärt darüber auf, welche Wirkung Algorithmen haben und wo sie zum Einsatz kommen. Spielkamp versuchte, mit seinen Kolleginnen und Kollegen besser zu erforschen, wie die Schufa arbeitet. Und sie berichteten, wie eine Software in den Niederlanden Sozialbetrüger aufspüren sollte.
Es gehe darum, Softwaresysteme so einzusetzen, dass das Gemeinwohl gefördert, nicht geschwächt werde, sagt Spielkamp. Doch das sei schwer umzusetzen – unter anderem, weil eben sektorspezifisch auf die Algorithmen geschaut werden müsse, statt vermeintlich einfache Lösungen wie einen Algorithmen-TÜV oder politische Regulierungen zu fordern.
[ANZEIGE] Mehr über die Angebote unserer Werbepartnerinnen und -partner finden Sie HIER.
[ANZEIGE] Mehr hören? Dann testen Sie unser Podcast-Abo mit Zugriff auf alle Dokupodcasts und unser Podcast-Archiv. Jetzt 4 Wochen kostenlos testen. Und falls Sie uns nicht nur hören, sondern auch lesen möchten, testen Sie jetzt 4 Wochen kostenlos DIE ZEIT. Hier geht's zum Angebot.
51 Listeners
237 Listeners
127 Listeners
20 Listeners
32 Listeners
60 Listeners
14 Listeners
91 Listeners
81 Listeners
28 Listeners
27 Listeners
15 Listeners
301 Listeners
38 Listeners
7 Listeners
2 Listeners
6 Listeners
3 Listeners
0 Listeners
0 Listeners
2 Listeners
2 Listeners
5 Listeners
3 Listeners
1 Listeners
16 Listeners
8 Listeners
0 Listeners
0 Listeners
0 Listeners