Stellt euch ein KI-System vor, das automatisiert faire Entscheidungen über die Einladung zum Bewerbungsgespräch auf Basis von Bewerbungsunterlagen treffen soll. Klingeln da bei euch die Alarmglocken? Wenn ja: Zu Recht! Der EU AI Act stuft ein solches System als Hochrisikosystem ein. Wir schauen uns ein solches System heute genauer an und klären: Was bedeutet eigentlich Fairness in Bezug auf KI? Wie kann man prüfen, ob ein KI-System zu fairen Entscheidungen führt? Und was hat das alles mit menschlicher Autonomie zu tun?
+++
Janine Strotherm ist Mathematikerin und Mitarbeiterin der Universität Bielefeld. Im Projekt "Water Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug auf faire Verteilung von Wasserressourcen.
+++
Linkliste- Lee (2018), Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management. Big Data & Society.
- Starke et al. (2022), Fairness perceptions of algorithmic decision-making: A systematic review of the empirical literature. Big Data & Society.
- Strotherm et al. (2023), Fairness in KI-Systemen. arXiv.
- Fiske: Stereotype Content Model
- Eckes (2002), Paternalistic and Envious Gender Stereotypes: Testing Predictions from the Stereotype Content Model. Sex Roles.
- DuBois: The Philadelphia N-Wort
- Paaßen et al. (2019), Dynamic fairness – Breaking vicious cycles in automatic decision making. ESANN 2019.
- Race Norming
- COMPAS Software
- Knibbe (2021), Fairness in Question: Do Music Recommendation Algorithms Value Diversity? Music Tomorrow.
- Torabi (2023), The Inner Workings of Spotify’s AI-Powered Music Recommendations: How Spotify Shapes Your Playlist. Medium.
- Henry et al. (2024), Impacts of AI on Music Consumption and Fairness. Emerging Media.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!- Unsere E-Mail-Adresse: [email protected]
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.