Judith Zoë Blijden, filosoof en jurist bij Hooghiemstra & Partners, bespreekt in deze aflevering van AIToday Live hoe AI-systemen onze maatschappelijke waarden en vooroordelen weerspiegelen. Ze legt uit dat technologie niet los staat van de samenleving en dat de keuzes van ontwikkelaars en de gebruikte data invloed hebben op de resultaten van AI-systemen.
Aan de hand van concrete voorbeelden, zoals het Amazon recruitmentproject en onderzoek naar gezichtsherkenning, illustreert Judith hoe AI onbedoeld discriminatie kan versterken. Ze benadrukt het belang van contextafhankelijke rechtvaardigheid en pleit voor bescheidenheid bij de ontwikkeling en toepassing van AI-technologie.
Judith stelt dat AI een hulpmiddel is, geen samenwerkingspartner, en waarschuwt voor de beperkingen van online data bij het trainen van AI-modellen. Ze bespreekt ook het belang van uitlegbaarheid in AI-systemen en sluit af met een verrassende visie op een meer collectieve AI-ervaring.
Onderwerpen
- De spiegelfunctie van AI en maatschappelijke waarden
- Voorbeelden van vooroordelen in AI-systemen
- Rechtvaardigheid en contextafhankelijkheid in AI
- Beperkingen van online data voor AI-training
- De rol van bescheidenheid bij AI-ontwikkeling
Links- Podcast: AIToday Live podcast
- Organisatie: Hooghiemstra & Partners
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Hooghiemstra & Partners - Amazon - Meta
Stuur ons een bericht
Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!