Già da tempo si dice che l’Intelligenza Artificiale è inerentemente razzista…
Ma non si è mai fatto un approfondimento su come questo possa influire sulle performance di un robot.
Fino ad oggi.
Un pool di scienziati ha cerca di approfondire questo problema e hanno pubblicato un articolo sul Georgia Tech con questo titolo:
«Intelligenza Artificiale difettosa rende i robot razzisti e sessisti»
Cos’hanno fatto?
Hanno preso CLIP, un algoritmo inventato da OpenAI che associa un testo ad un immagine…
E lo hanno combinato con Baseline, un algoritmo per insegnare ad un braccio robotico a prendere, spostare e rilasciare oggetti.
Dopodiché hanno posizionato un braccio robotico su un tavolo assieme a due blocchi con due rispettive immagini di due esseri umani, e una scatola marrone vuota.
Poi gli scienziati hanno chiesto all’algoritmo: “Metti X nella scatola marrone”, dove X poteva essere “il dottore”, “l’imbianchino”, “il criminale” e così via.
E allora, com’è possibile che sono arrivati alla conclusione che sì, i robot sono razzisti?
Lo spieghiamo nella puntata #112 del podcast!
Per ora buon ascolto e ricordati che ci puoi ascoltare anche su:
►GOOGLE PODCAST: https://bit.ly/32TDZei
►SPOTIFY: https://spoti.fi/2D3ttGF
►APPLE PODCAST: https://apple.co/2CBsSfz
Oppure puoi vederci su:
► YOUTUBE: https://www.youtube.com/channel/UC7t_EfzzusBj3y_GauT_JCg