📷 Ultimamente avrete sicuramente sentito parlare di modelli generativi di immagini. Potrebbe quasi sembrare che funzionino quasi per magia, tuttavia presentano diversi problemi. Ne parliamo con Federico Bianchi, Postdoctctoral Researcher a Stanford. ⚠️ Questi modelli possono generare infinite immagini ma, considerando che possiamo scrivere infiniti prompt, è possibile che ci siano dei bias. Come possiamo individuarli ed eliminarli? Solitamente si agisce sui dati di training o sul modello? 📣 Il problema dei bias è estremamente importante, anche per le eventuali conseguenze che potrebbero verificarsi a seconda dell' uso che si può fare dei generatori di immagini. Con Federico abbiamo parlato di questo e di tanto altro, Se l'argomento vi incuriosisce non perdetevi la nostra intervista!
Unitevi al nostro gruppo Telegram per discutere della puntataNote della puntata
Il paper di Federico - Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large ScaleMultimodal datasets: misogyny, pornography, and malignant stereotypesNot Yet Human: Implicit Knowledge, Historical Dehumanization, and Contemporary ConsequencesRisk assessment process Open AII nostri contatti:
Gruppo TelegramCanale TelegramInstagramFacebookTwitterMailTwitch