Gli algoritmi di valutazione, se addestrati su dati storici distorti, possono perpetuare – o persino amplificare – le disuguaglianze esistenti.»
È l’avvertimento che accompagna ogni discussione seria sull’intelligenza artificiale a scuola: la promessa di un apprendimento personalizzato convive con il rischio di rendere invisibili i bias dietro una riga di codice.
Oggi a EduTech Frontiers incontriamo Claudia Caperna, fondatrice di Boosted AI: una startup che prova a stare esattamente su quella linea di confine, costruendo sistemi di adaptive learning capaci di modellare il percorso didattico sul singolo studente, ma con un’ossessione per la trasparenza e l’etica. Perché – come ricorda l’UNESCO – «l’AI deve integrare le dimensioni umane e sociali dell’apprendimento, non sostituirle.»
Parliamo di come un modello predittivo possa suggerire il prossimo esercizio perfetto, ma anche di come si disinnesca il pregiudizio nascosto nei dataset; di feedback immediato che libera tempo per la relazione docente-studente; di scuole che sperimentano dashboard in tempo reale.
E guarderemo avanti: quali salti tecnologici attendono l’AI educativa? Quali competenze serviranno a chi, domani, dovrà non solo usare questi strumenti, ma progettarli in modo responsabile?
Mettetevi comodi: sta per iniziare un viaggio tra algoritmi, umanità e la possibilità concreta di una scuola aumentata, ma ancora profondamente centrata sulle persone.