TESTO DELL'ARTICOLO ➜ https://www.bastabugie.it/8375
ORA AI VOSTRI FIGLI CI PENSA L'INTELLIGENZA ARTIFICIALE... COSA POTREBBE ANDARE STORTO?
Nel panorama in continua evoluzione dell'intelligenza artificiale, stanno prendendo piede nuove piattaforme che propongono chatbot dalle sembianze sempre più "umane", progettati per instaurare relazioni empatiche, amichevoli e persino affettive con gli utenti. Nuovi modelli che intaccano - in realtà lo stanno già facendo - anche e in particolare il mondo dei bambini.
Tra questi, i più noti sono Replika, Character.AI, Nomi e, di recente, Ani, il nuovo "companion virtuale" lanciato da xAI, l'azienda di Elon Musk, all'interno del sistema Grok 4. Tali strumenti promettono conversazioni realistiche, assistenza emotiva, e interazioni che spaziano dal semplice scambio amichevole fino a simulazioni romantiche o intime. In altre parole, chatbot progettati per diventare "amici immaginari", capaci di risposte personalizzate e di accompagnare gli utenti - spesso minorenni - nella loro vita quotidiana. Non è un caso che lo stesso Musk abbia annunciato anche "Baby Grok", un modello pensato specificamente per i bambini, ma sul quale, ad oggi, non sono state fornite garanzie né sul piano della sicurezza né su quello della trasparenza.
I RISCHI PER I MINORI
Questi "amici artificiali" sembrano innocui, persino utili, soprattutto per ragazzi che vivono situazioni di disagio, solitudine o marginalità. Tuttavia, dietro l'interfaccia accattivante e le risposte empatiche, si celano pericoli gravissimi. Il primo e più evidente riguarda il coinvolgimento emotivo: un minore può sviluppare un attaccamento psicologico a una macchina che, sebbene appaia comprensiva e rassicurante, non ha alcuna coscienza né capacità educativa. Il rischio di dipendenza è reale, così come quello di un isolamento crescente dal mondo reale, dai rapporti familiari e dai pari. Ancora più grave è la possibilità che questi chatbot - specialmente se non dotati di filtri adeguati - forniscano risposte inappropriate, fuorvianti o addirittura pericolose. Molti adolescenti, infatti, utilizzano queste piattaforme come fossero dei veri e propri "psicologi tascabili", a cui confidare emozioni, insicurezze o pensieri intimi, senza sapere se le risposte che ricevono siano corrette, eticamente accettabili o fondate su principi di reale tutela. L'intelligenza artificiale, infatti, non ha coscienza morale e può facilmente essere manipolata o "addestrata" con contenuti inappropriati. Inoltre, i dati sensibili degli utenti vengono spesso raccolti e utilizzati a scopi commerciali, aprendo il varco a pericolose pratiche di profilazione (anche psicologica), che mettono a rischio la libertà e la dignità degli utenti.
L'ALLARME DI TELEFONO AZZURRO
A lanciare l'allarme è stato - sulle pagine di Avvenire - Ernesto Caffo, presidente di Telefono Azzurro, che ha denunciato pubblicamente i pericoli legati all'utilizzo incontrollato dell'intelligenza artificiale da parte dei minori. Secondo i dati diffusi dall'organizzazione, l'84% degli adolescenti tra i 13 e i 17 anni ha già interagito almeno una volta con un chatbot AI. Ancora più inquietante è il fatto che un ragazzo su sei vi ricorre regolarmente perché non ha nessuno con cui parlare, e il 40% prende per vere le informazioni ricevute, senza verificarne l'attendibilità. Addirittura, il 23% dei minori ha ricevuto da questi strumenti suggerimenti pericolosi, con riferimenti a sessualità esplicita o autolesionismo. Di fronte a questi numeri, Caffo ha sottolineato l'urgenza di un intervento legislativo concreto: verifica dell'età obbligatoria, filtri di sicurezza avanzati, sistemi di supervisione adulti, responsabilità civile per le aziende coinvolte e sanzioni per chi non rispetta i criteri minimi di tutela. Un altro aspetto molto preoccupante è poi l'inconsapevolezza - e l'ignoranza - diffusa tra i genitori: molti adulti, afferma Caffo, continuano a mettere i figli davanti a TikTok o ad altri strumenti digitali senza sapere davvero cosa stiano guardando o con chi stiano interagendo. È necessario, dunque, non solo un intervento normativo, ma anche un cambio culturale profondo, che coinvolga scuola, famiglia e società.
Pro Vita & Famiglia Onlus denuncia da anni i pericoli legati proprio all'esposizione dei minori a contenuti disfunzionali e dannosi nel mondo digitale. Pensiamo infatti alla crescente ipersessualizzazione e iperdigitalizzazione dei bambini, l'accesso precoce a contenuti pornografici o comunque scabrosi, il rischio di pedofilia, pedopornografia fino anche agli adescamenti online. Tutto ciò, però, non è frutto del caso, ma è il risultato di una cultura che sta abbandonando i minori a strumenti spersonalizzanti e manipolativi. A ciò si aggiungono le conseguenze psicologiche della sovraesposizione agli schermi: isolamento sociale, difficoltà di concentrazione, ansia, depressione, problemi comportamentali e relazionali. Ecco perché Pro Vita & Famiglia continua a promuovere un modello educativo sano e concreto, basato sulla centralità della famiglia, sulla presenza vigile dei genitori, sulla protezione dell'infanzia e sulla necessità di riportare i bambini alla realtà, al contatto umano, al gioco, allo studio, alla bellezza, anche con iniziative ad hoc come la Campagna "Piccole Vittime Invisibili".