Google apre Gemini anche ai minori: IA accessibile sotto la supervisione dei genitori
Google estende l’accesso a Gemini anche ai minori di 13 anni con account supervisionati. Sicurezza, limiti e polemiche sull’uso dell’IA da parte dei più giovani.

Close-up of a smartphone screen displaying Google Gemini app with Google logo in the background, illustrating the link between Google Gemini and Google, Stafford, United Kingdom, August 8, 2024

Google ha deciso di aprire l’uso dell’intelligenza artificiale generativa anche ai bambini sotto i 13 anni, attraverso una versione controllata del suo assistente Gemini. Come riportato dal New York Times, i minori potranno ora interagire con Gemini purché dispongano di un account supervisionato tramite la funzione Family Link, strumento già attivo da tempo per consentire ai genitori di monitorare l’esperienza digitale dei figli. L’obiettivo dichiarato è rendere l’IA uno strumento utile e sicuro anche per i più giovani, permettendo loro di porre domande, ricevere aiuto nei compiti e persino sperimentare la creatività attraverso la creazione di storie.
Una scelta che arriva in un contesto delicato, dove il tema della protezione dei minori online si intreccia sempre più spesso con lo sviluppo accelerato delle tecnologie digitali. Il portavoce di Google, Karl Ryan, ha precisato che l’iniziativa è conforme alle disposizioni del Children’s Online Privacy Protection Act (COPPA), la legge federale statunitense che tutela la privacy online dei bambini sotto i 13 anni, imponendo l’obbligo di consenso esplicito dei genitori per la raccolta dei dati personali.
Sicurezza e dati: le garanzie di Google
Oltre alla supervisione tramite Family Link, Google ha sottolineato che i dati generati dai minori non verranno utilizzati per addestrare i modelli di IA. Una precisazione tutt’altro che marginale, considerando che in passato diverse big tech – tra cui Google stessa, Amazon e Microsoft – sono finite nel mirino delle autorità per presunte violazioni della privacy infantile. L’approccio attuale sembra voler prevenire ulteriori accuse, offrendo un’implementazione più trasparente e responsabile.
La scelta di Google, però, si inserisce in un momento di crescente attenzione pubblica e mediatica. La scorsa settimana, l’organizzazione americana Common Sense Media, attiva nel sostegno alle famiglie, ha pubblicato un report secondo cui i chatbot di IA possono incoraggiare comportamenti dannosi, generare contenuti inappropriati e aggravare problemi di salute mentale nei giovani utenti. Un campanello d’allarme che richiama alla prudenza nell’estendere questi strumenti a una fascia d’età così sensibile.
Un’industria sotto osservazione
Anche Meta AI è recentemente finita sotto i riflettori, dopo che il Wall Street Journal ha riportato casi in cui l’assistente ha intrattenuto conversazioni a contenuto sessuale con utenti minorenni. Si tratta di episodi isolati, ma che bastano ad alimentare dubbi e diffidenze. In questo contesto, la mossa di Google appare da un lato come un tentativo di allargare la platea degli utenti IA in modo controllato, ma dall’altro espone l’azienda alle stesse critiche che hanno colpito i concorrenti.
L’equilibrio tra innovazione e tutela dei minori rimane dunque fragile. E se da una parte la possibilità di far scoprire ai più giovani gli strumenti dell’intelligenza artificiale può rappresentare un’opportunità educativa, dall’altra impone standard di vigilanza e protezione sempre più alti. La sfida è appena cominciata.