Un tribunale californiano sarà chiamato a esaminare la prima causa per morte ingiusta intentata contro OpenAI. Matt e Maria Raine accusano l’azienda di avere avuto un ruolo nella morte del figlio sedicenne Adam, che si è tolto la vita lo scorso aprile. Secondo la denuncia, il ragazzo avrebbe condiviso con ChatGPT i propri pensieri suicidari, ricevendo risposte che — sostengono i genitori — avrebbero rafforzato le sue idee più dannose e autodistruttive.
In questi giorni OpenAI ha annunciato che entro la fine del 2025 introdurrà un pacchetto di strumenti pensato per rendere l’uso di ChatGPT più sicuro per gli adolescenti e più trasparente per le famiglie.
Il nuovo sistema consentirà ai genitori di collegare il proprio account a quello dei figli (che possono iscriversi a ChatGPT dai 13 anni in su!) attraverso un semplice invito via email. Una volta attivato, sarà possibile stabilire regole di utilizzo differenziate per fascia d’età, che saranno impostate come predefinite per garantire una maggiore protezione. I genitori avranno inoltre la possibilità di gestire direttamente alcune funzioni sensibili, come la memoria e la cronologia delle chat.
Uno degli strumenti più innovativi riguarda però il monitoraggio del benessere: nel caso in cui il sistema rilevi segnali di disagio acuto da parte dell’adolescente, il genitore riceverà una notifica immediata. Questa funzione, spiega OpenAI, sarà affinata con il contributo di esperti di salute mentale, per mantenere un equilibrio tra tutela dei ragazzi e fiducia nel rapporto genitori-figli.
Certo, resta il fatto che è possibile usare ChatGPT senza alcun account.
90 esperti coinvolti sono tanti o pochi?
OpenAI cita un Expert Council on Well-Being & AI e la Global Physician Network, sottolineando che questi “consessi” includono nel complesso “oltre 90 medici in più di 30 Paesi” per definire le modalità con cui viene definito il concetto di benessere, valutare il comportamento del modello e progettare le misure di protezione per i contesti sensibili. Riflettendoci, data la portata di OpenAI viene da chiedersi se quell’”oltre” dovrebbe essere invece un “appena 90 medici in più di 30 paesi”.
Per esempio: chi ha stabilito che 13 anni sono un’età consona per iniziare a usare l’IA? Il GDPR, lo sappiamo, ma non significa che la comunità scientifica sia concorde.
Di fatto in Italia circa un bambino su tre tra i 6 e i 10 anni (32,6%) utilizza lo smartphone ogni giorno, una percentuale quasi raddoppiata rispetto al 2018-2019 (18,4%). La diffusione è particolarmente marcata al Sud e nelle Isole, dove la quota raggiunge il 44,4%, contro il 23,9% del Nord. Tra gli 11 e i 13 anni, oltre tre preadolescenti su cinque (62,3%) possiedono almeno un account social, spesso in più piattaforme (35,5%) o in una sola (26,8%). Ciò avviene nonostante le restrizioni previste dal GDPR, che fissa a 14 anni l’età minima per dare consenso al trattamento dei dati personali (ridotta a 13 con l’autorizzazione dei genitori), e nonostante le stesse piattaforme abbiano imposto il limite di 13 anni per aprire un profilo.
Il problema è la modalità d’uso, il rischio di dipendenza
Sempre più esperti incoraggiano oggi le famiglie a disincentivare l’uso di schermi prima dei 14 anni, basandosi sulle evidenze scientifiche delle conseguenze negative sulla salute mentale degli adolescienti.
Alla fine del 2024 l’Ufficio Regionale per l’Europa dell’OMS ha pubblicato dei dati che mostrano un aumento significativo dell’uso problematico dei social media tra gli adolescenti, passato dal 7% nel 2018 all’11% nel 2022. Il 12% dei giovani sarebbe a rischio di comportamento problematico nei videogiochi, oltre 1 adolescente su 10 mostra difficoltà a controllare l’uso dei social e subisce conseguenze negative, con valori più alti tra le ragazze. I dati provengono dallo studio Health Behaviour in School-aged Children (HBSC), che nel 2022 ha coinvolto quasi 280.000 ragazzi di 11, 13 e 15 anni in 44 Paesi e regioni tra Europa, Asia centrale e Canada.
Anche qui, basare le proprie scelte unicamente sulla ricerca scientifica oggi non è così scontato. Non tutti gli esperti sono d’accordo sul fatto che usare molto gli schermi faccia male allo sviluppo cognitivo. Una ricerca pubblicata nel 2023 su Cortex aveva rilevato che pur esistendo associazioni tra le abitudini di utilizzo degli schermi e il modo in cui le aree cerebrali si connettono, non emergono prove di effetti negativi sul benessere mentale o sulle capacità cognitive, nemmeno tra chi trascorre molte ore davanti a dispositivi digitali.
Il problema del tempo sottratto a…
Educare è complesso, e tira in ballo molti aspetti. Il dibattito va inserito all’interno di quello ormai decennale sull’età adatta per iniziare a possedere un proprio smartphone, indipendentemente dalle misure di controllo parentale. Da anni gli esperti discutono di schermi, prima di tutto, che significano social media, siti web, videogiochi spesso online, e sistemi di messaggistica, ma prima ancora di tempo sottratto a qualcosa d’altro.
Un editoriale apparso su JAMA a giugno 2025 riporta che negli Stati Uniti, il 48% dei ragazzi dichiara di perdere il conto del tempo passato sul telefono, il 17% ha tentato di ridurre l’uso dei social senza riuscirci, e l’11% riconosce che l’uso dello schermo ha avuto effetti negativi sul rendimento scolastico.
Stiamo ancora cercando di descrivere e comprendere le caratteristiche di quelli che definiamo nativi digitali, nascondendoci dietro a espressioni che qualcuno ha coniato per noi, come Gen Alpha, che comprende i nati tra il 2010 e il 2025. Stiamo studiando gli effetti dei social media sui bambini e sui ragazzi di oggi, ma la tecnologia è già oltre. La ricerca scientifica – e includiamo anche la filosofia, l’antropologia, la sociologia – procede con i suoi tempi, che sono più veloci rispetto a quelli del cambiamento tecnologico e dei suoi effetti immediati.
Al centro della rete ci sono gli adulti, ossia i genitori, i parenti, i vicini e gli insegnanti che hanno il compuito di accompagnare i ragazzi a capire come stare al mondo. Il problema è che gli adulti non sono nativi digitali, tutt’altro. Nemmeno ci rendiamo conto di compiere dei reati online, basti seguire casi di cronaca come quello del gruppo Facebook Mia Moglie, popolato da oltre 30 mila adulti, molti dei quali inconsapevoli della portata legale (oltre chiaramente a quella etica) delle loro azioni.
Delegare ai Big come OpenAI le valutazioni di sicurezza non è un passaggio così lineare.
Cosa è Ai Stories? Storie lunghe su fatti, accadimenti e personaggi della rivoluzione Ai Gen.
Per approfondire.
Come cambia la ricerca di informazioni sul web nell’era dei chatbot? #Ai Stories
La prova di Sora e una breve guida su come generare video con l’aiuto dell’Ai
Imagen 3 vs Dall-E3: lo scontro educato dei generatori di immagini #AIStories
Il rapporto psicologicamente scorretto di Elon Musk con l’intelligenza artificiale #AiStories