Indica un intervallo di date:
  • Dal Al
economia

ChatGPT disabilitato in Italia. La questione dei dati e le ragioni del blocco del Garante della Privacy

Il Garante della privacy venerdì 31 marzo ha bloccato ChatGpt. Rilevata una raccolta illecita di dati personali e l’assenza di sistemi per la verifica dell’età dei minori. Lo abbiamo interrogato pochi minuto dopo l’uscita della notizia. Ecco cosa ne pensa ChatGpt

La società ha 20 giorni per comunicare quali misure ha adottato per soddisfare i requisiti delle autorità di regolamentazione e potrebbe incorrere in multe fino a 20 milioni di euro (o il 4% del fatturato globale annuo) se fallisce.

Quali erano le opzioni?  

Non lo abbiamo chiesto direttamente a ChatGpt e neppure a Gpt-4 ma le possibilità erano tre. L’ipotesi più violenta è il blocco ChatGpt in Italia. Altrimenti si può immaginare un adeguamento rapido escludendo il trattamento dati degli italiani. Vuole dire che il sistema si addestra senza le nostre conversazioni ma continua a funzionare. Oppure OpenAi continuare così rischiando sanzioni contro cui poi provare ad appellarsi.

Come è andata? E’ andata così. OpenAi  il 12 aprile ha disabilitato l’accesso agli utenti italiani. In risposta in Rete sono già comparse le indicazioni su come aggirare il blocco attraverso l’uso di una Vpn.

 

 

Come finirà? La risposta più probabile è che verrà pubblicato una informativa sulla privacy a cui saremo chiamati a dare il consenso. Altrimenti si può immaginare un adeguamento rapido escludendo il trattamento dati degli italiani. Vuole dire che il sistema di addestra senza le nostre conversazioni ma continua a funzionare.

Chiaramente il problema dell’intelligenza artificiale generativa non è solo quello. Non bastano, i meccanismi di privacy by design e privacy by default ovvero i controlli e i rimedi per tutelare la privacy degli interessati, specie se minori. Come scrive Massimiliano Masnada, Partner di Hogan Lovells Occorre creare una nuova cultura tecnologica che si fondi sull’etica e sul rispetto dei diritti fondamentali.

Ciòdetto si tratta di un’operazione di trasparenza quantomai necessaria, sottolinea Gabriele Faggioli, Responsabile scientifico dell’Osservatorio Cybersecurity e Data Protection del Politecnico di Milano. Anche  in considerazione dei rischi che possono derivare da un uso non regolamentato di questi sistemi. Ci si augura che le interlocuzioni tra OpenAI e l’Autorità permettano di conoscere quali presidi sono stati incorporati all’interno dello strumento e quali sono le garanzie adottate per il corretto trattamento dei dati, nonché le valutazioni dei rischi”

Cosa occorrerà capire bene. 

L’Autorità ha chiesto ad OpenAI di fornire informazioni in relazione alla liceità del trattamento in relazione alla finalità di addestramento dei sistemi di IA. In particolare, qual è la base giuridica che legittima l’utilizzo dei dati degli utenti per addestrare l’algoritmo, un tema non banale per chi somministra al largo pubblico prodotti che incorporano soluzioni di machine learning. E su cui si sta discutendo anche nelle aule dei tribunali come abbiamo raccontato in questa puntata di ThinkTallyTalk. 

Quanto all’applicazione della Gdpr, della normativa europea sulla protezione dei dati, occorrerà anche apprfondire come selezione le fonti delle notizie il sistema ChatGpt integrato al motore di ricerca Bing.  Parliamo dell’esattezza dei dati trattati dal sistema di AI e delle informazioni fornite agli utenti, di rilievo.

Infine, aspetti non irrilevanti e già oggetto di analisi da parte dell’Autorità è la tutela dei minori. Il sistema prodotto da OpenAI, spiega Fagioli,  non avrebbe alcun meccanismo per verificare l’età degli utenti, lasciando possibile che minori al di sotto dei 13 anni di età possano avere accesso a informazioni distorte, o che possano intavolare conversazioni e conferire dati personali, reazioni e opinioni a un sistema che tutto conserva e rielabora per addestrare il proprio algoritmo conoscitivo dell’utenza

Ciòdetto occorrerà anche capire chi sarà chiamato a regolare l’intelligenza artificiale 

Come mostra un sondaggio condotto da KPMG Australia e dall’Università del Queensland , il pubblico in generale non si fida già delle istituzioni governative per supervisionare l’implementazione dell’IA.

Interrogando oltre 17.000 persone in 17 paesi, lo studio ha rilevato che solo un terzo degli intervistati aveva una fiducia elevata o completa nei governi per quanto riguarda la regolamentazione e la governance degli strumenti e dei sistemi di intelligenza artificiale. I partecipanti al sondaggio erano altrettanto scettici nei confronti delle società tecnologiche e delle agenzie di regolamentazione esistenti come organi di governo dell’IA. Al contrario, gli enti di ricerca, le università e le forze di difesa sono ritenuti i più capaci in questo senso.

Attendiamo anche per questo l’Ai Act dell’Ue che sarà chiamato a come è stata la Gdpr a regolare l’Ai.  Il disegno di legge proposto suddivide le applicazioni di intelligenza artificiale in diverse categorie di rischio. Le applicazioni ad alto rischio, come il software di dati biometrici, sarebbero soggette a rigidi limiti legali.  Negli Stati Uniti, il presidente Joe Biden ha svelato un progetto chiamato AI Bill of Rights nell’ottobre 2022. Il documento delinea cinque principi guida per lo sviluppo e l’implementazione dell’IA. Nonostante il nome, l’AI Bill of Rights non è regolamentare e non è vincolante.

Per approfondire.

Cosa sono le Privacy Enhancing Technologies?

Stretta finale per l’«Ai Act»: cosa chiede l’Europa all’intelligenza artificiale 

Chi salverà la creatività (e i creativi) dai Big dell’intelligenza artificiale?