Indica un intervallo di date:
  • Dal Al
tecnologia

Come riconoscere immagini e testi generati dall’AI?

Nell’era dell’intelligenza artificiale generativa come possiamo sapere se un contenuto è stato generato da un umano o da una macchina? La domanda è rilevante e per ora non ha una soluzione univoca. Le denunce per violazione del copyright da parte di questi software sono arrivate in tribunale. Getty Images, una delle più grandi agenzie fotografiche del mondo, ha citato in giudizio Stability AI, la società dietro a Stable Diffusion, per presunta violazione del copyright. L’accusa? Avrebbe usato le sue immagini senza l’autorizzazione. Negli Stati Uniti, a San Francisco, un collettivo di artisti ha deciso di dare battaglia a Middley Journey praticamente per gli stessi motivi che sono quelli di avere copiato lo stile dell’autore per creare i modelli grazie ai quali le AI generano le loro opere. Per ora sono tre, gli artisti, ma gli avvocati stanno lavorando per imbastire una class action.

Connesse con le preoccupazioni  legate alle violazioni del diritto d’autore c’è la richiesta più larga di capire quando un contenuto è generato dall’Ai generativa. I risultati sono a volte straordinari, il testo generato sembra scritto da un essere umano. Tanto che il dipartimento dell’Istruzione di New York ha vietato l’uso di ChatGPT dopo avere scoperto che alcuni studenti hanno falsificato le loro prove d’esame. Da un punto di vista tecnologico servono filtri, marchi, sistemi che aiutino a capire la fonte del contenuto. Ci stanno lavorando studenti, università e le stesse piattaforme che utilizzano queste tecnologie. Come Info Data studieremo e segnaleremo questi tools per capire l’efficacia e l’impatto. 

Cosa è Stable Attribution?

Partiamo da  Stable Attribution. Si tratta di uno strumento che può identificare quali immagini sono state usate per addestrare il software di intelligenza artificiale che genera immagini. Come funziona? Il sistema prova a identificare le immagini di origine di una determinata immagine generata dall’intelligenza artificiale. In pratica voi caricate un’immagine e Stable Attribution cerca gli elementi grafici su cui è stata addestrata l’AI.  Il modello di Diffusione Stabile è pubblico e accessibile. Ciò significa che dopo che il modello è stato indicizzato, è possibile trovare la maggior parte delle immagini originali. Qui sotto ecco come funziona e l’accesso alle API.

Lo strumento non è perfetto. Le immagini non includono l’attribuzione all’artista che ha creato l’immagine, ma solo l’immagine. Se vuoi trovare l’artista dietro l’arte, devi fare le tue ricerche. I produttori, Chroma però stanno lavorando per migliorarlo. Loro, Chroma, sono una startup. Stable Attribution è stato scritto da Jeff Huber e Anton Troynikov, con l’aiuto e il feedback di molti altri.

Come funzionano questi strumenti?

Sono dei test, come in Blade Runner per smascherare i replicanti. Ma al posto di essere interviste sono software che analizzano come sono “costruite” le frasi e sulla base della loro complessità indicano la probabilità che provenga o meno da una AI. Esempi in questo senso sono Open AI Detector e Detect GPT. La prima è stato realizzato sulla base di una versione precedente di ChatGpt mentre il secondo è una estensione di Google Chrome. Entrambi indicano se il testo della pagina che stiamo visitando è stato generato o meno da un’intelligenza artificiale. Possono sbagliare. Ma serviranno – ed è un paradosso – algoritmi di machine learning per imparare a non sbagliare.

Il caso di AI Tetxt Classifier

Annunciato nei giorni scorsi sempre sul blog ufficiale di OpenAI uno strumento per distinguere se il testo è stato scritto dall’intelligenza artificiale da uno scritto dall’uomo. Si chiama AI Text Classifier e dovrebbe essere d’aiuto per individuare eventuali campagne di disinformazione automatizzate, falsi testi accademici e chatbot che vogliono far credere di essere umani. Funziona? Gli ingegneri di OpenAi mettono le mani avanti: «Il nostro classificatore non è completamente affidabile», hanno scritto sul blog. Dopo una prima sperimentazione è stato in grado di identificare correttamente il 26% del testo scritto da ChatGPT con l’etichetta “probabilmente scritto dall’AI”. I falsi negativi cioè i testi accreditati all’Ai senza esserlo sono stati il 9%. Il margine di errore resta per ora piuttosto alto.

Datavizandtools.  E’ una sezione del blog dedicata alla comprensione e alla comunicazione dei dati. Troverete articoli, brevi lezioni e video per raccontare le novità, spiegare come funzionano i nuovi tools e aiutare cittadini e professionisti a comprendere meglio le mappe, i grafici e i numeri nelle notizie (e viceversa). Collaborano professori, data scientist e giornalisti di dati.

Per approfondire.

Come funziona la “Wikipedia” delle previsioni?

Le mappe di Open Street Map, i Big data di Istat e gli incidenti stradali. I nuovi indicatori

Come funziona Wikidata il database dell’ecosistema di Wikipedia?