Indica un intervallo di date:
  • Dal Al
tecnologia

La FDA statunitense ha iniziato a usare l’Ai per supportare i revisori

È di giugno l’annuncio della Food and Drug Administration (FDA) – l’EMA americana – di aver iniziato a utilizzare un software di intelligenza artificiale per supportare i dipendenti dell’agenzia – dai revisori scientifici agli ispettori – a lavorare in modo, scrivono, più efficiente. Il sistema si chiama Elsa, ed è stato sviluppato all’interno di un ambiente GovCloud che garantisce una piattaforma protetta per l’accesso dei dipendenti FDA ai documenti interni, mantenendo tutte le informazioni all’interno dell’agenzia. I modelli alla base dello strumento non vengono addestrati sui dati forniti dall’industria regolamentata, assicurando così la protezione di ricerche e dati sensibili gestiti dallo staff FDA.

Secondo l’agenzia, Elsa è già utilizzato per accelerare la revisione dei protocolli clinici, ridurre i tempi necessari per le valutazioni scientifiche e individuare in modo più rapido gli obiettivi ispettivi prioritari. Il sistema, basato su intelligenza artificiale generativa, è in grado di sintetizzare eventi avversi per supportare le valutazioni dei profili di sicurezza, confrontare più rapidamente le etichette dei prodotti e generare codice utile allo sviluppo di database per applicazioni non cliniche.

Il Chief AI Officer della FDA, Jeremy Walsh, ha definito il lancio di Elsa come “l’alba dell’era dell’IA alla FDA”, sottolineando che, con il rilascio di questo strumento, l’intelligenza artificiale non è più una promessa futura ma una forza attiva nel miglioramento delle performance del personale. Il Commissioner Marty Makary ha evidenziato la rapidità del rilascio, affermando di aver fissato una tempistica ambiziosa per l’adozione su scala agenziale entro il 30 giugno, obiettivo raggiunto in anticipo e con costi inferiori al previsto grazie alla collaborazione degli esperti interni.

Tuttavia, secondo quanto riportato dai giornalisti di NBC News, il lancio potrebbe essere stato affrettato. Alcuni dipendenti FDA, dopo aver testato Elsa con domande relative a prodotti approvati o informazioni pubbliche, avrebbero riscontrato risposte parzialmente o totalmente inesatte. Secondo le fonti interne citate, il tool sarebbe stato “gonfiato” nelle sue capacità da Makary e dai rappresentanti del Department of Government Efficiency (DOGE), diretto dal controverso imprenditore Elon Musk, e al momento dovrebbe essere impiegato esclusivamente per compiti amministrativi, non scientifici.

Come funziona Elsa

Elsa si basa sul modello Claude di Anthropic ed è sviluppato dalla società di consulenza Deloitte, la quale ha ricevuto dal 2020 un totale di 13,8 milioni di dollari per sviluppare il database iniziale di documenti FDA da cui Elsa attinge i suoi dati, oltre a un ulteriore contratto da 14,7 milioni ad aprile per la scalabilità del progetto a livello agenziale. Il sistema è stato costruito in un ambiente GovCloud ad alta sicurezza, che offre ai dipendenti FDA una piattaforma protetta per accedere a documenti interni mantenendo tutte le informazioni all’interno dell’agenzia. In precedenza, ciascun centro della FDA stava portando avanti il proprio progetto pilota di IA, ma dopo i tagli ai costi di maggio, il progetto CDER-GPT del Center for Drug Evaluation and Research è stato scelto come base per l’estensione a livello agenziale, assumendo il nuovo nome di Elsa.

Un altro problema di fondo

Un articolo pubblicato il 5 giugno su PLOS Digital Health identifica un altro tema importante, che sta alla base di questi ragionamenti. L’intelligenza artificiale (IA) è ormai parte integrante della pratica clinica in molti ospedali degli Stati Uniti, dove viene utilizzata per supportare diagnosi, assegnare priorità ai casi critici e trascrivere note cliniche. Tuttavia, secondo questo rapporto la regolamentazione dei prodotti medici basati su IA non sta tenendo il passo con la rapidità della loro diffusione.

Gli autori del rapporto evidenziano le attuali limitazioni nel processo di approvazione della Food and Drug Administration (FDA) statunitense e propongono strategie più ampie, che vadano oltre l’azione dell’agenzia, per garantire sicurezza ed efficacia degli strumenti di IA in ambito medico.

Ad oggi, riporta Nature, la FDA ha autorizzato oltre 1.000 prodotti di IA medica, e il loro impiego negli ospedali è in crescita costante. A differenza della maggior parte dei prodotti regolamentati dall’agenzia, gli strumenti di IA continuano a evolversi anche dopo l’approvazione, attraverso aggiornamenti e ritraining su nuovi dati. Questo implica la necessità di una supervisione continua, che le normative attuali non sono in grado di garantire pienamente.

Il dibattito si inserisce in un momento delicato, segnato da segnali di possibile ridimensionamento della regolamentazione federale sull’IA. A gennaio, il presidente Donald Trump ha revocato un ordine esecutivo incentrato sulla sicurezza dell’IA, sostenendo la necessità di rimuovere ostacoli all’innovazione. Il mese successivo, vi sono stati licenziamenti nel reparto della FDA responsabile per l’IA e la salute digitale.

In assenza di un’adeguata supervisione, il rischio è che gli algoritmi medici forniscano raccomandazioni fuorvianti, compromettendo la qualità delle cure.

Un processo di approvazione troppo permissivo?

Secondo gli autori dell’articolo di PLOS, i criteri utilizzati dalla FDA per valutare e autorizzare gli strumenti di IA medica sarebbero spesso meno rigorosi rispetto a quelli richiesti per i farmaci. Poiché molti altri paesi si affidano alle decisioni della FDA per stabilire le proprie politiche, questo approccio può avere conseguenze a livello globale. Solo gli strumenti ritenuti potenzialmente più rischiosi per i pazienti devono superare una sperimentazione clinica, come confermato dalla stessa agenzia. Un’ulteriore criticità riguarda il fatto che gli algoritmi medici tendono a funzionare male su popolazioni diverse da quelle su cui sono stati addestrati. Per questo motivo, l’approvazione regolatoria non garantisce necessariamente che un prodotto di IA sia realmente utile per i pazienti a cui è destinato.

Ogni ospedale dovrebbe testare le performance degli algoritmi sui propri pazienti prima di adottarli, e formare il personale sanitario alla corretta interpretazione dei risultati. Tuttavia – riporta sempre Nature – una delle maggiori difficoltà è che la stragrande maggioranza degli ospedali e delle cliniche non ha le risorse per assumere team di esperti in IA. Uno studio pubblicato quest’anno ha evidenziato che molte strutture acquistano strumenti di IA “pronti all’uso” e li implementano senza alcuna validazione locale.

Per approfondire. 

Come cambia la ricerca di informazioni sul web nell’era dell’intelligenza artificiale generativa?

Le fonti più “frequentate” dai modelli di intelligenza artificiale più popolari. In una infografica

Come cambia la ricerca di informazioni sul web nell’era dei chatbot? #Ai Stories

Perplexity AI è una piccola rivoluzione nella ricerca delle informazioni

OpenAi ha deciso di allargare l’accesso a Deep Research, la sua nuova funzione di ricerca approfondita

Che fine ha fatto SearchGpt, il motore di ricerca di OpenAi?

Google vs OpenAi: la ricerca approfondita di Deep Research è qualcosa di nuovo

Dalle notizie di attualità ai consigli per le vacanze. SearchGpt batte i motori di ricerca? #BuoneFeste