Immaginate una manager che deve convincere un gruppo di investitori a finanziare un progetto milionario. Prima del grande giorno, carica una prova del suo discorso su un innovativo sistema basato sull’intelligenza artificiale. Il software analizza voce, postura, gestualità, contatto visivo, ritmo e coerenza tra parole e linguaggio del corpo. In pochi minuti, la dirigente ottiene un “trust score” — un punteggio che misura quanta fiducia riesce a trasmettere — e una serie di suggerimenti mirati per migliorare. Dopo qualche sessione di training personalizzato, entra nella sala riunioni con maggiore sicurezza e porta a casa il risultato: ottiene i fondi.
Sembra una scena da fantascienza, ma questo sistema è già sul mercato. Da inizio giugno, TEAM LEWIS — società di consulenza marketing globale — ha lanciato Training for Trust, il primo servizio al mondo di analisi biometrica e formazione comunicativa per imparare a ispirare fiducia, erogato in studi fisici appositamente progettati. Il progetto è stato sviluppato negli ultimi sei mesi tra Regno Unito, Stati Uniti e Malesia, e rappresenta un salto di qualità nella formazione alla comunicazione. L’intelligenza artificiale entra nella comunicazione pubblica: da Londra parte Training For Trust™, Ma quali sono i limiti etici di questa tecnologia?
Il sistema sfrutta una combinazione di tecnologie all’avanguardia: intelligenza artificiale, riconoscimento facciale, vocale e oculare, analisi automatizzata, modellazione e codifica proprietaria. Gli utenti si allenano in uno studio tecnologicamente avanzato nel centro di Londra, in condizioni controllate, per ottenere una valutazione precisa ed elaborare un piano di miglioramento personalizzato, la cosiddetta Training Needs Analysis (TNA).
Il cuore del servizio è il “trust score”, un indicatore sintetico che misura la capacità di ispirare fiducia — la trust — durante una performance comunicativa. Il punteggio viene calcolato incrociando una serie di parametri biometrici e comportamentali: il tono e la modulazione della voce (in termini di chiarezza, sicurezza, empatia percepita), il linguaggio del corpo (postura, gestualità, contatto visivo), il ritmo del discorso e la coerenza tra messaggio verbale e atteggiamento non verbale. Su quest’ultimo punto, viene naturale chiedersi come sia possibile “misurare” l’empatia: una questione che meriterebbe il confronto tra neuroscienziati, psicologi e filosofi.
La promessa è chiara: migliorare l’efficacia comunicativa, aumentare la propria credibilità, apprendere come essere percepiti come persone affidabili. Il target è ampio: aziende private, enti pubblici e organizzazioni del terzo settore, in settori che vanno dall’Agritech alla Finanza, dal Biotech all’Energia, passando per la Difesa, la Sanità, il Retail, il Tech e persino la formazione politica e la gestione delle crisi.
Ma se imparare a comunicare meglio è sempre stato un obiettivo legittimo — e anzi spesso necessario — non si può ignorare il potenziale rischio di un uso distorto di questi strumenti. Cosa succede, ad esempio, se a “imparare la fiducia” sono soggetti che vogliono diffondere fake news o manipolare l’opinione pubblica? In un contesto in cui la disinformazione si muove sempre più su canali visivi e performativi, avere a disposizione un sistema capace di insegnare come sembrare credibili potrebbe diventare una potente arma a doppio taglio.
“La formazione alla comunicazione deve andare di pari passo con la responsabilità etica” ci risponde l’azienda a cui abbiamo posto questa domanda. “È fondamentale che chi sviluppa e utilizza questi sistemi promuova la trasparenza e l’educazione critica. Serve un dibattito pubblico su come regolamentare queste tecnologie. La formazione dovrebbe includere anche l’etica della comunicazione e la consapevolezza dei rischi legati alla disinformazione.”
Una presa di posizione condivisibile, ma che oggi non trova ancora riscontro in un quadro normativo concreto. A oggi, chiunque può acquistare e utilizzare un servizio come Training for Trust. Non esistono regole né vincoli che ne definiscano le finalità d’uso o i limiti etici. In un momento storico in cui l’intelligenza artificiale entra sempre più nei processi decisionali, comunicativi e persino emotivi, una riflessione pubblica sul tema appare non solo auspicabile, ma urgente.