Da Google DeepMind arriva un nuovo tassello nell’evoluzione dell’AI generativa: dopo immagini e video, ora tocca alla musica. Con Lyria 3, integrato nell’app Gemini, chiunque può creare in pochi secondi una traccia sonora personalizzata a partire da un prompt testuale, un’immagine o un documento. L’obiettivo non è sostituire i musicisti, ma offrire uno strumento espressivo immediato, pensato per la condivisione e per arricchire contenuti digitali come post, video e Shorts. Ecco, in cinque punti, cosa cambia con Lyria 3 e perché segna un passo in avanti nella generazione audio.
1. Dall’idea alla traccia in pochi secondi
Con Lyria 3 basta descrivere ciò che si vuole ascoltare per ottenere un brano di 30 secondi, completo di copertina personalizzata. Si può chiedere, ad esempio, “un lento R&B comico su un calzino che trova la sua anima gemella” e Gemini traduce il prompt in una traccia orecchiabile e pronta da condividere. L’esperienza è pensata per essere semplice e immediata, accessibile a tutti gli utenti maggiorenni e in tutte le lingue.
2. Dal testo, dalle immagini e dai documenti alla musica
La generazione non si limita al testo: è possibile caricare una foto, un PDF, una slide o un altro documento e chiedere a Gemini di trasformarne il contenuto in una canzone coerente con l’atmosfera del materiale caricato. In questo modo la musica diventa un’estensione narrativa di immagini e contenuti già esistenti, aprendo nuove possibilità creative anche per creator e comunicatori.
3. Più controllo creativo e maggiore qualità
Rispetto alla versione precedente, Lyria 3 introduce tre miglioramenti chiave: genera automaticamente i testi senza che l’utente debba fornirli; offre un controllo più preciso su stile, voce e BPM; produce tracce più realistiche e musicalmente complesse. Un salto di qualità che rende l’audio generativo più sofisticato, pur mantenendo un’interfaccia semplice.
4. Non solo Gemini: integrazione con YouTube Shorts
Oltre all’app Gemini, Lyria 3 è in fase di implementazione anche su Dream Track per i creator di YouTube, ampliando la disponibilità al di fuori degli Stati Uniti. L’obiettivo è migliorare la qualità delle colonne sonore degli Shorts, offrendo basi ritmiche e strofe personalizzabili che possano elevare il livello dei contenuti brevi.
5. Filigrana, verifica e sviluppo responsabile
Tutte le tracce generate sono integrate con SynthID, la filigrana invisibile che consente di identificare i contenuti creati dall’AI di Google. Inoltre, Gemini può verificare se un file audio è stato prodotto con Google AI, cercando la presenza di SynthID. Lyria 3 è stato sviluppato con attenzione al copyright e agli accordi con i partner, e punta a favorire l’espressione originale senza imitare artisti esistenti. Un approccio che unisce innovazione e responsabilità nell’uso dell’intelligenza artificiale generativa.
Per approfondire
Gemini 3 Deep Think si aggiorna: più ragionamento, più scienza, accesso selettivo in cinque punti
Google collega Gemini con foto e mail per creare un assistente davvero personale
Tutto quello che c’è da sapere su Nano Banana Pro in cinque punti
ChatGPT dichiara codice rosso: nasce GPT-5.2, anche per rispondere a Gemini 3
Buon compleanno ChatGPT. Tre candeline e tre grafici
Tono, personalizzazione e “umanità”: come è cambiato ChatGPT?
Nuove regole per ChatGPT: cosa cambia davvero per gli utenti in cinque punti
Tutto quello che c’è da sapere su Atlas il nuovo browser potenziato con l’Ai di OpenAi
Cosa c’è da sapere sul Dev Day 2025 di OpenAI
I cameo, il deepfake consensuale e quello che dobbiamo sapere dell’app Sora di OpenAI
Nasce ChatGPT Pulse, il “buongiorno” firmato OpenAI. In cinque punti
Perché tutti parlano di Codex di OpenAi?
ChatGpt-5, breve guida al prompting. Cosa c’è da sapere?
Tre prompt per mettere alla prova Gpt 5. Il confronto co ChatGpt 4o, Gemini e Claude.
GPT-5 è tra noi. Cosa cambia? In cinque punti, quattro video e qualche grafico
Aspettando ChatGpt5 OpenAI lancia modelli “open-weight” per fronteggiare DeepSeek e Meta
ChatGpt, OpenAI lancia la modalità studio per studenti
Arriva ChatGpt agent anche in Europa. Cosa sa fare? In cinque punti
Cosa è OpenAi Codex? #DatavizAndTools
Come funziona Operator l’Ai agent di OpenAi?
Cos’è Operator e come funziona l’Ai agent di OpenAi?
Tra qualche mese uscirà il prossimo Gpt-5 che integrerà o3 il modello di ragionamento più avanzato
ChatGpt su WhatsApp ascolta i vocali e legge le immagini #DatavizAndTools
Sam Altman dalla “parte sbagliata della storia”
OpenAi aggiorna Canvas. Ecco cosa cambia con o1
Come funziona Operator di OpenAi? #DatavizAndTools
ChatGpt Task è una to-do-list per le tue attività quotidiane
Come funziona Canvas la nuova interfaccia per ChatGpt? #DatavizAndTools
Ecco come funziona o1, il modello di OpenAi che “pensa” prima di rispondere
Disponibile ChatGpt per Windows. Ecco cosa cambia #DatavizAndTools
L’informazione, i giornali, i viaggi e il senso della vita. La prova di SearchGpt
SearchGpt sta arrivando. OpenAi sfida Google sui motori di ricerca. Ecco cosa sappiamo finora
Che fine ha fatto SearchGpt, il motore di ricerca di OpenAi?
Cosa è AI Overview? Ecco come sta cambiando il motore di ricerca di Google con Gemini
Cosa è WildChat? Più di un milione di prompt (e risposte) per allenare il vostro chatbot
Come si scrive un prompt per Midjourney?
L’Ai Gen si è convertita all’ideologia “woke”? #PromptAnalysis
Quali caratteristiche deve avere un cantante per vincere Sanremo? Risponde Gpt4