Google continua a spingere sull’intelligenza artificiale. Da una parte potenzia l’offerta per sviluppatori integrando il programma Google Developer Program (GDP) Premium nei piani AI Pro e Ultra. Dall’altra introduce una nuova funzione chiamata Agentic Vision nel modello Gemini 3 Flash, pensata per rendere la visione artificiale più autonoma e “ragionante”. Ecco cosa cambia, in cinque punti.
Tutti i vantaggi del GDP Premium, inclusi senza costi aggiuntivi
Gli abbonati ai piani Google AI Pro e Ultra avranno ora accesso automatico al GDP Premium, che offre risorse, tool e supporto dedicato agli sviluppatori. In pratica, Google unifica la sua offerta per chi costruisce con Gemini, eliminando la barriera economica d’ingresso e facilitando la sperimentazione su larga scala.
Crediti mensili su Google Cloud per creare e testare app AI
Un incentivo concreto: 10 dollari di crediti Cloud al mese per chi ha il piano AI Pro e 100 per gli utenti Ultra. Un modo per spingere la creazione di applicazioni reali basate su modelli Gemini e strumenti come AI Studio, Antigravity IDE e la Gemini CLI, senza preoccuparsi subito dei costi di infrastruttura.
Dal prototipo al prodotto: meno frizioni, più continuità
Il messaggio è chiaro: Google vuole che le sue piattaforme AI diventino un ambiente unico dove si può progettare, testare e distribuire software in continuità. L’obiettivo è ridurre il salto tra “sperimentazione” e “produzione” integrando sviluppo, esecuzione e deploy nel cloud.
Agentic Vision: la visione artificiale diventa “attiva”
Con Gemini 3 Flash, debutta Agentic Vision, una tecnologia che permette al modello di osservare, ragionare e agire. Non si limita più a descrivere un’immagine: la interpreta, formula ipotesi, le verifica ed eventualmente scrive codice per risolvere un problema. È un passo verso sistemi visivi più autonomi, capaci di comprendere contesti complessi.
Più accuratezza, meno ambiguità nei risultati visivi
Secondo Google, Agentic Vision migliora la qualità delle risposte visive di un buon 5–10% nei benchmark. Ma il vero salto non è solo quantitativo: l’AI diventa investigativa, cioè capace di controllare la coerenza delle proprie conclusioni. Una visione artificiale che non guarda soltanto, ma capisce.
Per approfondire.
Come è cambiata Gmail con Gemini?
Tutto quello che c’è da sapere su Nano Banana Pro in cinque punti
Da Antigravity a Deep Think: come è cambiato Gemini?
Tutto quello che c’è da sapere su Gemini Enterprise in cinque punti e quattro video
Gemini Robotics-ER 1.5: e la “generalizzazione fisica” dell’intelligenza artificiale
Gemini 2.5 Flash Image: cosa cambia, come funziona e cosa lo distingue dagli altri modelli
Aspettando ChatGpt 5 ecco Gemini 2.5 Deep Think il modello più potente di Google
Google lancia Gemini CLI, un agente AI open-source per sviluppatori #DatavizAndTools
In cinque punti cosa è Canvas Gemini
Come attivare Gemini “with personalization”?
Gemini 2.0 Flash Thinking è accessibile a tutti
Titan è il un modello di Ai di Google che ricorda come gli esseri umani
Le novità di Google: da Project Astra a Veo, in sei video
Gemini sbarca su iPhone. Ecco cosa cambia #DatavizAndTools
Gemini Live parla in italiano. I limiti e le potenzialità #DatavizAndTools
Gemini entra in Google Maps. Ecco cosa cambia e qualche altra novità
Le novità dell’Ai Gen arrivano su Google Maps
Arrivano le nuove mappe super-dettagliate di Google
Ecco come funziona l’immersive View di Google Maps che ora arriva a Firenze e Venezia
Meno soste ai semafori e più attenzioni ai consumi energetici. Le novità di Google Maps
Come funziona Veo, la nuova Ai generativa dedicata ai video?