Indica un intervallo di date:
  • Dal Al

Ora le mappe di Google hanno imparato a rispondere a domande complesse.

Dopo anni in cui la piattaforma è stata soprattutto uno strumento per trovare un indirizzo o calcolare un percorso, Google introduce due novità che puntano a trasformarla in qualcosa di più simile a un assistente intelligente. Si chiamano Ask Maps e Immersive Navigation e sono basate sull’integrazione dell’intelligenza artificiale Gemini dentro l’app. L’idea è semplice: non limitarsi a mostrare una mappa, ma permettere agli utenti di fare domande complesse, ricevere suggerimenti contestuali e muoversi nello spazio con indicazioni sempre più simili a una rappresentazione reale del mondo. È un passo che si inserisce nella strategia più ampia con cui Google sta portando l’AI generativa nei suoi prodotti principali.

1. Una mappa con cui parlare
La novità più evidente è Ask Maps, una funzione che introduce un’interfaccia conversazionale dentro Google Maps. Invece di digitare una ricerca tradizionale, l’utente può fare domande in linguaggio naturale e ricevere una risposta costruita dall’intelligenza artificiale. Si possono chiedere suggerimenti per un posto dove lavorare con il laptop, trovare un locale tranquillo o cercare un luogo dove ricaricare il telefono. Gemini analizza la richiesta e la collega ai dati presenti in Maps — come recensioni, foto e informazioni sui luoghi — per generare una risposta accompagnata da una mappa con i risultati più pertinenti.

2. Raccomandazioni basate sull’enorme archivio di Maps
Ask Maps funziona perché può attingere a una delle basi di dati più grandi del web dedicate ai luoghi fisici. Google Maps raccoglie da anni informazioni su ristoranti, negozi, servizi e punti di interesse in tutto il mondo. L’intelligenza artificiale utilizza questi dati insieme ai contributi degli utenti per proporre raccomandazioni più contestuali. In questo modo la mappa può suggerire luoghi lungo il percorso, individuare servizi utili nelle vicinanze o aiutare a costruire itinerari personalizzati per un viaggio.

3. La navigazione diventa tridimensionale
La seconda novità annunciata da Google riguarda Immersive Navigation, un aggiornamento della navigazione che punta a rendere la mappa molto più simile al mondo reale. Durante il percorso l’app mostra edifici, strade e infrastrutture in tre dimensioni, utilizzando dati provenienti da Street View e da immagini aeree. L’utente vede così una rappresentazione più dettagliata dell’ambiente circostante, con indicazioni visive che aiutano a riconoscere meglio incroci, corsie e punti di riferimento.

4. Indicazioni più chiare durante il percorso
Immersive Navigation non introduce solo una grafica più ricca. Anche le indicazioni di guida cambiano e diventano più intelligenti. La mappa può avvicinarsi automaticamente ai punti più complessi del percorso, evidenziare corsie e incroci o mostrare elementi come semafori e attraversamenti pedonali. L’obiettivo è rendere la navigazione più intuitiva e ridurre la necessità di interpretare informazioni astratte mentre si guida o ci si muove a piedi.

5. Verso una mappa che diventa assistente
Nel loro insieme queste novità mostrano come Google stia cercando di trasformare Maps da semplice navigatore a piattaforma di assistenza alla mobilità. L’app non serve più soltanto a trovare una strada, ma diventa uno strumento che può suggerire cosa fare, dove fermarsi e come organizzare un itinerario. Con l’integrazione di Gemini la mappa diventa quindi un’interfaccia conversazionale che unisce ricerca, raccomandazioni e navigazione in un’unica esperienza. Un cambiamento che segnala come anche uno dei servizi digitali più utilizzati al mondo stia entrando nell’era dell’intelligenza artificiale.

Per approfondire. 

Tutto quello che c’è da sapere su Gemini 3.1 Flash-Lite

Tutto quello che c’è da sapere su Gemini 3.1 Pro

Ecco Lyria 3: Google con Gemini porta la musica generativa negli smartphone

Gemini 3 Deep Think si aggiorna: più ragionamento, più scienza, accesso selettivo in cinque punti

Google collega Gemini con foto e mail per creare un assistente davvero personale

Tutto quello che c’è da sapere su Nano Banana Pro in cinque punti

ChatGPT dichiara codice rosso: nasce GPT-5.2, anche per rispondere a Gemini 3

Buon compleanno ChatGPT. Tre candeline e tre grafici

Tono, personalizzazione e “umanità”: come è cambiato ChatGPT?

Nuove regole per ChatGPT: cosa cambia davvero per gli utenti in cinque punti

Tutto quello che c’è da sapere su Atlas il nuovo browser potenziato con l’Ai di OpenAi

Cosa c’è da sapere sul Dev Day 2025 di OpenAI

I cameo, il deepfake consensuale e quello che dobbiamo sapere dell’app Sora di OpenAI

Nasce ChatGPT Pulse, il “buongiorno” firmato OpenAI. In cinque punti

Perché tutti parlano di Codex di OpenAi?

ChatGpt-5, breve guida al prompting. Cosa c’è da sapere?

Tre prompt per mettere alla prova Gpt 5. Il confronto co ChatGpt 4o, Gemini e Claude.

GPT-5 è tra noi. Cosa cambia? In cinque punti, quattro video e qualche grafico

Aspettando ChatGpt5 OpenAI lancia modelli “open-weight” per fronteggiare DeepSeek e Meta

ChatGpt, OpenAI lancia la modalità studio per studenti