Google Maps z Gemini AI to już nie tylko nawigacja dla kierowców. Nowe funkcje trafiają do pieszych i rowerzystów, zmieniając telefon w inteligentnego asystenta.
W skrócie:
- Funkcje AI Gemini w Mapach Google zostały rozszerzone na cały świat. Teraz skorzystają z nich nie tylko kierowcy, ale również piesi i rowerzyści.
- Wprowadzono pełną obsługę głosową, która pozwala zarządzać podróżą za pomocą naturalnych komend, np. pytać o czas przyjazdu czy wysyłać wiadomości SMS.
- Nawigacja używa teraz realnych punktów orientacyjnych, jak restauracje czy stacje benzynowe, a Obiektyw Google pozwala identyfikować miejsca i poznawać ich historię.
Google znowu to zrobił. Kiedy wydawało się, że nawigacja osiągnęła już szczyt swoich możliwości, integracja z modelem Gemini otworzyła zupełnie nowy rozdział. Koniec z traktowaniem Map Google jako cyfrowego atlasu. Obecnie stają się one interaktywnym towarzyszem podróży, który rozumie kontekst i potrafi rozmawiać. Gigant z Mountain View ogłosił właśnie, że pełna moc Gemini trafia do pieszych i rowerzystów na całym świecie, zarówno na urządzeniach z Androidem, jak i iOS.
Jak Gemini zmienia podróże na dwóch kółkach i piechotą?
Największym przełomem jest wprowadzenie w pełni konwersacyjnej obsługi głosowej. Dla rowerzystów to zmiana, która bezpośrednio wpływa na bezpieczeństwo. Zamiast nerwowo zerkać na ekran telefonu, można po prostu zapytać: “Jaki jest mój szacowany czas przybycia?”. Asystent nie tylko poda odpowiedź, ale na polecenie sprawdzi kalendarz i doda nowe spotkanie, jeśli coś ważnego wpadnie nam do głowy w trakcie jazdy. Komenda “Wyślij SMS‑a do mamy, że będę 10 minut później” załatwia sprawę bez odrywania rąk od kierownicy. To małe usprawnienie, które w praktyce zmienia wszystko.
Czy to już osobisty przewodnik w kieszeni?
Dla pieszych i turystów Gemini staje się wszechwiedzącym przewodnikiem. Wyobraź sobie spacer po nieznanym mieście. Zamiast wpisywać nazwy w wyszukiwarkę, kierujesz aparat telefonu na interesujący budynek. Zintegrowana funkcja Obiektywu (Landmark Lens) natychmiast go zidentyfikuje i odpowie na pytanie: “Dlaczego to miejsce jest popularne?”. Mało tego, asystent, analizując dane z ponad 250 milionów miejsc, pomoże znaleźć restaurację z konkretnym “vibem” i poleci dania z menu. Można zapytać: “Znajdź mi najlepiej oceniane wegańskie restauracje w promieniu kilometra” i dostać precyzyjną, spersonalizowaną odpowiedź.
Dlaczego nawigacja zaczęła mówić ludzkim głosem?
Google postanowił zerwać z abstrakcyjnymi komunikatami. Zamiast słyszeć “za 200 metrów skręć w prawo”, nawigacja powie: “Skręć w prawo za restauracją Thai Siam”. To możliwe, ponieważ Gemini analizuje aktualne zdjęcia ze Street View i wybiera te punkty orientacyjne, które faktycznie rzucają się w oczy. System stał się ponadto proaktywny. Nawet bez włączonej nawigacji, Mapy mogą ostrzec o nagłym korku czy wypadku na trasie, bazując na zgłoszeniach innych użytkowników. Co więcej, teraz sami możemy dodać takie zgłoszenie komendą głosową, np. “Widzę stłuczkę”. To krok w stronę nawigacji, która nie tylko prowadzi, ale i rozumie świat wokół nas.