Skip to content Skip to sidebar Skip to footer

Samsung i Google ujawniają rewolucję. Nowy telefon sam zamówi ci Ubera i jedzenie

Samsung i Google wprowadzają rewolucję w smartfonach. Nowe modele Galaxy S26 i Pixel 10 same zamówią Ubera czy jedzenie, a Ty będziesz tylko obserwatorem.

W skrócie:

  • Nowa funkcja w serii Galaxy S26 i Pixel 10 wykorzystuje AI Gemini do automatycznego wykonywania zadań, takich jak zamawianie przejazdów czy jedzenia w zewnętrznych aplikacjach.
  • Proces odbywa się pod pełną kontrolą użytkownika. Asystent działa w wirtualnym oknie, a każda transakcja wymaga ręcznego zatwierdzenia, co gwarantuje bezpieczeństwo.
  • To początek transformacji Androida w “system inteligencji”. Google zapowiada, że w nadchodzącym Androidzie 17 możliwości asystenta AI zostaną znacznie rozszerzone.

Google i Samsung rzucają rękawicę konkurencji, a przy okazji także naszym przyzwyczajeniom. Najnowsze funkcje AI, które zadebiutują w smartfonach z serii Galaxy S26 oraz Pixel 10, brzmią jak scenariusz filmu science fiction. Telefon, który na polecenie głosowe zamawia taksówkę lub kolację, przestaje być fantazją. Staje się rzeczywistością. A wszystko to dzięki modelowi Gemini, który integruje się z systemem Android na poziomie, jakiego dotąd nie znaliśmy. To nie jest kolejna kosmetyczna zmiana – to próba fundamentalnej zmiany sposobu, w jaki wchodzimy w interakcję z technologią. I chociaż na początku brzmi to jak gadżet dla leniwych, kryje się za tym znacznie głębsza idea.

Jak dokładnie działa nowy asystent AI?

Wyobraź sobie sytuację: wychodzisz z biura i zamiast nerwowo klikać w aplikacji, mówisz po prostu do telefonu: “Zamów mi Ubera do domu”. I dzieje się magia. No, prawie magia. Asystent AI, oparty na modelu Gemini 3, uruchamia aplikację Uber w wirtualnym oknie. Nie widzisz tego na głównym ekranie, ale masz pełen podgląd procesu. AI analizuje komunikaty wyświetlane w aplikacji, znajduje odpowiednie przyciski, wpisuje adres i konfiguruje przejazd. Co ważne, nic nie odbywa się bez Twojej wiedzy. Przez cały czas widzisz, co robi system, a jeśli napotka problem – na przykład niejednoznaczny adres – poprosi Cię o pomoc. Ostateczny krok, czyli potwierdzenie zamówienia i płatność, zawsze należy do Ciebie. System przygotuje wszystko, ale to Ty naciskasz finalny przycisk “Zamów”. To samo dotyczy zamawiania jedzenia czy rezerwowania biletów. To sprytne połączenie automatyzacji z ludzkim nadzorem.

Czy Android stanie się “systemem inteligencji”?

Dyrektor ekosystemu Android w Google nie owija w bawełnę. Według niego celem jest przekształcenie Androida z klasycznego systemu operacyjnego w coś, co firma nazywa “systemem inteligencji”. Co to właściwie oznacza? W praktyce Android ma przestać być jedynie platformą do uruchamiania aplikacji. Ma stać się proaktywnym asystentem, który rozumie kontekst i potrafi wykonywać złożone, wieloetapowe zadania za użytkownika. Zamawianie przejazdów to tylko wierzchołek góry lodowej. Pełnię możliwości zobaczymy w nadchodzącym systemie Android 17, który obecnie znajduje się w fazie testów beta. To właśnie tam trafi w pełni rozwinięty asystent AI, zdolny do obsługi znacznie szerszego spektrum aplikacji i zadań. Google chce, aby telefon stał się naszym osobistym konsjerżem, który rezerwuje stolik w restauracji, planuje podróż i kupuje bilety do kina, podczas gdy my zajmujemy się czymś innym. To ambitna wizja, która może na zawsze zmienić rynek mobilny.

Kiedy rewolucja trafi pod strzechy i czy Polska jest na liście?

Na razie nowa funkcja automatyzacji zadań jest zapowiedziana dla użytkowników w Stanach Zjednoczonych i Korei Południowej. To typowa strategia dla technologicznych gigantów – testowanie przełomowych rozwiązań na kluczowych rynkach, zanim zostaną udostępnione globalnie. O prawdziwej rewolucji będziemy mogli mówić dopiero wtedy, gdy asystent AI nauczy się obsługiwać lokalne aplikacje i usługi na całym świecie, w tym w Polsce. Wymaga to nie tylko dostosowania językowego, ale także wytrenowania modelu na setkach różnych interfejsów. Pomimo tego, kierunek jest jasny. Google i Samsung wyznaczają trend, za którym reszta branży będzie musiała podążyć. Zamiast tworzyć coraz prostsze interfejsy, producenci dążą do ich całkowitej eliminacji. Przyszłość interakcji z telefonem to nie stukanie w ekran, a rozmowa – naturalna, kontekstowa i diablo skuteczna. Pytanie nie brzmi “czy”, ale “kiedy” ta przyszłość stanie się naszą codziennością.