Skip to content Skip to sidebar Skip to footer

Meta pokazała nowe okulary z AI. To koniec smartfonów, jakie znamy?

Meta zaprezentowała nowe inteligentne okulary Ray-Ban Display z AI. Mają wbudowany ekran, asystenta i sterowanie opaską. Czy to rewolucja na miarę smartfona?

W skrócie:

  • Meta podczas dorocznej konferencji deweloperskiej zaprezentowała trzy nowe modele inteligentnych okularów, kontynuując swoją niespodziewanie udaną serię produktów.
  • Flagowy model, Meta Ray-Ban Display, wyposażono w miniaturowy ekran w soczewce, kamerę oraz asystenta AI, który widzi i słyszy otoczenie użytkownika.
  • Sterowanie aplikacjami i funkcjami okularów odbywa się za pomocą specjalnej opaski na nadgarstek, co sugeruje nowy kierunek interakcji z technologią.

Cztery lata temu, gdy Meta po raz pierwszy pokazała światu inteligentne okulary zdolne do robienia zdjęć, mało kto wróżył im sukces. Analitycy kręcili nosem, a internauci kpili z kolejnego projektu, który miał skończyć jak Google Glass. A jednak, produkt chwycił. Niespodziewanie, wbrew rynkowym prognozom. Miliony sprzedanych egzemplarzy później Mark Zuckerberg podbija stawkę, jakby chciał powiedzieć: “A nie mówiłem?”. Na dorocznej konferencji deweloperskiej w Menlo Park w Kalifornii, firma zaprezentowała nie jeden, a trzy nowe typy inteligentnych okularów. To już nie jest eksperymentalny gadżet dla entuzjastów. To starannie zaplanowany ruch, który ma pchnąć nas w stronę rzeczywistości rozszerzonej – czy tego chcemy, czy nie. I tym razem Meta ma w ręku coś więcej niż tylko kamerę w oprawkach.

Jak działają okulary z ekranem w soczewce?

Gwiazdą wieczoru bez wątpienia jest model Meta Ray-Ban Display. Sama nazwa zdradza kluczową nowość. W soczewce okularów umieszczono miniaturowy, przezroczysty ekran, który wyświetla aplikacje, powiadomienia czy multimedia udostępniane bezpośrednio na Instagramie. Pomyśl o tym przez chwilę – nawigacja GPS, która nie zmusza do spoglądania na telefon; wiadomość odczytywana dyskretnie, bez wyciągania urządzenia z kieszeni; podgląd tłumaczenia na żywo podczas rozmowy z obcokrajowcem. To wizja, którą znamy z filmów science fiction, od Terminatora po Black Mirror, ale Meta twierdzi, że właśnie ją urzeczywistniła. Dźwięk? Oczywiście, zapewniają go wbudowane głośniki typu open-ear, które kierują audio prosto do uszu użytkownika, zachowując przy tym pewien stopień prywatności. Całość ma wyglądać jak stylowe okulary, a nie hełm VR. Diabeł, jak zwykle, tkwi w szczegółach: jaka będzie żywotność baterii, czy ekran będzie czytelny w pełnym słońcu i – co najważniejsze – czy społeczeństwo jest gotowe na ludzi z wyświetlaczami w oczach?

AI, która patrzy na świat Twoimi oczami?

Największą rewolucją nie jest jednak sam ekran, lecz to, co za nim stoi. Okulary wyposażono w asystenta AI, który widzi przez wbudowaną kamerę i słyszy przez mikrofon. To fundamentalna zmiana w porównaniu do asystentów, których znamy ze smartfonów czy głośników. Siri i Asystent Google są ślepi – reagują na komendy, ale nie mają pojęcia o świecie wizualnym. AI Mety ma mieć oczy. Dzięki temu zyskuje kontekst. Potencjalnie może zidentyfikować budynek, na który patrzysz i podać jego historię, przetłumaczyć menu w restauracji w czasie rzeczywistym lub pomóc w naprawie zepsutego urządzenia, analizując problem na żywo. “To asystent, który jest z tobą w świecie, a nie tylko w twoim telefonie” – mówił ze sceny Zuckerberg. Brzmi imponująco, ale jednocześnie rodzi pytania, które muszą paść. Jakie dane zbiera ta kamera? Gdzie są przetwarzane? I kto ma do nich dostęp? Meta wchodzi na zupełnie nowy, niebezpiecznie ciekawy teren, gdzie granica między użyteczną pomocą a dystopijną inwigilacją jest cieńsza niż kiedykolwiek.

Czy opaska na nadgarstku zastąpi ekran dotykowy?

Jak sterować tym cudem techniki? Tu Meta serwuje kolejną niespodziankę. Zamiast ograniczać się do paneli dotykowych na zausznikach (choć te pewnie też tam są jako opcja), głównym kontrolerem ma być specjalna opaska na nadgarstek. Firma nie zdradziła szczegółów jej działania, ale branżowe spekulacje wskazują na technologię EMG (elektromiografii), która odczytuje sygnały elektryczne wysyłane z mózgu do mięśni dłoni. W praktyce oznaczałoby to sterowanie interfejsem za pomocą ledwo widocznych gestów palcami. To nie jest już pukanie w plastik, to niemal czytanie w myślach. Taki interfejs, jeśli okaże się intuicyjny i niezawodny, mógłby faktycznie uwolnić nas od wszechobecnych ekranów dotykowych. Jest to kolejny krok w stronę ambient computing – idei technologii, która jest wszędzie, ale pozostaje niewidoczna, wtopiona w nasze otoczenie i ciało. Meta nie sprzedaje już tylko okularów; sprzedaje wizję zupełnie nowego sposobu interakcji ze światem cyfrowym. I po cichu liczy na to, że po raz kolejny trafili w dziesiątkę, otwierając rozdział, w którym smartfon staje się reliktem.