Skip to content Skip to sidebar Skip to footer

Koniec z przekrzykiwaniem. Meta właśnie dała supermoce okularom Ray-Ban

Meta ulepsza swoje inteligentne okulary. Nowa funkcja AI pozwoli Ci lepiej słyszeć rozmówcę w hałasie, a integracja ze Spotify dobierze muzykę do tego, co widzisz.

W skrócie:

  • Nowa funkcja “conversation-focus” w okularach Mety wzmacnia głos rozmówcy, ułatwiając komunikację w głośnych miejscach, takich jak restauracje czy bary.
  • Pojawiła się też integracja ze Spotify, która potrafi automatycznie odtworzyć piosenkę pasującą do tego, co akurat widzi użytkownik, na przykład okładki albumu.
  • Funkcja wzmacniania rozmowy jest na razie dostępna tylko w USA i Kanadzie, podczas gdy nowość od Spotify trafia na 19 rynków, w tym do Europy.

Wtorek w Meta upłynął pod znakiem aktualizacji, która może zmienić reguły gry dla posiadaczy inteligentnych okularów. Firma ogłosiła, że modele Ray-Ban Meta i Oakley Meta HSTN otrzymują dwie nowe funkcje napędzane przez AI. Jedna z nich wydaje się rewolucyjnie praktyczna. Druga – cóż, jest intrygującym gadżetem, który pokazuje, w jakim kierunku zmierza myśl technologiczna w Menlo Park. Obie jednak jasno komunikują, że okulary to dla Zuckerberga coś więcej niż tylko kamera na nosie. To brama do świata rozszerzonej, a może raczej – wspomaganej rzeczywistości.

Jak usłyszeć szept w huraganie? Meta ma odpowiedź

Najważniejszą nowością jest funkcja nazwana “conversation-focus”, zapowiedziana po raz pierwszy na tegorocznej konferencji Meta Connect. Jej zadanie jest proste, ale technicznie karkołomne: ma sprawić, że usłyszysz wyraźnie osobę, z którą rozmawiasz, nawet jeśli wokół panuje zgiełk zatłoczonej restauracji, hałas pociągu podmiejskiego czy klubowy bas. Technologia wykorzystuje głośniki typu open-ear wbudowane w zauszniki okularów, aby inteligentnie wzmacniać głos rozmówcy i izolować go od tła.

Meta zapewnia, że użytkownicy dostaną pełną kontrolę nad poziomem wzmocnienia. Regulacja odbywa się przez gest – przesunięcie palcem po prawym zauszniku – lub bezpośrednio w ustawieniach urządzenia. To pozwala precyzyjnie dostroić funkcję do otoczenia. Pomysł wydaje się genialny w swojej prostocie. Zamiast wyciągać z uszu słuchawki, by z kimś porozmawiać, po prostu aktywujesz tryb, który pomaga ci się skupić. To jedno z tych rozwiązań, które mają potencjał, by stać się dla użytkowników czymś naturalnym i niezbędnym.

Konkurencja nie śpi, czyli Apple był pierwszy

Pomimo tego, że pomysł Mety brzmi świeżo, firma nie jest pionierem w wykorzystywaniu akcesoriów jako swoistych aparatów słuchowych. Warto tu przywołać Apple, które już jakiś czas temu wprowadziło w swoich słuchawkach AirPods funkcję Conversation Boost. Działa ona na bardzo podobnej zasadzie, pomagając skupić się na głosie osoby stojącej naprzeciwko. Co więcej, modele z serii Pro poszły o krok dalej i oferują wsparcie dla funkcji aparatu słuchowego klasy klinicznej.

Wszystko wskazuje na to, że technologia ubieralna wkracza na terytorium zarezerwowane dotąd dla urządzeń medycznych. Oczywiście, skuteczność rozwiązania Mety będzie musiała zostać zweryfikowana w praktyce. Jednak sam kierunek jest fascynujący. Akcesoria, które nosimy na co dzień, mogą wkrótce nie tylko odtwarzać muzykę, ale też realnie poprawiać jakość naszego życia i percepcji, zacierając granicę między gadżetem a narzędziem wspomagającym.

Twoja playlista widzi to, co Ty. O co chodzi ze Spotify?

Druga nowość to integracja ze Spotify, która jest znacznie bardziej… eksperymentalna. Wyobraź sobie, że patrzysz na okładkę albumu swojego ulubionego artysty, a okulary same zaczynają odtwarzać jego piosenkę. Albo spoglądasz na choinkę z prezentami, a w głośnikach rozbrzmiewają świąteczne utwory. Tak, to dokładnie tak działa. Okulary analizują obraz i dobierają pasującą ścieżkę dźwiękową z biblioteki Spotify.

Można to uznać za zwykłą sztuczkę, ale trudno zignorować szerszy kontekst. Meta w ten sposób testuje fundamentalną ideę swoich okularów: połączenie tego, co widzimy, z akcjami, które możemy wykonać w aplikacjach. Dziś to tylko muzyka. Jutro może to być tłumaczenie menu w restauracji, identyfikacja rośliny w parku czy wyświetlanie recenzji produktu na sklepowej półce. Ta funkcja to poligon doświadczalny dla znacznie bardziej zaawansowanych zastosowań, które bez wątpienia nadejdą.

Kto pierwszy, ten lepszy? Ograniczona dostępność

Niestety, nie wszyscy użytkownicy otrzymają dostęp do nowości w tym samym czasie. Kluczowa funkcja, czyli “conversation-focus”, będzie początkowo dostępna wyłącznie dla użytkowników w Stanach Zjednoczonych i Kanadzie. Integracja ze Spotify ma znacznie szerszy zasięg – trafi do 19 krajów, w tym Australii, Brazylii, Wielkiej Brytanii i wielu państw europejskich (na liście na razie brakuje Polski).

Aktualizacja oprogramowania (wersja v21) w pierwszej kolejności zostanie udostępniona uczestnikom programu Meta Early Access Program, do którego trzeba zapisać się na listę oczekujących i uzyskać zgodę. Dopiero później trafi do wszystkich posiadaczy kompatybilnych okularów. To standardowa procedura, która pozwala firmie zebrać feedback przed globalnym wdrożeniem. Pozostaje nam czekać i mieć nadzieję, że funkcja wzmacniania rozmowy szybko opuści Amerykę Północną.