Skip to content Skip to sidebar Skip to footer

Twoje rozmowy z AI wcale nie są prywatne? Perplexity, Google i Meta z gigantycznym pozwem!

Perplexity, Google i Meta na celowniku sądu. Pozew zbiorowy zarzuca firmom udostępnianie rozmów z AI stronom trzecim – nawet w trybie Incognito. Co to oznacza?

W skrócie:

  • Anonimowy użytkownik złożył pozew zbiorowy, oskarżając Perplexity o udostępnianie treści rozmów z AI firmom Google i Meta bez wyraźnej zgody użytkownika.
  • Zarzuty dotyczą również trybu Incognito, który rzekomo nie zapewniał obiecywanego poziomu prywatności i mógł wprowadzać użytkowników w błąd co do ochrony ich danych.
  • Sprawa trafiła do sądu federalnego w San Francisco i opiera się na kalifornijskich przepisach o ochronie prywatności, co może mieć szerokie konsekwencje dla całej branży AI.

Jak prywatne są nasze rozmowy z AI?

Rynek wyszukiwarek i asystentów AI wszedł w fazę, w której nie liczy się już tylko prędkość odpowiedzi. Kluczowe staje się to, co dzieje się z danymi, które wpisujemy w pole czatu, zwłaszcza gdy traktujemy te narzędzia jako prywatną przestrzeń. To tam lądują pytania o zdrowie, finanse, podatki czy dylematy zawodowe. Właśnie dlatego pozew złożony przeciwko Perplexity, Google i Meta odbił się tak szerokim echem. Stawia bowiem fundamentalne pytanie: czy obietnice prywatności w usługach AI mają jakiekolwiek pokrycie w rzeczywistości, czy to tylko marketingowy frazes?

Sprawa dotyka sedna problemu zaufania w erze sztucznej inteligencji. Użytkownicy coraz częściej traktują chatboty jako hybrydę wyszukiwarki, osobistego doradcy i cyfrowego notatnika. Wpisują tam informacje znacznie bardziej wrażliwe niż te, które kiedykolwiek powierzyliby klasycznemu paskowi wyszukiwania. Jeżeli za kulisami tych narzędzi działają mechanizmy śledzące podmiotów trzecich, granica między technologicznym wsparciem a bezwzględnym komercyjnym profilowaniem zaczyna się niebezpiecznie zacierać. I to jest właśnie jądro oskarżeń.

Perplexity pod lupą: co dokładnie zarzuca pozew?

Z dokumentów sądowych wynika, że po wejściu użytkownika na stronę Perplexity miały aktywować się mechanizmy śledzące powiązane z Google i Meta. Według skarżącego pozwalało to tym firmom na dostęp do treści prowadzonych konwersacji. Mówiąc wprost – potencjalnie również do samych pytań wpisywanych do systemu AI. To zarzut niezwykle poważny, ponieważ nie dotyczy on zwykłych danych analitycznych (jak kliknięcia czy czas spędzony na stronie), ale samej istoty interakcji z czatbotem.

Najbardziej kontrowersyjny jest jednak wątek trybu Incognito. Jego nazwa jednoznacznie sugeruje wyższy poziom prywatności i odseparowania danych. Tymczasem pozew twierdzi, że była to obietnica bez pokrycia. Skarżący uznał tę funkcję za mylącą, ponieważ w praktyce informacje o jego aktywności miały nadal trafiać do zewnętrznych platform reklamowych. Redakcja Bloomberga, która opisała sprawę, podkreśla, że pozew został złożony w sądzie federalnym w San Francisco i opiera się na zarzutach naruszenia kalifornijskich przepisów dotyczących prywatności. Sprawa ma formę proponowanego pozwu zbiorowego, co oznacza, że powodowie będą dążyć do objęcia nim szerszej grupy użytkowników, którzy mogli korzystać z usługi w podobnych warunkach.

Kryzys zaufania, który może dotknąć całą branżę

Ta sprawa to sygnał ostrzegawczy dla całego sektora AI. Sama obecność polityki prywatności na stronie już nie wystarczy. Zwłaszcza jeśli sposób zbierania danych jest opisany w sposób nieczytelny, ukryty w gąszczu prawniczego żargonu albo po prostu niezrozumiały dla przeciętnego użytkownika. Firmy technologiczne będą musiały coraz precyzyjniej komunikować, jakie dane zapisują, komu je przekazują i czy funkcje marketingowo określane jako “prywatne” rzeczywiście ograniczają przepływ informacji. W przeciwnym razie czeka je fala pozwów i utrata zaufania, które w tej branży jest walutą cenniejszą niż moce obliczeniowe.

Trzeba oczywiście podkreślić, że na obecnym etapie są to jedynie zarzuty z pozwu, a nie prawomocnie potwierdzone ustalenia sądu. Proces może potrwać miesiącami, a nawet latami. Pomimo tego, sama skala oskarżeń pokazuje, że prywatność w narzędziach AI staje się jednym z najważniejszych pól sporu między użytkownikami, platformami technologicznymi i regulatorami. Dla nas, użytkowników, to ważna lekcja. Warto dwa razy zastanowić się, jakie informacje powierzamy tego typu platformom, niezależnie od tego, jak bardzo kuszące wydają się ich obietnice. Bo czasem za wygodą kryje się koszt, którego nie widać na pierwszy rzut oka.