Twórca Signala, Moxie Marlinspike, uruchomił Confer – asystenta AI, który ma być rewolucją w prywatności. Koniec ze szpiegowaniem i reklamami w czatach.
W skrócie:
- Confer to nowy asystent AI stworzony przez współzałożyciela Signal, Moxie Marlinspike’a, z naciskiem na maksymalną ochronę prywatności użytkowników.
- System wykorzystuje szyfrowanie i specjalne środowiska TEE, aby uniemożliwić twórcom dostęp do treści rozmów, co chroni je przed analizą i reklamami.
- Darmowa wersja jest ograniczona do 20 wiadomości dziennie, a pełen dostęp kosztuje 35 dolarów miesięcznie – znacznie więcej niż w przypadku konkurencji.
Asystenci AI, choć fascynujący, budzą uzasadniony niepokój o prywatność. Trudno z nich korzystać, nie dzieląc się osobistymi informacjami, które – co tu kryć – są skrupulatnie przechowywane przez firmy stojące za modelami. OpenAI już testuje reklamy, więc nietrudno sobie wyobrazić scenariusz, w którym mechanizmy zbierania danych, napędzające dziś Facebooka i Google, wkradną się do naszych rozmów z chatbotem. I właśnie wtedy na scenę wchodzi on. Cały na biało. A właściwie – z kodem źródłowym w ręku.
Nowy projekt, uruchomiony w grudniu przez współzałożyciela komunikatora Signal, Moxie Marlinspike’a, pokazuje, jak mogłaby wyglądać usługa AI szanująca naszą prywatność. Confer, bo tak nazywa się to narzędzie, na pierwszy rzut oka przypomina ChatGPT czy Claude. Diabeł, jak zwykle, tkwi w szczegółach, a konkretnie w architekturze backendu, którą zaprojektowano tak, by unikać gromadzenia danych z rygorem, za który pokochaliśmy Signala. Rozmowy z Confer nie posłużą do trenowania modelu ani targetowania reklam. Z prostego powodu: host nigdy nie będzie miał do nich dostępu.
Dlaczego prywatny chatbot to dziś konieczność?
Dla Marlinspike’a te zabezpieczenia są odpowiedzią na intymny charakter samej usługi. Jego zdaniem wchodzimy w erę technologii, która wręcz zachęca do zwierzeń, a to rodzi potężne ryzyko. Sam interfejs czatu sprawia, że dzielimy się informacjami, których nie powierzylibyśmy nikomu innemu – może poza terapeutą. A co, jeśli ktoś zapłaci naszemu terapeucie, by przekonał nas do zakupu nowego gadżetu?
“To forma technologii, która aktywnie zaprasza do spowiedzi” – mówi bez ogródek Marlinspike. – “Interfejsy czatowe, takie jak ChatGPT, wiedzą o ludziach więcej niż jakakolwiek technologia przed nimi. Kiedy połączysz to z reklamą, to tak, jakby ktoś płacił twojemu terapeucie, aby przekonał cię do zakupu czegoś”. Trudno o lepszą metaforę. Sztuczna inteligencja staje się powiernikiem, a my musimy mieć pewność, że nasze sekrety nie staną się paliwem dla machiny marketingowej.
Jak działa technologia, która nic o tobie nie wie?
Zapewnienie takiej prywatności wymaga współdziałania kilku zaawansowanych systemów. To nie jest prosta sztuczka, lecz skomplikowana inżynieryjna łamigłówka. Po pierwsze, Confer szyfruje wiadomości wysyłane do i z systemu przy użyciu standardu WebAuthn, opartego na kluczach dostępu (passkeys). To rozwiązanie działa najlepiej na urządzeniach mobilnych i komputerach Mac z systemem Sequoia, ale można je uruchomić także na Windowsie czy Linuksie z pomocą menedżera haseł.
Po stronie serwera dzieje się prawdziwa magia. Całe przetwarzanie zapytań odbywa się w tak zwanym Zaufanym Środowisku Wykonawczym (Trusted Execution Environment – TEE). To odizolowany obszar w procesorze, do którego nawet administrator serwera nie ma dostępu. Dodatkowo systemy zdalnej atestacji weryfikują, czy środowisko nie zostało naruszone. Wewnątrz tej cyfrowej fortecy działa szereg modeli fundamentalnych typu open-weight, które obsługują zapytania użytkownika. Efekt jest znacznie bardziej skomplikowany niż standardowa konfiguracja serwerów AI, ale spełnia podstawową obietnicę złożoną użytkownikom. Dopóki te zabezpieczenia działają, możemy prowadzić z modelem wrażliwe rozmowy bez obawy, że jakakolwiek informacja wycieknie na zewnątrz.
Ile kosztuje prawdziwa prywatność w świecie AI?
Oczywiście, taka technologia ma swoją cenę. I to niemałą. Darmowy plan Confer jest ograniczony do 20 wiadomości dziennie i pięciu aktywnych czatów. To wystarczy, by przetestować usługę, ale nie do codziennej, intensywnej pracy. Użytkownicy, którzy zechcą zapłacić 35 dolarów miesięcznie, otrzymają nielimitowany dostęp, a także możliwość korzystania z bardziej zaawansowanych modeli i personalizacji.
To znacznie więcej niż plan Plus w ChatGPT, który kosztuje 20 dolarów. Jednak prywatność, jak widać, nie jest tania. W świecie, gdzie nasze dane stały się najcenniejszą walutą, usługa, która świadomie z niej rezygnuje, musi znaleźć inny model biznesowy. Pytanie brzmi: czy jesteśmy gotowi zapłacić za spokój ducha? Marlinspike stawia, że tak. I być może ma rację, bo coraz więcej osób rozumie, że jeśli nie płacisz za produkt, to ty jesteś produktem.