Microsoft ujawnił, jak używamy AI. Zamiast pracy, pytamy o zdrowie, miłość i sens życia. Raport Copilota pokazuje, że AI stało się cyfrowym terapeutą.
W skrócie:
- Analiza 37,5 mln rozmów z Copilotem pokazuje, że na telefonach AI pełni rolę asystenta zdrowia, a nie narzędzia do pracy. Użytkownicy pytają o dietę i sen.
- W lutym, w okolicach Walentynek, drastycznie wzrosła liczba zapytań o relacje. Copilot stał się doradcą w sprawach sercowych, pomagając pisać wiadomości.
- Między północą a świtem dominują tematy filozoficzne i religijne. Użytkownicy szukają w AI partnera do głębszych rozmów o sensie życia i egzystencji.
Microsoft postanowił zajrzeć nam przez ramię i sprawdzić, do czego tak naprawdę używamy jego lśniącej, nowej zabawki – Copilota. Firma przeanalizowała 37,5 miliona zanonimizowanych rozmów z okresu od stycznia do września i opublikowała raport, który jest niczym innym jak lustrem podstawionym całemu społeczeństwu. Wyniki? Cóż, są zaskakujące, momentami niepokojące, ale przede wszystkim – do bólu ludzkie. Okazuje się, że sztuczna inteligencja nie jest już tylko asystentem w Excelu. Stała się cyfrowym konfesjonałem, terapeutą i doradcą dostępnym 24/7.
Jak cyfrowy asystent stał się powiernikiem?
Największe zaskoczenie przynosi podział na platformy. Na komputerze wciąż zachowujemy pozory profesjonalizmu. Pytamy o kod, prosimy o generowanie tekstów, szukamy wsparcia w zadaniach zawodowych. To nasza przestrzeń produktywności. Telefon to zupełnie inna historia. Tutaj Copilot przeistacza się w nieformalnego asystenta medycznego i emocjonalnego. Pytania o zdrowie, samopoczucie, dietę, techniki relaksacyjne i sposoby na lepszy sen dominują w konwersacjach mobilnych. To pokazuje fundamentalną zmianę w postrzeganiu AI. Microsoft zgrabnie to ujął: desktop to przestrzeń gęstości informacji, a telefon – przestrzeń empatii i spersonalizowanego wsparcia. I trudno się z tym nie zgodzić.
Kod w tygodniu, gry w weekend. Kim jest typowy użytkownik AI?
Dane z sierpnia ujawniły coś, co socjologom technologii mogłoby spędzić sen z powiek. Programiści, dotąd wierni fani zapytań o Pythona i składnię kodu, nagle zaczęli masowo pytać Copilota o… gry. Nie, to nie były dwie różne grupy. To ci sami ludzie. W dni robocze szukali pomocy w debugowaniu, a w weekendy prosili o wskazówki dotyczące silnika Unity czy solucje do gier online. Ta dychotomia jest fascynująca. Pokazuje, że granice między pracą a pasją, między narzędziem a rozrywką, zacierają się w sposób, którego się nie spodziewaliśmy. Programowanie i granie to dla wielu po prostu dwie strony tej samej, kreatywnej monety. A AI stało się uniwersalnym medium, które łączy te światy.
O co pytamy AI, gdy nikt nie patrzy?
Raport Microsoftu to także kronika naszych sezonowych uniesień i nocnych lęków. W lutym, tuż przed Walentynkami, statystyki w kategoriach “Relacje” i “Wellness” wystrzeliły w kosmos. Copilot stał się nieoficjalnym doradcą sercowym, który pomagał pisać miłosne wiadomości i planować romantyczne kolacje. To dowód, jak gładko wpuściliśmy technologię w najbardziej intymne sfery życia. A co dzieje się w nocy? Między północą a świtem, kiedy świat pogrąża się we śnie, my zwracamy się do AI z fundamentalnymi pytaniami. To wtedy dominują zapytania o religię, filozofię i sens istnienia. W ciszy i samotności sztuczna inteligencja staje się partnerem do rozmów egzystencjalnych. Z kolei w godzinach porannych, podczas dojazdów do pracy, najczęściej pytamy o podróże. Proza życia wraca do normy.
Czy to jeszcze pomoc, czy już niebezpieczne uzależnienie?
Początkowo sądziliśmy, że AI będzie po prostu lepszą wyszukiwarką. Szybszą, bardziej precyzyjną. Tymczasem zamiast o fakty, coraz częściej prosimy o rady. O wsparcie, którego nie otrzymujemy gdzie indziej. Microsoft doskonale zdaje sobie sprawę z ryzyka. Sarah Bird, szefowa ds. odpowiedzialnego AI w firmie, przyznaje otwarcie: “Jest tu ogromny potencjał, ale musimy zastanowić się nad odpowiednimi kontrolami i zabezpieczeniami”. Cień niesławnego chatbota Tay z 2016 roku, który w dobę stał się rasistą, wciąż unosi się nad Redmond. AI może się mylić, wzmacniać szkodliwe wzorce, a porada od Copilota nie jest chroniona prawnie jak konsultacja z lekarzem. Pomimo tego ludzie z niego korzystają. Najwyraźniej potrzeba bycia wysłuchanym jest silniejsza niż strach. I to jest być może najważniejszy, choć nieco niepokojący, wniosek z całego raportu.