Szef Instagrama Adam Mosseri ogłosił koniec platformy, jaką znamy. W zalewie treści AI firma porzuca walkę z fałszem i stawia na certyfikację tego, co prawdziwe.
W skrócie:
- Adam Mosseri ogłosił zmianę strategii: zamiast wykrywać deepfake’i, Instagram będzie certyfikować autentyczne treści, ponieważ obecne detektory AI mają skuteczność poniżej 40%.
- Platforma porzuca estetykę perfekcji. „Ten feed jest martwy” – stwierdził Mosseri, zapowiadając zwrot ku surowym, autentycznym treściom w stylu, który spopularyzował TikTok.
- Meta przerzuca odpowiedzialność na producentów sprzętu (poprzez standard C2PA) i użytkowników, pomimo że sama zainwestowała miliardy w rozwój technologii generatywnej AI.
Adam Mosseri, szef Instagrama, w swoim noworocznym wpisie zrzucił bombę. „Przez większość mojego życia mogłem z dużym prawdopodobieństwem założyć, że zdecydowana większość fotografii lub wideo które widzę to w dużej mierze dokładne uchwycenie momentów, które wydarzyły się w rzeczywistości. To wyraźnie już nie jest prawda” – napisał. To zdanie, brzmiące jak epitafium dla całej epoki wizualnego zaufania, jest w zasadzie przyznaniem się do porażki. Instagram, a z nim cała Meta, kapituluje w wojnie z deepfake’ami. Zamiast ścigać fałsz, zacznie certyfikować prawdę. A to zmienia absolutnie wszystko.
Dlaczego Meta poddaje się w walce z deepfake’ami?
Odpowiedź jest brutalnie prosta: bo tej walki nie da się wygrać narzędziami, które mamy. A właściwie – których nie mamy. Naukowcy z University of Maryland przetestowali 14 popularnych narzędzi do wykrywania treści AI. Wyniki? Żadne nie przekroczyło 80% skuteczności, a większość nie dobiła nawet do 70%. Średnia skuteczność detektorów tekstowych to zaledwie 39,5%. To mniej niż rzut monetą. Sytuacja w edukacji jest jeszcze gorsza – system Turnitin, standard w antyplagiacie, myli się w połowie przypadków, oznaczając ludzkie prace jako dzieło maszyny.
Paradoks polega na tym, że to sama Meta jest jednym z głównych motorów napędowych tego chaosu. Firma wydała w 2024 roku około 40 miliardów dolarów na rozwój AI, a w ubiegłym roku kwota ta miała wzrosnąć do 65 miliardów. Inwestuje gigantyczne pieniądze w rozwój technologii generatywnych, a następnie rozkłada ręce, bo rozpoznanie ich efektów staje się niemożliwe. Mosseri przyznaje to wprost: „Wszystko, co sprawiało, że twórcy mieli znaczenie – autentyczność, kontakt, niepodrabialny głos – stało się dostępne dla każdego, kto ma odpowiednie narzędzia”.
Certyfikat prawdy, czyli kto posprząta ten bałagan?
Skoro nie da się udowodnić fałszu, trzeba zacząć udowadniać prawdę. Pomysłem na to jest C2PA (Coalition for Content Provenance and Authenticity) – standard kryptograficznego podpisywania zdjęć i filmów już w momencie ich tworzenia. Brzmi sensownie, a branża sprzętowa podchwyciła temat. Leica, Sony, Canon, Nikon, a nawet Google w smartfonach Pixel wdrażają lub zapowiadają wsparcie dla C2PA. Pomysł jest taki: aparat cyfrowo poświadcza, że zdjęcie jest autentyczne. Proste? Tylko w teorii.
System ma fundamentalne wady. Po pierwsze, zabezpieczenia można obejść w dwie sekundy. Badacze z IEEE Spectrum pokazali, że wystarczy zrobić zrzut ekranu, by usunąć cyfrowy znak wodny. Po drugie, platformy społecznościowe, z Instagramem na czele, rutynowo usuwają metadane podczas kompresji obrazów, co unieważnia cały certyfikat. I po trzecie, koszt certyfikatów i złożoność wdrożenia mogą stworzyć nowy system kastowy, w którym tylko „zaufani” i zamożni twórcy będą wiarygodni. Meta, zamiast rozwiązać problem, który sama stworzyła, przerzuca odpowiedzialność na producentów aparatów i samych użytkowników.
“Ten feed jest martwy”. Jak Instagram zabija własną tożsamość?
Największy szok w manifeście Mosseriego to deklaracja końca estetyki, na której Instagram zbudował swoje imperium. „Ten feed jest martwy” – pisze bez ogródek. Platforma, która przez lata promowała wyidealizowany, perfekcyjny świat, teraz ogłasza, że perfekcja stała się podejrzana. „Fotografia pochlebiająca jest tania w produkcji i nudna w konsumpcji. Ludzie chcą treści, które wydają się prawdziwe” – dodaje. To zwrot o 180 stopni, wymuszony przez TikToka i zmianę pokoleniową. Młodsi użytkownicy już dawno uciekli od publicznego feedu do Relacji i wiadomości prywatnych, gdzie dzielą się niepochlebnymi selfie i zdjęciami butów.
Dla fotografów i twórców wizualnych to policzek. Od miesięcy alarmują, że algorytm drastycznie obcina zasięgi zdjęć (szacunki mówią o dotarciu do zaledwie 5 – 7% obserwujących), faworyzując Rolki. Wskaźniki zaangażowania spadły do rekordowo niskiego poziomu 0,45%, co oznacza spadek o 28% rok do roku. Platforma, która kiedyś była ich domem, dziś traktuje ich jak piąte koło u wozu. Nic dziwnego, że coraz głośniej mówi się o masowym exodusie.
Kto za to wszystko zapłaci? Użytkownicy
Zamiast apokalipsy dezinformacji, której tak się obawiano, dostaliśmy coś gorszego: permanentny stan nieufności. Zalewa nas AI slop – masowo generowane, niskiej jakości treści, które obniżają standardy dla wszystkich i zmuszają nas do ciągłej weryfikacji. Termin ten nie bez powodu został słowem roku 2025 według Merriam-Webster. Przechodzimy od zasady „ufaj, chyba że masz powód, by wątpić” do „wątp, chyba że możesz zweryfikować”. To fundamentalna zmiana, która jest psychologicznie wyczerpująca.
Meta nie ma rozwiązania. Adam Mosseri ma co prawda plan oparty na pięciu filarach (narzędzia, oznaczanie AI, współpraca, „odcisk palca” i wiarygodność kont), ale w praktyce jest to plan na umycie rąk. To my – użytkownicy – będziemy musieli nauczyć się nowych form cyfrowej higieny i sceptycyzmu. Ironia jest gorzka: firma, która zarobiła miliardy na naszym zaufaniu do obrazu, teraz mówi nam, że nie możemy już ufać własnym oczom. A na końcu, być może, zaproponuje nam aparat z certyfikatem. Oczywiście za odpowiednią cenę.