Nowy generator AI od Google, Nano Banana Pro, tworzy obrazy tak niedoskonałe, że wyglądają jak prawdziwe zdjęcia ze smartfona. Zamiast idealnych grafik – szum i błędy.
Przez lata goniliśmy za technologiczną perfekcją. Chcieliśmy, by zdjęcia z naszych telefonów były ostrzejsze, jaśniejsze, bardziej nasycone. Aż tu nagle na scenę wchodzi Google ze swoim nowym modelem AI, Nano Banana Pro, i robi coś dokładnie odwrotnego. Generuje obrazy tak wiarygodnie… nieidealne, że trudno odróżnić je od autentycznej, nieco nieudanej fotki z wakacji. Wchodzimy w erę, w której nawet niedoskonałość można perfekcyjnie podrobić, a to rodzi fundamentalne pytania o naturę obrazu i naszą zdolność do odróżniania prawdy od fikcji.
W skrócie:
- Google zaprezentował model Nano Banana Pro, który specjalizuje się w tworzeniu obrazów naśladujących niedoskonałości fotografii robionych smartfonami.
- Model został wytrenowany na gigantycznej bazie danych Google, zawierającej m.in. zdjęcia z Google Photos, co pozwoliło mu na naukę typowych błędów i kompresji.
- Eksperci, jak Allison Johnson z The Verge, wskazują, że zdolność AI do symulowania niedoskonałości utrudnia weryfikację autentyczności obrazów w internecie.
Jak doszliśmy do ery perfekcyjnej niedoskonałości?
Odpowiedź jest prostsza i bardziej niepokojąca, niż mogłoby się wydawać. Sami, przez lata, dostarczaliśmy maszynom dane treningowe. Google, pozwalając na nielimitowane przechowywanie skompresowanych zdjęć w chmurze, nie robił tego z czystej filantropii. Każda fotografia z wakacji, każde selfie, każde zdjęcie posiłku stawało się lekcją dla algorytmów. Podobnie działa reCaptcha, gdzie oznaczając na zdjęciach sygnalizację świetlną czy przejścia dla pieszych, uczyliśmy AI rozpoznawania obiektów. Nano Banana Pro jest po prostu kulminacją tego długiego procesu. Po nieśmiałych początkach DALL‑E i coraz bardziej profesjonalnym Midjourney, dostaliśmy narzędzie, które zrozumiało najważniejszą zasadę wiarygodności: prawdziwe życie nie jest idealne.
Dlaczego smartfon już dawno przestał robić “prawdziwe” zdjęcia?
Spójrzmy prawdzie w oczy – fotografia w naszych telefonach od dawna jest bardziej “obliczeniowa” niż “optyczna”. Nowoczesne matryce widzą więcej niż ludzkie oko, a oprogramowanie agresywnie przetwarza obraz, podkręcając kolory, wyostrzając detale i redukując szumy. To już nie jest czysty zapis rzeczywistości, a jej zaawansowana interpretacja. Słynne “domalowywanie” szczegółów księżyca w smartfonach niektórych producentów było tylko wierzchołkiem góry lodowej. Żyjemy w świecie ciągłej kompresji, gdzie obrazy tracą jakość z każdym kolejnym udostępnieniem w mediach społecznościowych. Te wszystkie artefakty, błędy i niedoskonałości stały się częścią wizualnego języka internetu. A Nano Banana Pro nauczył się tego języka na pamięć. Jak ujął to teoretyk komunikacji Herbert Marshall McLuhan – “przekaźnik jest przekazem”. Obecnie przekaźnikiem jest algorytm, a przekaz staje się niepokojąco płynny.
Czy to koniec zaufania do obrazu w internecie?
Być może natknęliście się w sieci na raport Allison Johnson z The Verge. Dziennikarka poprosiła Nano Banana Pro o wygenerowanie grafiki wyglądającej jak typowe zdjęcie ze smartfona. Efekt był zdumiewający. AI nie stworzyło idealnej, wystylizowanej kompozycji. Zamiast tego wygenerowało obraz z lekkim przepaleniem, subtelnym szumem w cieniach i kolorystyką, która do złudzenia przypominała to, co widzimy na co dzień na Instagramie. Paradoksalnie, to właśnie te “błędy” czynią wygenerowany obraz tak przerażająco wiarygodnym. Sprawniejsze oko może dostrzec, że dodane obiekty nie zawsze poprawnie rzucają cień, ale w natłoku informacji na feedzie mediów społecznościowych nikt nie ma czasu na taką analizę. Problem w tym, że nie chodzi już tylko o fałszywe zdjęcia celebrytów. Chodzi o możliwość wygenerowania fałszywych dowodów z całego, zwyczajnego życia.
Co dalej z weryfikacją w cyfrowym świecie?
Pozostaje nam liczyć na to, że wraz z rozwojem narzędzi do generowania obrazów, powstaną równie skuteczne systemy do ich weryfikacji. Oczywiście, możemy samodzielnie oznaczać treści stworzone przez AI, ale to kropla w morzu potrzeb. Większa odpowiedzialność spoczywa na barkach platform społecznościowych. Trudno jednak oczekiwać, że Meta, która sama intensywnie promuje aplikację Meta AI, będzie miała interes w informowaniu użytkowników na każdym kroku, że obrazy, które oglądają, są nieprawdziwe. To by psuło zabawę. A w tej zabawie stawką jest nasza wspólna, wizualna rzeczywistość. Wygląda na to, że wchodzimy w czasy, w których jedynym sposobem na walkę z ogniem będzie… inny, mądrzejszy ogień. Tylko czy na pewno chcemy żyć w świecie, gdzie jedno AI sprawdza drugie, a my stoimy pośrodku, nie wiedząc już, w co wierzyć?