Skip to content Skip to sidebar Skip to footer

Photoshop dostaje własnego ChatGPT! Adobe odpala AI na pełnej mocy

Adobe na konferencji MAX odpaliło AI na pełnej mocy. Firefly generuje muzykę i mowę, a Photoshop zyskuje asystenta. W tle majaczy mariaż z ChatGPT. Co się dzieje?

W skrócie:

  • Firefly generuje muzykę i mowę: Nowe funkcje pozwalają tworzyć ścieżki dźwiękowe do wideo oraz generować głos lektora w 15 językach, wykorzystując do tego modele Adobe i ElevenLabs.
  • Własne modele AI dla każdego: Użytkownicy indywidualni będą mogli trenować niestandardowe modele Firefly na podstawie własnych grafik, by generować spójne postacie i style wizualne.
  • Asystent AI w Photoshopie i integracja z ChatGPT: Adobe wprowadza agenta AI do Photoshopa, który ma pomóc w obsłudze narzędzi. Firma zapowiedziała też współpracę z OpenAI i integrację z ChatGPT.

Tegoroczna konferencja Adobe MAX w Los Angeles nie pozostawia złudzeń. Firma, która przez dekady definiowała oprogramowanie dla kreatywnych, postawiła wszystko na jedną kartę – sztuczną inteligencję. To już nie są eksperymenty ani ostrożne próby. To totalna ofensywa, która ma zmienić nie tylko flagowe produkty jak Photoshop czy Premiere, ale fundamentalnie przebudować sposób, w jaki myślimy o tworzeniu. Adobe nie próbuje już tylko nadążać za rewolucją. Próbuje stanąć na jej czele, a ogłoszone nowości pokazują, że ma na to i pomysł, i technologię. Zapnijcie pasy, bo gigant z San Jose właśnie wcisnął gaz do dechy.

Co nowego potrafi świetlik? Muzyka, mowa i wideo w przeglądarce

Główną gwiazdą pokazów był oczywiście Firefly – autorski model generatywny Adobe. Do tej pory kojarzony głównie z tworzeniem i edycją obrazów, teraz wkracza na zupełnie nowe terytoria: dźwięku i mowy. Dwie nowe funkcje, Generate SoundtrackGenerate Speech, robią dokładnie to, co sugerują ich nazwy, ale diabeł tkwi w szczegółach. Pierwsza z nich analizuje wgrany materiał wideo i proponuje prompt do stworzenia ścieżki dźwiękowej. Zamiast pisać komendy od zera, użytkownik może określić nastrój, styl i cel muzyki – na przykład „napięta, orkiestrowa ścieżka do sceny pościgu”. Koniec z godzinami spędzonymi na przeszukiwaniu banków z muzyką stockową. To prawdziwy przełom dla montażystów i twórców wideo.

Druga nowość, Generate Speech, to debiut Adobe w technologii text-to-speech. Firma wykorzystuje tu nie tylko własne modele, ale również technologię od lidera w tej dziedzinie – ElevenLabs. Na starcie system obsłuży 15 języków i pozwoli na dodawanie tagów emocji. Co ciekawe, tagi można przypisywać do konkretnych fragmentów tekstu, co pozwala na precyzyjną kontrolę nad intonacją i akcentem. To narzędzie, które może zrewolucjonizować produkcję podcastów, audiobooków czy materiałów e‑learningowych. Na dokładkę Adobe zapowiedziało wbudowany, wielościeżkowy edytor wideo bezpośrednio w przeglądarkowym interfejsie Firefly, który połączy materiały nagrane z tymi wygenerowanymi przez AI.

Czy to koniec stockowych zdjęć? Własne modele AI dla każdego

Dotychczas możliwość trenowania własnych, niestandardowych modeli AI w Firefly była zarezerwowana dla klientów biznesowych. Teraz Adobe otwiera tę funkcję dla wszystkich. Wystarczy zaledwie od 6 do 12 obrazów, aby nauczyć model generowania spójnej postaci, oraz nieco więcej, aby wytrenować go w konkretnym stylu graficznym. To fundamentalna zmiana, która pozwala twórcom na zachowanie pełnej kontroli nad estetyką i spójnością wizualną swoich projektów. Podstawą wciąż pozostaje główny model Firefly, co gwarantuje, że generowane treści są bezpieczne do użytku komercyjnego, ponieważ Adobe trenuje swoje AI na własnych, licencjonowanych danych.

Równolegle firma wprowadza Firefly Image Model 5. Nowa wersja, podobnie jak poprzednia, generuje obrazy w natywnej rozdzielczości 4 megapikseli (2K), ale jej największą siłą jest edycja warstwowa. Podczas demonstracji pokazano, jak AI analizuje zdjęcie miski z ramenem, automatycznie identyfikuje poszczególne elementy – pałeczki, jajko, makaron – i pozwala na ich swobodne przesuwanie, zmianę rozmiaru, a nawet zastępowanie wygenerowanymi obiektami. Przesunięcie pałeczek w inne miejsce i dodanie miseczki z płatkami chili odbyło się bez żadnych widocznych artefaktów. To już nie jest proste generowanie obrazów, to inteligentna, kontekstowa manipulacja treścią, która może drastycznie skrócić czas pracy grafików.

Photoshop wreszcie cię zrozumie. Asystent AI i mariaż z ChatGPT

Modne ostatnio hasło w świecie AI to *agentic AI* – inteligentny asystent, który wykonuje za nas konkretne zadania. Adobe, które ma już takiego pomocnika w programie Acrobat, przenosi tę koncepcję do Photoshopa i Express. Asystent ma pełnić funkcję edukacyjną. Zamiast ślepo wykonywać polecenia, wskaże odpowiednie narzędzie i poprowadzi użytkownika przez proces, pozostawiając mu pełną kontrolę nad finalnym efektem. To ma być pomost między potężnymi możliwościami programu a użytkownikiem, który nie zawsze wie, jak je wykorzystać.

Jednak największe poruszenie wywołały zapowiedzi dotyczące przyszłości. Po pierwsze, Project Moonlight, czyli system, który ma przenosić kontekst między różnymi aplikacjami Adobe. AI nauczy się naszego stylu, analizując połączone konta społecznościowe, by generować treści idealnie dopasowane do naszej estetyki. Po drugie – i to jest prawdziwa bomba – Adobe oficjalnie potwierdziło pracę nad integracją z ChatGPT. Celem jest umożliwienie generowania obrazów, wideo i innych treści z modeli Adobe bezpośrednio w oknie czatu OpenAI. To strategiczny sojusz, który pokazuje, że Adobe nie zamierza walczyć z gigantami AI, ale chce z nimi współpracować, wbudowując swoje kreatywne silniki w najpopularniejsze narzędzia na świecie. Wygląda na to, że era kreatywności, jaką znaliśmy, właśnie dobiega końca. Zaczyna się nowa, w której jedynym ograniczeniem staje się wyobraźnia.