Praktyki GenAI najlepiej uczyć się na konkretnych przykładach. W tej części przyjrzymy się kilku głośnym przypadkom wykorzystania generatywnej AI przez firmy — zarówno tym zakończonym sukcesem, jak i takim, które okazały się porażką lub… przestrogą. Poniższe case studies GenAI pokazują, jak wiele sztuczna inteligencja potrafi zdziałać w praktyce, ale też gdzie mogą czaić się pułapki.
Sukces: Coca-Cola i kampanie marketingowe z AI
Jedna z najbardziej znanych marek świata, Coca-Cola, jako jedna z pierwszych wykorzystała GenAI na szeroką skalę w marketingu. W 2023 roku firma zaprosiła konsumentów do udziału w kampanii „Create Real Magic” – udostępniła specjalną platformę wykorzystującą modele DALL‑E 2 i GPT‑4, na której fani mogli tworzyć unikalne grafiki z elementami charakterystycznymi dla marki (logo, butelka itp.).
Powstało tysiące prac, a najlepsze z nich Coca-Cola wykorzystała w działaniach promocyjnych. Kampania wygenerowała ogromne zaangażowanie online i pokazała, że AI może pobudzać kreatywność konsumentów i budować więź z marką.
Kolejnym przykładem jest limitowany napój Coca-Cola Y3000 – pierwszy smak współtworzony przez sztuczną inteligencję. Firma zbierała opinie od konsumentów na temat „smaku przyszłości”, a AI na podstawie tych danych pomogła opracować profil smakowy i koncepcję napoju. Towarzysząca temu kampania marketingowa pełna była wygenerowanych przez AI wizualizacji przyszłości. Efekt? Ogromne zainteresowanie produktem i nowatorski wizerunek marki łączącej tradycję z innowacją.
Wniosek z sukcesu: GenAI w marketingu może dostarczyć świeżych pomysłów i zaangażować odbiorców w interaktywny sposób. Coca-Cola dzięki pionierskim wdrożeniom zyskała rozgłos i tzw. „earned media” (ludzie sami dzielili się wygenerowanymi grafikami w mediach społecznościowych, robiąc marce reklamę). Kluczem było umiejętne połączenie kreatywności ludzi i AI. Firma dała narzędzia, a konsumenci tworzyli treści, czując się częścią kampanii.
Sukces: Wayfair – personalizacja oferty za pomocą GenAI
Sklep meblowy Wayfair stanął przed wyzwaniem: jak pomóc klientom wyobrazić sobie, jak mogliby urządzić swoje mieszkanie meblami z oferty? W 2022 uruchomili aplikację Decorator (Decorify) opartą na AI. Użytkownik wgrywa zdjęcie swojego pokoju, wybiera styl, a model generatywny (trenowany specjalnie przez Wayfair) przerabia zdjęcie, prezentując pokój z nowymi meblami i dekoracjami w zadanym stylu. Co ważne, wyświetlane meble to faktyczne produkty z katalogu Wayfair, od razu podlinkowane.
Rozwiązanie okazało się strzałem w dziesiątkę. Klienci chętniej kupowali produkty, widząc je w realistycznej aranżacji swojego wnętrza. Zmniejszyła się też liczba zwrotów (bo klienci lepiej przewidzieli, czy dany mebel pasuje do pokoju). Wayfair dzięki GenAI zaoferował coś, czego tradycyjny sklep dać nie mógł: spersonalizowaną inspirację dla każdego klienta.
Wniosek z sukcesu: GenAI może zwiększyć sprzedaż, jeśli rozwiązuje realny problem klienta (tutaj: wyobrażenie sobie mebla w kontekście). Ważne było specjalistyczne podejście. Wayfair nie użył „ogólnej” AI, lecz wyszkolił ją na własnych danych produktowych, by wyniki były dopasowane do oferty. To pokazuje, że firmy z nisz mogą tworzyć własne modele, by lepiej służyły ich celom biznesowym.

Sukces: automatyzacja obsługi pacjentów w Mass General Brigham
W sektorze ochrony zdrowia również pojawiają się udane wdrożenia GenAI. Sieć szpitali Mass General Brigham (MGB) w USA pilotażowo zastosowała duży model językowy do wspomagania lekarzy w odpowiadaniu na wiadomości od pacjentów. Lekarze codziennie otrzymują dziesiątki zapytań przez portal pacjenta. AI została użyta, by generować wstępne wersje odpowiedzi na te wiadomości — oczywiście do przejrzenia i zatwierdzenia przez lekarza.
W trakcie testów okazało się, że model był w stanie przygotować odpowiedź zgodną z wytycznymi medycznymi i uprzejmą w tonie w 82% przypadków (tyle z nich uznano za „bezpieczne do wysłania bez większych poprawek”). Lekarze dzięki temu zaoszczędzili czas. AI odciążyła ich z części papierkowej pracy, zostawiając więcej czasu na kontakt bezpośredni z pacjentami.
Wniosek z sukcesu: Nawet w tak wrażliwym obszarze jak medycyna AI może znaleźć zastosowanie, jeśli podejdzie się do tego ostrożnie, traktując model jako asystenta, a nie samodzielnego decydenta. Wdrożenie MGB pokazało potencjał usprawnienia procesów administracyjnych w służbie zdrowia i poprawy szybkości komunikacji z pacjentem, jednocześnie zachowując bezpieczeństwo (dzięki nadzorowi lekarza).
Porażka: CNET i wpadka z artykułami pisanymi przez AI
GenAI wciąż ma swoje ograniczenia. Jednak wiele ryzyk może płynąć z nierozważnego wdrożenia technologii generatywnych. Przekonały się o tym nie tylko małe, niedoświadczony firmy, ale również giganci technologiczni.
Pod koniec 2022 roku popularny serwis techniczny CNET eksperymentalnie zaczął publikować artykuły finansowe generowane przez AI (głównie poradniki bankowe). Przez kilka tygodni ukazało się około 75 takich tekstów, zanim na jaw wyszło, że wiele z nich zawiera poważne błędy merytoryczne i fragmenty mogące nosić znamiona plagiatu. Redakcja musiała w pośpiechu korygować artykuły (w ponad połowie znaleziono błędy) i ostatecznie wstrzymała projekt. Sprawa odbiła się szerokim echem. CNET został skrytykowany za brak transparentności (na początku mało kto wiedział, że to AI pisała teksty) oraz za zbytnią ufność w technologię kosztem rzetelności.
Wniosek z porażki: To ostrzeżenie, że generatywna AI nie powinna działać bez kontroli człowieka w obszarach wymagających wysokiej poprawności. Wizerunkowo dla marki medialnej była to poważna szkoda.
Z kolei inne redakcje wyciągnęły lekcję. BuzzFeed ogłaszając wykorzystanie AI do twórczości (quizów, niektórych treści) podkreślał, że treści będą weryfikowane przez redaktorów.

Porażka: Meta i model Galactica – naukowa AI, która „zmyślała” bzdury
W listopadzie 2022 Meta AI (właściciel Facebooka) udostępniła demo modelu Galactica, czyli dużej generatywnej AI wyspecjalizowanej rzekomo w tekstach naukowych. Model miał podsumowywać artykuły badawcze, odpowiadać na pytania na podstawie literatury naukowej itp. Niestety szybko okazało się, że Galactica z pełnym przekonaniem generuje pseudonaukowe brednie i błędy merytoryczne. Naukowcy na Twitterze masowo dzielili się przykładami: fałszywe cytowania, zmyślone fakty, bezsensowne wyjaśnienia. Po zaledwie 3 dniach Meta musiała zdjąć demo z internetu pod naporem krytyki.
Wniosek z porażki: Nawet duża firma technologiczna może przecenić możliwości modelu i niedoszacować ryzyka. Wypuszczenie narzędzia do zastosowań naukowych bez gruntownej weryfikacji jakości okazało się błędem. Pokazuje to, że im bardziej krytyczny obszar (tu: wiedza naukowa, gdzie autorytet i dokładność są kluczowe), tym wyższy próg muszą spełnić generowane treści. Model general-purpose, który sprawdza się w pogawędkach, może kompletnie zawieść w specjalistycznym środowisku.
Porażka: Wpadka Google Bard i lekcja o niedopracowanych produktach
Kiedy Google w 2023 zaprezentował światu swojego konkurenta dla ChatGPT – chatbot Bard (dziś Gemini) – niefortunnie zilustrował jego możliwości przykładem, w którym AI udzieliła błędnej odpowiedzi (dotyczącej teleskopu Jamesa Webba). Błąd szybko wychwycono, co wywołało falę komentarzy o tym, że Google pośpieszył się z prezentacją niewystarczająco dopracowanego produktu. W efekcie wartość akcji firmy spadła o kilkadziesiąt miliardów dolarów w ciągu jednego dnia, a start Barda został odebrany jako falstart.
Wniosek z porażki: Reputacja lidera technologii może ucierpieć, jeśli wdrożenie AI okaże się niedopracowane. Oczekiwania wobec takich firm są ogromne. Użytkownicy wybaczą drobne potknięcia nowemu startupowi, ale nie gigantowi jak Google. To przypomina biznesom, że jeśli planujesz publicznie chwalić się rozwiązaniem AI, upewnij się, że jest porządnie przetestowane i przygotowane na trudne pytania. Inaczej szkody PR-owe mogą przewyższyć korzyści
Case studies GenAI — podsumowanie
Powyższe case studies uczą nas, że generatywna AI potrafi być źródłem wielkiej wartości biznesowej. Może angażować klientów (Coca-Cola), personalizować ofertę na masową skalę (Wayfair), usprawniać wewnętrzne procesy (Mass General Brigham). Jednak te same technologie niosą ryzyko błędów i wpadek, jeśli są użyte nierozważnie. Kluczowy wniosek dla firm brzmi: eksperymentuj z GenAI, ale rób to odpowiedzialnie. Wdrażaj rozwiązania najpierw na małą skalę, testuj i kontroluj ich jakość. Sukces odniesiesz, gdy połączysz kreatywność i innowacyjność AI z ludzkim nadzorem, ekspercką wiedzą i etyczną rozwagą.
Jak Coca-Cola wykorzystała GenAI w swojej kampanii marketingowej?
Stworzyła interaktywną kampanię, w której fani generowali grafiki za pomocą AI.
Kampania „Create Real Magic” wykorzystała modele DALL‑E 2 i GPT‑4, angażując społeczność i budując wizerunek innowacyjnej marki.
W jaki sposób GenAI pomogła firmie Wayfair zwiększyć sprzedaż?
Wayfair umożliwił klientom wizualizację mebli w ich własnych wnętrzach dzięki AI.
Klienci mogli przetestować aranżacje w swoim pokoju, co zwiększyło konwersję i ograniczyło zwroty.
Czy AI może wspierać lekarzy w kontakcie z pacjentami?
Tak – może generować szkice odpowiedzi na wiadomości od pacjentów, oszczędzając czas lekarzy.
Model użyty w Mass General Brigham był skuteczny w ponad 80% przypadków.
Dlaczego projekt AI od CNET zakończył się porażką?
CNET opublikował teksty AI bez kontroli, przez co zawierały błędy i fragmenty z podejrzeniem plagiatu.
Brak nadzoru redakcyjnego spowodował kryzys wizerunkowy i konieczność masowych poprawek.
Co poszło nie tak z chatbotem Bard od Google?
Podczas premiery Bard udzielił błędnej odpowiedzi, co zaszkodziło wizerunkowi Google.
Błąd kosztował firmę miliardy dolarów na giełdzie i pokazał ryzyko niedopracowanych wdrożeń.