AI wkracza do redakcji, ale dziennikarze stawiają granice. Używają jej do transkrypcji i SEO, lecz nie do pisania newsów. Oto kulisy pracy mediów w USA.
W skrócie:
- Lokalne redakcje w USA, jak Concord Monitor, wykorzystują AI do transkrypcji wywiadów i konwersji plików PDF, co znacząco przyspiesza ich pracę.
- Wydawcy wprowadzają ścisłe zasady – sztuczna inteligencja nie może generować artykułów ani zdjęć, a każdy materiał musi być zweryfikowany przez człowieka.
- Jonathan Van Fleet, redaktor Concord Monitor, podkreśla, że celem jest transparentność i utrzymanie zaufania czytelników w świecie zalewanym przez treści AI.
Sztuczna inteligencja w mediach to temat, który rozpala wyobraźnię i budzi demony. Z jednej strony wizja zautomatyzowanych depesz agencyjnych, idealnie zoptymalizowanych pod SEO i gotowych w kilka sekund. Z drugiej – widmo halucynujących botów, które zmyślają fakty, cytaty, a nawet całe książki. Gdzieś pośrodku tego chaosu stoją dziennikarze. I, co może zaskoczyć, wcale nie zamierzają oddawać pola maszynom. Wręcz przeciwnie, uczą się z nimi pracować, ale na bardzo twardych zasadach.
Scenariusz nie pochodzi z filmu science fiction, lecz z codziennej pracy lokalnych redakcji w New Hampshire. Tamtejsi wydawcy i redaktorzy, zamiast panikować lub bezkrytycznie przyjmować nowinki, postanowili podejść do sprawy metodycznie. Przyglądają się narzędziom, testują je i wyznaczają granice, których przekroczyć nie wolno. Bo w grze o uwagę czytelnika stawką jest coś znacznie cenniejszego niż klikalność – zaufanie.
Jak AI stało się cichym asystentem w redakcji?
Nikt tutaj nie mówi o zastępowaniu reporterów algorytmami. Mowa o zdejmowaniu z nich najbardziej żmudnych, powtarzalnych zadań. Wielu dziennikarzy – i to nie tylko w Stanach Zjednoczonych – korzysta dziś z narzędzi takich jak Otter.ai do automatycznej transkrypcji wywiadów. Godziny spędzone na odsłuchiwaniu nagrań i przepisywaniu rozmów zamieniają się w minuty. To czysty zysk czasowy, który można przeznaczyć na rozmowy ze źródłami, analizę danych czy po prostu – pisanie.
Jonathan Van Fleet, redaktor naczelny Concord Monitor, idzie o krok dalej. Jego zespół używa AI do zadań, które jeszcze niedawno wymagały ręcznej, benedyktyńskiej pracy. Wyobraźmy sobie setki stron dokumentów urzędowych w formacie PDF – bez możliwości przeszukiwania. AI w kilka chwil konwertuje je na edytowalne pliki tekstowe, pozwalając reporterom błyskawicznie znaleźć kluczowe informacje. Van Fleet przyznaje też, że algorytmy pomagają sugerować lepsze adresy URL dla artykułów, co poprawia ich widoczność w wyszukiwarkach. “Używamy narzędzia, aby pomagało nam robić to, co robimy, szybciej i wydajniej” – tłumaczy. Proste, prawda?
Czerwona linia, czyli czego robotowi robić nie wolno
Pomoc w pracy to jedno, ale przejęcie sterów – to zupełnie inna historia. I tutaj redakcje stawiają twarde weto. Julie Hirshan Hart, redaktorka The Laconia Daily Sun, mówi wprost: jej redakcja nie będzie używać generatywnej AI do pisania artykułów. Nie ma mowy o bezmyślnym kopiowaniu i wklejaniu treści wyplutych przez chatbota. “Nie możesz przepuścić czegoś przez generator AI, nie przeczytać tego, wkleić do swojego tekstu i iść dalej” – stwierdza kategorycznie.
To nie jest dmuchanie na zimne. Branża ma już za sobą kilka bolesnych wpadek. Niedawno Chicago Sun-Times oraz Philadelphia Inquirer opublikowały listę letnich lektur, na której znalazły się książki… które nie istnieją. Freelancer odpowiedzialny za materiał przyznał, że posłużył się AI i nie zweryfikował wyników. To podręcznikowy przykład tego, jak kończy się ślepe zaufanie do technologii. Dlatego Van Fleet z Concord Monitor powtarza jak mantrę: “Jeśli używasz AI, w procesie musi uczestniczyć człowiek”. Sztuczna inteligencja może pomóc, ale nie może za dziennikarza myśleć, pisać, redagować ani weryfikować faktów. To absolutna podstawa.
Dlaczego zaufanie stało się nową walutą?
W czasach, gdy treści generowane przez AI zalewają internet, rola wiarygodnych mediów staje się kluczowa. Czytelnicy coraz częściej będą zadawać sobie pytanie: kto za tym stoi? Człowiek czy maszyna? Redakcja Concord Monitor zrozumiała to na tyle dobrze, że opublikowała na swojej stronie internetowej oficjalną politykę dotyczącą wykorzystania sztucznej inteligencji. To akt pełnej transparentności, który ma budować, a nie podkopywać, zaufanie odbiorców.
Polityka jest jasna: pracownicy muszą otwarcie informować o każdym użyciu AI w procesie reporterskim, a każda informacja wygenerowana przez algorytm musi zostać sprawdzona przez reportera lub redaktora przed publikacją. Dokument kończy się jednoznacznym stwierdzeniem: “Narzędzia AI pozwalają nam pracować wydajniej, sugerując nagłówki, pomagając w streszczaniu historii i porządkowaniu informacji publicznych – ale nie zastępują ludzkiego osądu, reportażu ani redakcji”. Jonathan Van Fleet podsumowuje to jeszcze dosadniej: “Nie generujemy fałszywych artykułów. Robot nie będzie relacjonował wiadomości z twojej społeczności. Będziesz rozmawiał z człowiekiem, reporterem, który dokładnie cię zacytuje, a jeśli będziesz miał pytania, będziesz mógł porozmawiać o tym z człowiekiem”. I to chyba najlepsza gwarancja, jaką media mogą dziś dać swoim czytelnikom.