Skip to content Skip to sidebar Skip to footer

AI pogrzebało ustawę o czystym powietrzu. 20 000 fałszywych głosów zszokowało Kalifornię

W Kalifornii 20 tys. komentarzy wygenerowanych przez AI zablokowało nowe przepisy ekologiczne. Urzędnicy odkryli, że za tysiącami głosów stoją boty, a nie ludzie.

W skrócie:

  • Propozycja ograniczenia domowych urządzeń gazowych w Kalifornii upadła po zalewie 20 tys. negatywnych komentarzy, z których większość wygenerowała platforma AI CiviClick.
  • Pracownicy agencji, dzwoniąc do rzekomych autorów, odkryli, że wielu z nich nie miało pojęcia o wysłanych w ich imieniu wiadomościach, co zdemaskowało manipulację.
  • Zjawisko to, zwane astroturfingiem, zyskało nową, groźniejszą formę dzięki AI, a obecne prawo – jak kalifornijski Bot Act z 2019 roku – okazuje się bezradne.

Demokracja w XXI wieku pachnie czasem serwerownią. W czerwcu ubiegłego roku rada South Coast Air Quality Management District (SCAQMD) w Kalifornii miała przypieczętować los domowych pieców gazowych. Po dwóch latach analiz na stole leżał projekt, który miał stopniowo wycofywać urządzenia emitujące tlenki azotu – kluczowy składnik smogu. Sprawa wydawała się przesądzona. A potem do urzędników spłynęła lawina maili. Ponad 20 tysięcy głosów rzekomo oburzonych obywateli, którzy sprzeciwiali się „drakońskim” regulacjom. Głosowanie odroczono, projekt zamrożono. Sukces oddolnego protestu? Nie do końca. Bo ten oddolny protest nigdy nie istniał.

Jak zabić ustawę jednym kliknięciem?

Pracownicy agencji SCAQMD poczuli, że coś tu nie gra. Postanowili wykonać kilka telefonów do losowo wybranych nadawców. Reakcje, które usłyszeli, były mieszanką zdziwienia i konsternacji. Trzy osoby, z którymi rozmawiał “Los Angeles Times”, stanowczo zaprzeczyły, by wysyłały jakiekolwiek maile. Nie miały pojęcia, że ich nazwiska i adresy posłużyły za amunicję w politycznej walce. W agencji zapaliły się wszystkie czerwone lampki. Szybkie śledztwo ujawniło, że za przytłaczającą większością komentarzy stała platforma CiviClick, która reklamuje się jako “pierwsza i najlepsza AI do oddolnego rzecznictwa”. Witajcie w przyszłości, w której armię oburzonych obywateli można wygenerować w kilka godzin.

Astroturfing 2.0: Kiedy boty brzmią bardziej ludzko niż ludzie

Tworzenie iluzji masowego poparcia, znane jako astroturfing, nie jest nowym wynalazkiem. Lobbyści od dekad próbowali wpływać na polityków, zasypując ich skrzynki mailami od “zatroskanych wyborców”. Jednak dotychczasowe metody były toporne i łatwe do wykrycia. Tysiące identycznych wiadomości wysłanych z podejrzanych adresów od razu budziły podejrzenia. Generatywna AI zmieniła reguły gry. Narzędzia takie jak CiviClick potrafią tworzyć tysiące unikalnych, spersonalizowanych i wiarygodnych stylistycznie komentarzy. Każdy brzmi nieco inaczej, każdy używa innych argumentów, każdy wygląda jak autentyczny głos człowieka. Różnica jest taka, że ten człowiek nie istnieje lub – co gorsza – nie wie, że właśnie zabrał głos.

Kto pociąga za sznurki (i płaci za boty)?

Za kampanią w Kalifornii stał konsultant Matt Klink, który w oficjalnym oświadczeniu bronił swoich działań jako “akcji edukacyjnej”. Twierdził, że mieszkańcy nie zostali odpowiednio poinformowani o kosztach nowych regulacji. Na kluczowe pytanie – kto sfinansował operację na taką skalę – nie odpowiedział. Nietrudno się jednak domyślić, komu zależało na utrzymaniu status quo. W tle majaczą interesy firm energetycznych, stowarzyszeń deweloperów i organizacji biznesowych, dla których ekologiczne przepisy oznaczają realne koszty. To one najpewniej wyłożyły pieniądze na cyfrową armię, która skutecznie storpedowała niewygodną ustawę.

Kalifornia to poligon. Europa jest następna w kolejce

Sprawa z Kalifornii nie jest odosobnionym incydentem. Podobne kampanie z użyciem AI odnotowano już w Karolinie Północnej (gdzie forsowano budowę gazociągu) oraz w rejonie Zatoki San Francisco. Problem polega na tym, że prawo nie nadąża za technologią. Kalifornijski Bot Act z 2019 roku nakazuje oznaczanie botów, ale nie obejmuje sytuacji, w której AI generuje treść w imieniu prawdziwej osoby, często bez jej wiedzy i zgody. To gigantyczna szara strefa, która staje się idealnym narzędziem do manipulacji. Dziś na celowniku znalazły się piece gazowe. Jutro mogą to być regulacje dotyczące prywatności, praw autorskich, podatków dla gigantów technologicznych albo dowolny inny temat, który da się zalać falą fałszywych opinii. To, co wydarzyło się w Kalifornii, jest lekcją dla nas wszystkich. Pokazuje, jak kruche stają się procesy demokratyczne w starciu z technologią, która potrafi idealnie symulować ludzki głos. Pytanie brzmi, jak szybko nauczymy się odróżniać prawdę od jej perfekcyjnej, cyfrowej imitacji.