Myślisz, że nikt nie pozna, że maila napisał za ciebie ChatGPT? To błąd. Pracownicy tracą posady, a studenci wylatują z uczelni. Oto jak AI niszczy kariery.
W skrócie:
- Pracownik firmy ceniącej osobiste relacje został zwolniony za używanie AI do pisania maili, co naruszyło firmową politykę autentyczności i prywatności.
- Uniwersytet Yeshiva zaktualizował swoją politykę akademicką po tym, jak studenci użyli AI na egzaminach, uznając to za celowe wprowadzenie w błąd.
- Profesor z Uniwersytetu Stanforda przywrócił papierowe egzaminy, aby sprawdzić autentyczne umiejętności studentów, bez wsparcia ze strony modeli AI.
“Zostałem zwolniony za używanie ChatGPT”. To nie jest clickbait, a tytuł artykułu Nolana Clarka na platformie Medium, który już w 2023 roku opisał swoje doświadczenia. Jego historia to zimny prysznic dla każdego, kto sądzi, że generatywna sztuczna inteligencja jest magicznym rozwiązaniem problemu nadmiaru obowiązków. Clark, przytłoczony pracą, postanowił zautomatyzować pisanie maili. Efekt? Utrata stanowiska. Jego szef wyjaśnił to bez ogródek: “Cenimy sobie osobisty kontakt z pracownikami”. Wygenerowane przez AI wiadomości były bezduszne, pozbawione autentyczności, którą firma stawiała na pierwszym miejscu. Co więcej, przekazywanie pracy komputerowi naruszyło politykę prywatności i autentyczności idei.
Jak stracić pracę przez jedno polecenie w AI?
Historia Clarka to wierzchołek góry lodowej. W sierpniu tego roku magazyn Forbes opublikował artykuł pt. “Using ChatGPT At work? These Mistakes Could Get You Fired”. Publikacja bezlitośnie punktuje błędy, które pracownicy popełniają z nonszalancją, nie zdając sobie sprawy z konsekwencji. Wystarczą trzy proste kroki, by pożegnać się z posadą. Po pierwsze: używanie niezatwierdzonych przez firmę narzędzi AI do wykonywania zadań. Po drugie: przesyłanie do modeli językowych poufnych lub zastrzeżonych informacji, co jest gigantycznym zagrożeniem dla bezpieczeństwa danych. I wreszcie po trzecie: brak weryfikacji faktów w treściach wygenerowanych przez AI przed ich dalszym udostępnieniem. Każdy z tych błędów to gotowy przepis na katastrofę wizerunkową i dyscyplinarną.
Uczelnie kontratakują. Koniec ery AI na egzaminach?
Problem nie ogranicza się do środowiska korporacyjnego. Studenci również wpadają w pułapkę łatwych rozwiązań. W 2023 roku na Uniwersytecie Yeshiva w Nowym Jorku przyłapano dwóch studentów na korzystaniu z AI podczas zdalnych egzaminów. Ich linia obrony była prosta: twierdzili, że polityka uczelni w tej kwestii nie była jasna. W odpowiedzi uniwersytet błyskawicznie zaktualizował swoją Politykę Uczciwości Akademickiej, precyzując, że używanie języka kogoś lub czegoś innego jest celowym wprowadzeniem w błąd. Kropka.
Wszystko wskazuje na to, że instytucje edukacyjne idą na wojnę z technologicznym dopingiem. We wrześniu Fortune poinformował, że Jure Leskovec, profesor informatyki na Uniwersytecie Stanforda, wznowił przeprowadzanie egzaminów w formie papierowej. Wcześniej stawiał na testy z dostępem do materiałów i zadania domowe. Jednak szeroka dostępność modeli AI sprawiła, że zarówno studenci, jak i asystenci dydaktyczni zaczęli kwestionować, jak najlepiej oceniać unikalne procesy myślowe i umiejętności rozwiązywania problemów. Papier okazał się brutalnie skutecznym weryfikatorem. Trudno oszukiwać, gdy przed sobą ma się tylko kartkę i długopis.
Kiedy maszyna zabija myślenie
Wydaje się, że zapominamy, do czego naprawdę służy proces tworzenia. Pisanie to nie tylko stukanie w klawisze – to przede wszystkim myślenie. Krytyczne myślenie, jak definiuje je Uniwersytet Michigan, to “mentalny proces aktywnego i umiejętnego konceptualizowania, stosowania, analizowania, syntetyzowania i oceniania informacji”. To żmudna praca, pełna prób i błędów. AI oferuje drogę na skróty, ale ta droga omija najważniejszy etap: naukę.
Clay Shirky, prorektor ds. AI i technologii w edukacji na Uniwersytecie Nowojorskim, ujął to dosadnie w swoim artykule dla The New York Times: “Teraz, gdy większość wysiłku umysłowego związanego z pisaniem jest opcjonalna, potrzebujemy nowych sposobów, by wymagać pracy niezbędnej do nauki”. Jego zdaniem rozwiązaniem jest odejście od prac domowych na rzecz egzaminów pisemnych w salach, egzaminów ustnych i innych form oceny, które wymagają od studentów wykazania się wiedzą w czasie rzeczywistym.
Sztuczna inteligencja może być potężnym narzędziem do zbierania informacji, automatyzacji zadań czy podsumowywania danych. Nie jest jednak substytutem ludzkiej myśli. Teksty generowane przez AI są formułkowe, pozbawione tonu i osobowości. Czasem zawierają błędy merytoryczne lub niezręczne konstrukcje zdaniowe. Na konkurencyjnym rynku pracy, gdzie liczy się oryginalność i zaufanie, pójście na skróty to prosta droga do zrujnowania sobie reputacji. Oryginalna myśl – nawet jeśli jej formułowanie trwa dłużej – zawsze wygrywa.