Profesor z UJ pozwolił studentom korzystać z ChatGPT na egzaminie. Chce skończyć z hipokryzją w edukacji i uczyć krytycznego myślenia w erze AI. Jak wyglądał?
W skrócie:
- Prof. Wojciech Baluch z Wydziału Polonistyki UJ przeprowadził egzamin w formie debaty oksfordzkiej, podczas której studenci mogli legalnie korzystać z ChatGPT.
- Jego zdaniem zakazywanie studentom AI, podczas gdy naukowcy jej używają, jest niesprawiedliwe i nielogiczne. Uczelnie muszą dostosować się do nowej rzeczywistości.
- Eksperyment będzie kontynuowany w kolejnych latach. Profesor planuje także stworzyć grupę dyskusyjną dla nauczycieli akademickich zainteresowanych wdrażaniem AI.
Nie po cichu, pod ławką, z telefonem ukrytym w dłoni. W pełni oficjalnie, jako jedno z dopuszczonych narzędzi. Na egzaminie na Uniwersytecie Jagiellońskim studenci mogli korzystać z ChatGPT. Za tym odważnym, a dla niektórych pewnie obrazoburczym pomysłem, stoi prof. Wojciech Baluch z Wydziału Polonistyki. Od dawna krytykuje on akademicką schizofrenię – udawanie, że sztuczna inteligencja nie istnieje, podczas gdy stała się ona częścią warsztatu pracy zarówno naukowców, jak i studentów. Bo przyznajmy szczerze: zakazywanie dzisiaj AI jest jak zakazywanie Internetu dwadzieścia lat temu. Gest tyleż symboliczny, co nieskuteczny.
Jak wyglądał egzamin, na którym można było “ściągać”?
Forma sprawdzianu była równie nietypowa, co założenia. Zamiast testu z wiedzy – debata oksfordzka. Do udziału zgłosiło się dwanaścioro studentów pierwszego roku Wiedzy o Teatrze i ośmioro z pierwszego roku performatyki. W tej drugiej grupie frekwencja była niemal stuprocentowa, co pokazuje, że młodsze pokolenie nie boi się technologii. Ono chce ją rozumieć i wykorzystywać.
Schemat był prosty. Studenci przygotowywali się klasycznie – analizowali dramaty, filmy, seriale, powtarzali teorię. Dopiero na sali poznawali tezę i antytezę, które mieli obronić. Na przygotowanie argumentacji dostali 30 minut. I to właśnie w tym czasie mogli odpalić ChatGPT. Cel? Nie, AI nie miała pisać za nich przemówień. Miała służyć jako błyskawiczny asystent: do szybkiego przypomnienia definicji, uporządkowania myśli, sprawdzenia kontekstu czy streszczenia dłuższego fragmentu tekstu. To dokładnie ten model pracy, który staje się standardem w wielu branżach – człowiek myśli krytycznie, a maszyna dostarcza i porządkuje dane. Proste.
Oczywiście, jest też druga strona medalu. Modele językowe potrafią kłamać z pewnością siebie godną telemarketera. Tworzą treści, które brzmią wiarygodnie, ale są kompletnie zmyślone. Dlatego profesor Baluch podkreśla, że AI nie może być traktowana jako źródło prawdy, a jedynie narzędzie wspierające proces myślowy. A żeby rzetelnie przeanalizować wpływ technologii na egzamin, badacz… zatrudnił drugiego asystenta AI, który pomagał mu porównywać nagrania debat z transkrypcjami rozmów studentów z chatbotem. Piękna ironia, ale też doskonały przykład, jak AI może zdejmować z naukowców żmudną, powtarzalną pracę.
Dlaczego profesor UJ rzucił wyzwanie systemowi?
W całej tej historii nie chodzi o technologię. Chodzi o coś znacznie ważniejszego – sprawiedliwość. Profesor Baluch bez ogródek punktuje absurdalną asymetrię. Naukowcy mogą używać AI do przygotowywania materiałów, analizy danych, pisania grantów. Studentom mówi się, że to oszustwo. To sytuacja, w której zakazuje się przyszłym kierowcom korzystania z samochodu, podczas gdy instruktorzy jeżdżą nimi na co dzień.
Najostrzej profesor wypowiada się o pracach pisemnych – esejach, licencjatach, magisterkach. Jego zdaniem fikcją jest udawanie, że student pisze je dziś w pełni samodzielnie. Dobrze poprowadzony ChatGPT potrafi wygenerować poprawny merytorycznie esej w kilka minut. Student, który chce ukryć swoje wspomaganie, ma na to dziesiątki sposobów. Co więc tak naprawdę mierzy taka praca? Wiedzę i zdolność analitycznego myślenia? Czy może umiejętność zacierania cyfrowych śladów?
Profesor nie stawia jeszcze ostatecznych tez. Nie wyklucza jednak, że tradycyjne prace dyplomowe w obecnej formie mogą wkrótce zniknąć lub zostaną gruntownie przeprojektowane. I trudno nie przyznać mu racji. System edukacji musi odpowiedzieć na pytanie, jakie kompetencje chce weryfikować. Jeśli tylko odtwórcze powielanie wiedzy – przegra z maszynami już na starcie.
Czy to koniec edukacji, jaką znamy?
Eksperyment z UJ nie był jednorazowym happeningiem. W tym roku kolejne roczniki przejdą przez podobny egzamin. Diagnoza prof. Balucha jest brutalna: uczelnie nie są przygotowane na tempo zmian. I nie jest to wyłącznie polski problem. To globalne wyzwanie, bo modele językowe rozwijają się szybciej, niż jakikolwiek system edukacji jest w stanie na to zareagować.
To prowadzi do fundamentalnego pytania: czy walka z AI w edukacji ma jeszcze jakikolwiek sens? A może czas przestać pytać “jak to zablokować?” i zacząć pytać “jak tego mądrze uczyć?”. Historia technologii jest tu bezlitosna. Kalkulatory miały zniszczyć matematykę. Internet miał zabić pamięć. GPS miał pozbawić nas orientacji w terenie. Nic takiego się nie stało. Zmieniło się tylko to, czego i jak się uczymy.
Sztuczna inteligencja w edukacji jest nieunikniona. Pytanie brzmi, kto będzie kształtował zasady jej użycia. Dla ludzi z branży technologicznej odpowiedź jest oczywista. AI to nie chwilowa moda, lecz narzędzie, które za kilka lat będzie tak naturalne jak edytor tekstu czy arkusz kalkulacyjny. Dlatego eksperyment z Krakowa jest ważny nie tylko dla studentów teatrologii. To sygnał dla całego systemu, który stoi przed największą rewolucją od dekad.