Uniwersytet Yale doświadcza boomu na AI. Studenckie koła naukowe pękają w szwach, a tematy od etyki po ryzyka egzystencjalne dominują w kampusowych dyskusjach.
W skrócie:
- Listy mailingowe klubów AI na Yale, takich jak AIA i YAIPI, spuchły do 400 i ponad 200 członków, co jest oznaką bezprecedensowego zainteresowania studentów.
- Boom ten zbiega się w czasie z ogłoszoną przez Yale inwestycją 150 milionów dolarów w rozwój sztucznej inteligencji na uczelni w ciągu najbliższych pięciu lat.
- Organizacje skupiają się na różnych aspektach AI: od technicznych projektów (AIA), przez długoterminowe ryzyka (YAIA), po etykę i regulacje prawne (YAIPI).
W korytarzach jednego z najbardziej prestiżowych uniwersytetów świata coś się zmieniło. Sztuczna inteligencja przestała być tylko przedmiotem akademickich debat na wydziałach informatyki. Stała się centrum oddolnego, studenckiego ruchu, który rośnie w siłę z każdym semestrem. Koła naukowe, jeszcze niedawno niszowe i ledwo wiążące koniec z końcem, dziś przeżywają oblężenie. Yale’s Artificial Intelligence Association (AIA), Yale Artificial Intelligence Alignment (YAIA) oraz Yale Artificial Intelligence Policy Initiative (YAIPI) – te trzy organizacje, choć podobne z nazwy, reprezentują zupełnie inne podejścia do rewolucji, która dzieje się na naszych oczach.
Jak studencka pasja zmienia oblicze Ivy League?
Liczby mówią same za siebie. Lista mailingowa AIA urosła do około 400 studentów, ze 100 aktywnymi członkami regularnie pojawiającymi się na spotkaniach. YAIPI ma ponad 200 subskrybentów i tej jesieni powitało 40 nowych stypendystów. Z kolei YAIA, skupione na długoterminowych zagrożeniach, przyjęło zaledwie 25 studentów do swojego programu stypendialnego, odrzucając znacznie więcej aplikacji. To nie jest chwilowa moda. To pokoleniowa zmiana. “Naszym priorytetem jest wniesienie bardzo świadomej perspektywy na AI i jej trajektorię” – mówi Yejun Yun, współzałożyciel YAIA. – “Chcemy, by ludzie po naszych spotkaniach rozumieli, jak działa AI, jak może się rozwijać i jak możemy ją kontrolować. Odpowiadamy na te pytania z techniczną głębią, ale też w ogólnym sensie”. To deklaracja, która pokazuje, że studenci nie chcą być tylko biernymi obserwatorami.
Trzy kluby, trzy wizje. Kto za tym stoi?
Każda z organizacji obrała własną ścieżkę. YAIA, założone w zeszłym roku, koncentruje się na potencjalnych, długoterminowych ryzykach związanych z AI. Ich ośmiotygodniowe stypendium analizuje kluczową literaturę dotyczącą bezpieczeństwa i ryzyka katastroficznego. W tym czasie członkowie zastanawiają się, co by było, gdyby – jak ujął to Yun – “AI przewyższająca ludzką inteligencję stała się realną możliwością w nadchodzących dziesięcioleciach”. Z kolei AIA przeszło latem tego roku dramatyczną reorganizację. “Organizacja technicznie istniała wcześniej, ale przywództwo nie było tak skuteczne, jak powinno” – przyznaje współprezeska Ananya Krishna. – “Pod koniec roku zostało nas tylko pięciu członków”. Teraz, jako “funkcjonalnie nowa” organizacja, stawia na projekty tworzone przez studentów i budowanie społeczności – od hackathonów po interdyscyplinarne współprace. YAIPI natomiast wypełnia inną, niezwykle ważną lukę. Skupia się na etyce i zarządzaniu, otwierając dyskusję dla osób bez technicznego przygotowania. “Naszą misją jest zwiększenie świadomości na temat polityki AI wśród studentów” – pisze prezeska Sydney Simpson. Ich flagowy program, Turing Fellowship, to sześciotygodniowy intensywny kurs polityki AI, który w tym semestrze przyciągnął ponad 40 osób. Simpson dodaje: “Wierzę, że społeczność AI na Yale i na świecie może skorzystać na odrobinie przejrzystości”.
Wykładowcy w rozkroku, a uniwersytet inwestuje miliony
Ten studencki zryw nie dzieje się w próżni. Latem 2024 roku uniwersytet ogłosił plan inwestycji o wartości 150 milionów dolarów w AI w ciągu najbliższych pięciu lat. Paradoksalnie, podczas gdy pieniądze płyną, w salach wykładowych panuje chaos. Zasady dotyczące używania AI różnią się w zależności od profesora i wydziału. Niektórzy, jak zauważa Lukas Kellijs z AIA, wykładowcy informatyki, którzy kiedyś lekceważyli narzędzia generatywne, teraz zachęcają do eksperymentów. Jednocześnie wydziały humanistyczne, takie jak historia czy socjologia, zaostrzają przepisy i wracają do egzaminów pisemnych na sali. Władze uczelni też próbują nadążyć. 17 września wszyscy studenci pierwszego roku musieli wziąć udział w obowiązkowej prezentacji na temat uczciwości akademickiej. Na slajdzie zatytułowanym “Częste pułapki” wymieniono ChatGPT i inne platformy AI, ostrzegając przed wklejaniem wygenerowanego tekstu do prac bez odpowiedniego cytowania. To pokazuje fundamentalne napięcie między oddolną fascynacją a próbą instytucjonalnej kontroli technologii, która wymyka się starym ramom. A to dopiero początek.