Sztuczna inteligencja potrafi przeprojektować kod DNA groźnych toksyn tak, by stały się niewykrywalne dla globalnych systemów biobezpieczeństwa. To wniosek z badań.
W skrócie:
- AI wygenerowało ponad 75 000 wariantów DNA dla niebezpiecznych białek, które zachowują swoją strukturę i potencjalnie groźne funkcje.
- Systemy skanujące, używane na całym świecie przez producentów syntetycznego DNA do flagowania groźnych zamówień, nie zdołały ich wykryć.
- Autorzy badania opublikowanego w Science po raz pierwszy w historii ograniczyli dostęp do danych, by zapobiec ich niewłaściwemu użyciu.
Wielkie firmy biotechnologiczne, które na co dzień produkują syntetyczne DNA dla naukowców, mają swoje firewalle. To cyfrowi strażnicy, którzy pilnują, by nikt nie zamówił sobie genów ospy prawdziwej, wąglika czy innej biologicznej paskudy. System wydawał się szczelny. Aż do teraz. Najnowsze badanie opublikowane na łamach prestiżowego czasopisma Science pokazuje, jak łatwo można tych strażników oszukać. Wystarczy do tego sztuczna inteligencja.
Jak oszukać strażnika genów?
Zespół naukowców, w tym Eric Horvitz, dyrektor naukowy Microsoftu, użył narzędzi AI do projektowania białek w dość niecnym celu. Zlecili algorytmowi “parafrazowanie” kodów DNA znanych toksyn. Chodziło o przepisanie ich na nowo, ale w taki sposób, by zachowały swoją pierwotną strukturę, a co za tym idzie – również potencjalnie śmiercionośne funkcje. To trochę jak zmiana słów w zdaniu, które wciąż znaczy to samo. Efekt? AI wygenerowało ponad 75 000 wariantów DNA dla groźnych białek.
Horvitz nie ukrywał zaniepokojenia. “Te przeformułowane sekwencje prześlizgnęły się przez systemy kontroli biobezpieczeństwa używane na całym świecie przez firmy syntetyzujące DNA do oznaczania niebezpiecznych zamówień” – stwierdził. Co prawda, po odkryciu luki natychmiast stworzono odpowiednią łatkę do oprogramowania. Problem w tym, że nie jest ona doskonała. Wciąż nie potrafi wykryć niewielkiego odsetka zmodyfikowanych przez AI wariantów. Dziura została załatana, ale woda wciąż lekko kapie.
Wyścig zbrojeń, którego nikt nie ogłosił
To nie pierwszy raz, gdy naukowcy sprawdzają mroczne możliwości sztucznej inteligencji w laboratorium. Kilka lat temu inny zespół zadał AI proste pytanie: czy potrafisz zaprojektować nowe molekuły o właściwościach gazów bojowych? W mniej niż sześć godzin algorytm wypluł z siebie 40 000 cząsteczek spełniających kryteria. Wśród nich znalazły się znane środki, jak osławiony VX, ale też mnóstwo zupełnie nowych związków, które według predykcji AI miały być jeszcze bardziej toksyczne. “Przekształciliśmy nasz nieszkodliwy model generatywny z pomocnego narzędzia medycznego w generator prawdopodobnie śmiertelnych cząsteczek” – napisali wtedy badacze.
David Relman, naukowiec z Uniwersytetu Stanforda, chwali najnowsze badanie za identyfikację problemu, ale jednocześnie widzi w nim ilustrację znacznie większego zagrożenia. “Zostawia nas to w zawieszeniu z pytaniem: ‘Cóż, co dokładnie mamy z tym zrobić?’ Jak wyprzedzić pociąg towarowy, który stale przyspiesza i pędzi po torach, grożąc wykolejeniem?” – pyta retorycznie. Jego metafora jest aż nadto trafna. Technologia pędzi, a regulacje i zabezpieczenia próbują ją nieudolnie dogonić.
Czy powinniśmy się bać? Eksperci studzą emocje
Pomimo alarmujących wyników, niektórzy eksperci z branży zachowują spokój. James Diggans, szef ds. polityki i biobezpieczeństwa w Twist Bioscience, jednej z największych firm produkujących DNA na zamówienie, rzuca nieco światła na praktykę. W ciągu ostatnich dziesięciu lat jego firma musiała zgłosić organom ścigania mniej niż pięć zamówień. “To niezwykle rzadkie zjawisko” – uspokaja. “W świecie cyberbezpieczeństwa mamy całą masę aktorów próbujących uzyskać dostęp do systemów. W biotechnologii tak nie jest. Rzeczywista liczba osób, które naprawdę próbują dokonać nadużyć, może być bliska zeru”.
Arturo Casadevall, mikrobiolog z Johns Hopkins University, zgadza się, że identyfikowanie luk jest kluczowe. Zauważa jednak ważny szczegół: zespół badawczy nie przeprowadził żadnych prac laboratoryjnych. Nie stworzył fizycznie białek zaprojektowanych przez AI, by sprawdzić, czy rzeczywiście działają jak ich toksyczne pierwowzory. Byłby to ważny test rzeczywistości, ale jednocześnie niezwykle ryzykowny – jego przeprowadzenie mogłoby naruszać międzynarodowe traktaty o zakazie rozwoju broni biologicznej. Pozostajemy więc z wiedzą teoretyczną, która jest tyleż fascynująca, co niepokojąca.
Nowy rozdział w nauce: wiedza pod kluczem
Być może najbardziej rewolucyjnym aspektem całej sprawy jest to, co stało się po zakończeniu badań. Naukowcy oraz redakcja Science podjęli bezprecedensową decyzję: wstrzymali część informacji i ograniczyli dostęp do pełnych danych oraz oprogramowania. To pierwszy raz w historii, gdy publikacja naukowa stosuje taki model zarządzania ryzykiem. Decyzje o tym, kto otrzyma dostęp do wrażliwych danych, podejmuje zewnętrzna organizacja non-profit – International Biosecurity and Biosafety Initiative for Science.
To potężny sygnał, że wchodzimy w nową erę. Erę, w której fundamentalna zasada otwartej nauki – pełna transparentność i dostęp do wyników dla każdego – musi ustąpić przed potencjalnym zagrożeniem. Wszystko wskazuje na to, że pociąg, o którym mówił Relman, już dawno odjechał ze stacji. Teraz pozostaje nam tylko budować bezpieczniejsze tory i mieć nadzieję, że maszynista wie, co robi.