Skip to content Skip to sidebar Skip to footer

AI czyta w myślach! Naukowcy właśnie złamali kod mózgu

Naukowcy z Japonii i USA stworzyli system, który łączy AI i rezonans magnetyczny, by tłumaczyć aktywność mózgu na pełne, opisowe zdania. To przełom.

W skrócie:

  • Nowy system, mind captioning, analizuje dane z fMRI i zamienia obrazy widziane lub przypominane przez człowieka na czytelny, zdaniowy opis.
  • Technologia opiera się na dwóch modelach AI – jeden analizuje treść wideo, a drugi uczy się łączyć ją ze wzorcami aktywności mózgu uczestników.
  • System działa równie skutecznie przy odtwarzaniu wspomnień, co dowodzi, że mózg koduje percepcję i pamięć w bardzo podobny sposób.

To, co dotąd było domeną science fiction, właśnie staje się laboratoryjną rzeczywistością. Zespół badaczy z Japonii i Stanów Zjednoczonych opublikował wyniki prac nad systemem, który potrafi coś nieprawdopodobnego – przekłada aktywność ludzkiego mózgu na konkretne, zrozumiałe zdania. Technologia, nazwana mind captioning, to mariaż neurobiologii, fizyki i zaawansowanej sztucznej inteligencji. I działa z zaskakującą precyzją. Zapomnijcie o ogólnikach. System nie zgaduje, czy myślisz o kocie, czy o psie. On generuje opisowe zdania, jakby na ekranie pojawiały się napisy tworzone bezpośrednio przez twoje myśli.

Jak działa maszyna, która podgląda twoje myśli?

Mechanizm jest tyleż skomplikowany, co genialny w swojej koncepcji. Wszystko zaczyna się od funkcjonalnego rezonansu magnetycznego (fMRI), potężnej maszyny, która śledzi przepływ krwi w mózgu, wskazując, które jego obszary są w danym momencie aktywne. Naukowcy poszli jednak o krok dalej. Zamiast interpretować te dane samodzielnie, zaprzęgli do pracy dwa modele sztucznej inteligencji, które pracują w tandemie. Pierwszy z nich przeanalizował tysiące filmów, tworząc dla każdego z nich coś na kształt “odcisku palca” – unikalną sygnaturę znaczeniową w postaci danych liczbowych. To ona opisuje, co tak naprawdę dzieje się w danej scenie.

Następnie do gry wchodzi druga, kluczowa warstwa AI. Jej zadaniem było nauczenie się, jak te numeryczne sygnatury odpowiadają wzorcom aktywności mózgu, które pojawiały się u uczestników badania podczas oglądania tych samych filmów. To żmudny proces kalibracji, który wymaga godzin skanowania i analizy. Kiedy jednak system jest już wytrenowany, potrafi zrobić coś niezwykłego. Na podstawie zupełnie nowych danych z fMRI jest w stanie zidentyfikować, jaki rodzaj “znaczenia” kryje się za aktywnością neuronów, a następnie wybrać z bazy zdanie, które najlepiej ten sens opisuje. To cyfrowe tłumaczenie z języka mózgu na ludzki.

Wspomnienia na ekranie, czyli AI włamuje się do pamięci

Prawdziwy dreszcz emocji – i być może niepokoju – pojawia się, gdy dowiadujemy się o kolejnym odkryciu. W trakcie testów okazało się, że mind captioning radzi sobie równie dobrze nie tylko z obrazami widzianymi w czasie rzeczywistym, ale także z tymi, które uczestnicy jedynie sobie przypominali. Kiedy badani odtwarzali w pamięci obejrzane wcześniej filmy, sztuczna inteligencja była w stanie zrekonstruować treść ich wspomnień, bazując wyłącznie na sygnałach z mózgu. To odkrycie ma fundamentalne znaczenie.

Wskazuje bowiem, że reprezentacja pamięciowa i percepcyjna – czyli to, jak mózg koduje coś, co widzi, i coś, co sobie przypomina – mają bardzo zbliżoną, jeśli nie identyczną, strukturę. A co ważniejsze, system oparty na AI potrafi tę strukturę skutecznie “złamać” i odczytać. To już nie jest podglądanie percepcji. To zaglądanie do wewnętrznego archiwum, do tego, co wydawało się nienaruszalną twierdzą prywatności.

Czy czeka nas przyszłość bez tajemnic?

Choć wizja cichego odczytywania myśli budzi zrozumiałe obawy, autorzy badania studzą emocje. Podkreślają, że obecna technologia wymaga ogromnych, stacjonarnych skanerów fMRI i – co kluczowe – wieloletniej, świadomej współpracy ze strony osoby badanej. Nie ma mowy o potajemnym skanowaniu kogokolwiek na odległość. Przynajmniej na razie. Celem naukowców jest przede wszystkim medycyna. Mind captioning może stać się fundamentem dla nieinwazyjnych interfejsów mózg-komputer, które odmienią życie osób z zaburzeniami mowy, na przykład po udarze.

W połączeniu z bardziej mobilnymi technologiami obrazowania mózgu, takimi jak fNIRS (funkcjonalna spektroskopia w bliskiej podczerwieni) czy zaawansowane EEG, być może za kilka lat uda się przenieść tę metodę z laboratorium do świata pacjentów. Pomimo tego trudno zignorować fakt, że właśnie otworzyliśmy nowy, fascynujący i nieco przerażający rozdział w historii relacji człowieka z maszyną. Rozdział, którego pierwsze zdania zostały zapisane prosto z ludzkich myśli.