Naukowcy z Duke University stworzyli WISE – system przesyłający AI falami radiowymi. Zamiast dusić procesory, urządzenia brzegowe odbiorą “mózg” z zewnątrz.
W skrócie:
- Współczesne modele AI są zbyt duże dla małych urządzeń, jak drony czy czujniki, które szybko zużywają baterię i pamięć.
- Projekt WISE z Duke University proponuje przesyłanie “mózgu” AI – czyli wag modelu – za pomocą fal radiowych z pobliskiej stacji bazowej.
- Prototyp osiągnął 96% trafności w rozpoznawaniu obrazów, zużywając przy tym rząd wielkości mniej energii niż standardowe procesory.
Drony, autonomiczne kamery i tysiące czujników w inteligentnych fabrykach. Wszystkie te urządzenia potrzebują sztucznej inteligencji tu i teraz, na miejscu, bez oglądania się na odległe serwerownie. Nazywamy to edge computing, czyli przetwarzaniem na krawędzi sieci. To piękna idea, która ma jeden, fundamentalny problem – modele AI rosną w zastraszającym tempie, a podzespoły w tych małych urządzeniach stoją w miejscu. Upchnięcie potężnej sieci neuronowej w zasilanym bateryjnie sensorze to jak próba zmieszczenia silnika V8 w kosiarce. Zjada energię, pożera pamięć i generuje ciepło. Alternatywa? Wysyłanie danych do chmury. To z kolei oznacza opóźnienia, koszty transferu i oddawanie prywatności w obce ręce. Do tej pory wybór był prosty i brutalny. Zespół z Duke University właśnie pokazał, że istnieje trzecia droga.
Dlaczego dzisiejsza AI dusi się na krawędzi sieci?
Wyobraźmy sobie rój dronów poszukujących zaginionej osoby w górach. Każdy z nich musi w czasie rzeczywistym analizować obraz, by odróżnić człowieka od skały. Jeśli każdy dron ma na pokładzie pełny, skomplikowany model AI, jego bateria wyczerpie się w mgnieniu oka. Jeśli każdy będzie wysyłał strumień wideo do analizy w chmurze, decyzja może przyjść za późno. To właśnie ten dylemat próbuje rozwiązać projekt WISE (WIreless Smart Edge networks). Zamiast zmuszać urządzenia do heroicznych obliczeń, naukowcy postanowili dostarczyć im inteligencję z zewnątrz. I to w sposób, który brzmi jak science-fiction – za pomocą fal radiowych.
Jak działa model AI ukryty w falach radiowych?
Koncepcja, którą przedstawił zespół pod kierownictwem Tingjuna Chena, opiera się na tak zwanym przetwarzaniu “w‑fizyce” (in-physics). To odejście od klasycznego, cyfrowego podejścia. Zamiast zamieniać dane z kamery na zera i jedynki, a następnie przepuszczać je przez cyfrowy procesor, badacze wykorzystali naturę samych fal radiowych. W ich systemie pełny model AI nie znajduje się w dronie, lecz w pobliskiej stacji bazowej. To ona przechowuje jego architekturę i parametry – tak zwane wagi – a następnie koduje je w sygnale, który emituje. Innymi słowy, w eter leci nie tylko sucha informacja, ale też “charakter” i “wiedza” modelu.
Najciekawsze dzieje się w momencie, gdy ten sygnał dociera do urządzenia. Jego elektronika radiowa – ta sama, która na co dzień odpowiada za łączność – miesza odebrane fale z danymi z lokalnych czujników. Ten prosty, analogowy proces, realizowany w torze radiowym, jest fizycznym odpowiednikiem operacji mnożenia, która stanowi fundament obliczeń w sieciach neuronowych. Mówiąc prościej: część pracy, którą normalnie wykonywałby procesor, dzieje się na poziomie fizyki fal radiowych. Urządzenie nie musi przechowywać całego modelu w pamięci ani wykonywać tysięcy operacji. Mózg jest na zewnątrz, a jego instrukcje są dostarczane na bieżąco.
Czy to naprawdę działa i co to oznacza w praktyce?
Pomimo futurystycznego brzmienia, w tym rozwiązaniu nie ma kosmicznej technologii. Autorzy podkreślają, że WISE bazuje na komponentach obecnych w niemal każdym urządzeniu bezprzewodowym – mieszaczach częstotliwości i torach RF, które od lat miniaturyzuje się na potrzeby Wi-Fi czy 5G. Zamiast projektować nowy, energożerny chip, naukowcy niejako przestawili wajchy w istniejącej infrastrukturze. W teorii każdą stację bazową 5G czy nawet domowy router można by rozszerzyć o funkcję “nadajnika inteligencji”.
A wyniki? W testach laboratoryjnych prototyp WISE rozpoznawał tysiące obrazów z blisko 96-procentową trafnością. Co najważniejsze, zużycie energii było o ponad rząd wielkości niższe niż w przypadku wiodących procesorów dedykowanych AI na krawędzi sieci. To może oznaczać drony latające godzinami zamiast minut, kamery miejskie działające latami na jednej baterii i możliwość implementacji znacznie bardziej zaawansowanych modeli tam, gdzie dziś jest to po prostu niemożliwe.
Jakie są ograniczenia i przyszłość tej technologii?
Oczywiście, technologia jest na wczesnym etapie. Obecny prototyp działa na niewielkich dystansach i w sterylnych, laboratoryjnych warunkach. Wejście do realnego świata będzie wymagało mocniejszego sygnału lub integracji z nadajnikami sieci nowej generacji. Pojawia się też wyzwanie logistyczne – jedna stacja bazowa musiałaby być w stanie nadawać kilka różnych modeli jednocześnie, na przykład inny do analizy ruchu, a inny do wykrywania dymu. Wymaga to inteligentnego zarządzania zasobami radiowymi.
Pomimo tych ograniczeń, wizja jest niezwykle pociągająca. Jedna stacja bazowa mogłaby zasilać inteligencją całą flotę urządzeń – od chmary dronów w akcji ratunkowej, przez sieć czujników w magazynie, aż po system kamer sterujących ruchem w mieście. A zmiana modelu AI w centrali natychmiast aktualizowałaby “mózgi” wszystkich podłączonych jednostek. To byłaby prawdziwa rewolucja.