Generatywna AI potrzebuje naszych danych, by działać. To rodzi ogromne ryzyko. Amazon Bedrock Guardrails łączy siły z tokenizacją, by chronić PII bez utraty funkcjonalności.
W skrócie:
- Amazon Bedrock Guardrails automatycznie wykrywa i maskuje dane wrażliwe (PII) w zapytaniach do modeli AI, zastępując je generycznymi znacznikami.
- Standardowe maskowanie to proces nieodwracalny, co uniemożliwia wykorzystanie oryginalnych danych w dalszych, autoryzowanych procesach biznesowych.
- Integracja z tokenizacją (np. Thales CipherTrust) pozwala zastąpić dane odwracalnymi “tokenami”, łącząc najwyższe bezpieczeństwo z użytecznością.
Generatywna sztuczna inteligencja wchodzi na salony. To już nie zabawka do generowania obrazków, a potężne narzędzie wdrażane w systemach produkcyjnych firm – od obsługi klienta po analizę fraudów finansowych. Z tą dojrzałością przychodzi jednak gigantyczne wyzwanie: ochrona danych osobowych (PII). Wyobraźmy sobie asystenta AI w banku. Musi mieć dostęp do naszych danych, by wysłać kartę na właściwy adres. Ale już zespół analityków badający wzorce oszustw nie powinien widzieć naszych personaliów. Potrzebuje jedynie chronionych reprezentacji informacji. To kwadratura koła, z którą mierzą się dziś największe organizacje. Amazon, we współpracy z firmą Thales, twierdzi, że znalazł rozwiązanie, które łączy ogień z wodą.
Ochrona z biletem w jedną stronę. Czego brakuje w Amazon Guardrails?
Amazon Bedrock Guardrails to wbudowany w platformę AWS mechanizm, który działa jak inteligentny filtr. Jego zadaniem jest wykrywanie w zapytaniach do modeli językowych (LLM) informacji wrażliwych – imion, nazwisk, adresów e‑mail czy numerów telefonów. Gdy system je znajdzie, może zablokować zapytanie lub – co częstsze – zamaskować dane. W praktyce oznacza to, że zdanie “Wyślij kartę dla Jana Kowalskiego na adres j.kowalski@example.com” zostanie zamienione na “Wyślij kartę dla {NAME} na adres {EMAIL}”. Proste, skuteczne i… problematyczne. Dlaczego? Bo to bilet w jedną stronę. Po zamaskowaniu danych oryginalna informacja przepada bezpowrotnie. Downstreamowe aplikacje, które potrzebują tych danych do realizacji zlecenia (np. system wysyłkowy), stają się bezużyteczne. To fundamentalne ograniczenie, które sprawia, że samo maskowanie nie wystarcza w złożonych procesach biznesowych.
Tokenizacja wkracza na scenę: Bezpieczeństwo i odwracalność w jednym
I tutaj na scenę wkracza tokenizacja, technologia znana chociażby z systemów płatniczych. Zamiast zastępować dane generycznym znacznikiem, tokenizacja tworzy dla nich unikalny, kryptograficzny odpowiednik – “token”. Co kluczowe, token zachowuje format oryginalnej danej, ale nie ma z nią żadnego matematycznego powiązania. Taki token można bezpiecznie przekazywać między systemami. Najważniejsze jest jednak to, że proces jest w pełni odwracalny. Autoryzowany system, posiadający odpowiednie klucze, może w każdej chwili “odetokenizować” dane i odzyskać ich pierwotną postać. We współpracy z Amazonem, Thales dostarcza platformę CipherTrust Data Security Platform, która realizuje ten proces przez API. W ten sposób firmy mogą budować przepływy danych, w których AI operuje wyłącznie na bezpiecznych tokenach, a prawdziwe dane pojawiają się tylko tam, gdzie są absolutnie niezbędne.
Jak to działa w praktyce? Zobacz architekturę bezpiecznego AI
Architektura rozwiązania, którą proponuje Amazon, opiera się na inteligentnej orkiestracji kilku usług. Użytkownik wysyła zapytanie do aplikacji, np. doradcy finansowego: “Cześć, tu j.smith@example.com. Czy na podstawie moich pięciu ostatnich transakcji na acme.com i salda 2342,18 USD powinienem skorzystać z nowej oferty karty kredytowej?”. W tym momencie do akcji wkracza orkiestrator AWS Step Functions. Pierwszy krok to wywołanie API ApplyGuardrail, które identyfikuje dane PII. Zamiast je maskować, system przekazuje wykryte dane (adres e‑mail i nazwę sklepu) do usługi tokenizacyjnej Thales CipherTrust. Usługa zamienia je na tokeny, a zmodyfikowane zapytanie trafia do modelu LLM. Model generuje odpowiedź, używając bezpiecznych tokenów. Na ostatnim etapie, tuż przed wysłaniem odpowiedzi do klienta, zaufany komponent systemu wywołuje API detokenizacji, przywracając oryginalne dane. W efekcie analityczny silnik AI nigdy nie miał dostępu do danych osobowych, a klient otrzymuje w pełni spersonalizowaną odpowiedź. To eleganckie rozwiązanie, które godzi wymogi bezpieczeństwa z funkcjonalnością aplikacji AI, otwierając drogę do ich wdrożeń w najbardziej regulowanych branżach.