Chociaż Jira służy jako system rejestracji dla wielu zespołów DevOps i IT, pobieranie tajnych danych lub zatwierdzanie żądań o uprzywilejowane informacje często występuje na innych platformach.
Pracownicy stosują narzędzia sztucznej inteligencji (AI), aby zwiększyć swoją produktywność, lecz rzadko biorą pod uwagę konsekwencje bezpieczeństwa tego działania. Gdy pracownik wkleja wrażliwe dane klienta do niezatwierdzonego narzędzia AI, dane te są przetwarzane przez model zewnętrzny poza kontrolą organizacji, często nie pozostawiając ścieżki audytu do sprawdzenia przez zespoły bezpieczeństwa.
Według Microsoft’s 2024 Work Trend Index Annual Report 78% pracowników zgłosiło korzystanie z własnych narzędzi AI w pracy. To niezatwierdzone korzystanie z narzędzi AI pokazuje, jak powszechne stało się zjawisko Shadow AI. Bezpieczeństwo tożsamości stanowi podstawę rozwiązania tego wyzwania, pomagając organizacjom uzyskać widoczność tego, kto korzysta z narzędzi AI i na jakich warunkach, zapewniając zespołom ds. bezpieczeństwa kontrolę niezbędną do zarządzania wykorzystaniem AI.
Proszę czytać dalej, aby dowiedzieć się więcej o zjawisku Shadow AI, dlaczego stanowi ono istotne ryzyko dla bezpieczeństwa tożsamości oraz jak zarządzać zorientowanym na tożsamość Shadow AI.
Shadow IT kontra Shadow AI
Shadow AI rozszerza istniejące zagrożenia związane z Shadow IT, lecz wprowadza także nowocześniejsze i bardziej złożone zagrożenia. Shadow IT odnosi się do nieautoryzowanego użycia oprogramowania lub systemów w organizacji. Na przykład pracownik może używać swojego osobistego konta e-mail do udostępniania plików roboczych, tworząc luki kontroli dostępu i widoczności. Shadow AI stanowi krok dalej pod względem tego zagrożenia, ponieważ narzędzia AI nie tylko przechowują dane, lecz też aktywnie je przetwarzają i mogą je zachowywać. Tworzy to nowy poziom ekspozycji na dane, gdzie poufne informacje mogą być głęboko osadzone w zewnętrznych modelach poza kontrolą organizacji. Dwa czynniki, które sprawiają, że AI jest szczególnie trudna do zarządzania, to:
- Korzystanie z osobistych kont lub urządzeń: Pracownicy uzyskujący dostęp do narzędzi AI poza środowiskami firmowymi za pośrednictwem osobistych kont i urządzeń odłączają swoją aktywność od tożsamości organizacyjnej, eliminując przejrzystość i identyfikowalność.
- Narzędzia AI oparte na przeglądarce: Narzędzia AI oparte na przeglądarce nie wymagają instalacji, co utrudnia ich wykrycie w środowiskach, które opierają się wyłącznie na kontrolach opartych na punktach końcowych.
Połączenie tak szerokiej ekspozycji danych oraz narzędzi zdolnych do omijania tradycyjnych mechanizmów wykrywania sprawia, że Shadow AI stanowi szczególne wyzwanie z punktu widzenia bezpieczeństwa.
Dlaczego Shadow AI stanowi problem dla bezpieczeństwa tożsamości
Gdy pracownicy korzystają z niezatwierdzonych narzędzi AI, zespoły bezpieczeństwa nie mają wglądu w to, jakie dane zostały udostępnione, kto uzyskał dostęp do narzędzia ani co narzędzie robi z tymi danymi. Ten brak widoczności tożsamości jest głównym powodem, dla którego sztuczna inteligencja w tle jest tak trudna do wykrycia, nie mówiąc już o zarządzaniu. Tradycyjne rozwiązania Zarządzania Tożsamością i Dostępem (IAM) były projektowane dla użytkowników osobowym o przewidywalnym zachowaniu i zdefiniowanych rolach. Jednak nowoczesne organizacje muszą dostosować swoje strategie bezpieczeństwa, aby uwzględnić tożsamości nieosobowe (NHI), w tym agentów AI i konta usługowe. Te tożsamości maszynowe mogą autonomicznie uzyskiwać dostęp do wielu krytycznych systemów i wykonywać w nich zadania, a ich popularność wśród przedsiębiorstw rośnie. W rzeczywistości, według wyższych liderów ankietowanych w McKinsey’s 2025 State of AI Global Survey, 62% zgłosiło, że ich organizacje przynajmniej eksperymentują z agentami AI. W przeciwieństwie do użytkowników osobowych, agenci AI mogą działać w sposób ciągły, szybko skalować i współdziałać w wielu systemach jednocześnie. Bez kontroli bezpieczeństwa tożsamości, które mogą zarządzać zarówno tożsamościami ludzkimi, jak i maszynowymi, organizacje tracą kontrolę nad tym, w jaki sposób ich dane są dostępne i wykorzystywane.
Najważniejsze zagrożenia związane z tożsamością w kontekście Shadow AI
Słabe zabezpieczenia tożsamości nie tylko utrudniają wykrycie Shadow AI, lecz także zwiększają szkody, jakie Shadow AI może wyrządzić.
Niemonitorowany dostęp do danych
Pracownicy udostępniający wrażliwe dane niezatwierdzonym narzędziom AI narażają się na ujawnienie danych, których tradycyjne systemy monitorowania mogą nie wykryć. Narzędzia do zapobiegania utracie danych mogą monitorować jedynie te kanały, do których mają dostęp – Shadow AI działa poza tymi granicami. Jeśli pracownik korzysta z niezatwierdzonego narzędzia sztucznej inteligencji za pośrednictwem niemonitorowanego konta osobistego, organizacje nie mają możliwości monitorowania, rejestrowania ani logowania aktywności. Jeśli ujawnione zostaną dane uprzywilejowane lub dane uwierzytelniające, cyberprzestępcy mogą uzyskać dostęp do krytycznych systemów bez wyraźnej ścieżki audytu.
Rozrost tożsamości maszynowych
W przeciwieństwie do pracowników ludzkich, którzy przechodzą formalne procesy wdrażania i offboardingu, agentom AI i kontom usług często brakuje ustrukturyzowanego zarządzania cyklem życia. W rezultacie coraz większa liczba tożsamości maszyn działa w wielu środowiskach z nadmiernymi uprawnieniami i ograniczonym nadzorem, co prowadzi do nadmiernego rozrostu tożsamości maszyn. Bez wglądu w tożsamości maszyn organizacje nie mogą zweryfikować, do jakich systemów mają dostęp lub czy zostały naruszone.
Luki w zakresie zgodności i audytu
Ramy regulacyjne, takie jak RODO, HIPAA i PCI DSS wymagają od organizacji śledzenia dostępu do poufnych danych i przetwarzania, bez względu na to, czy odpowiedzialność ponosi osoba, czy maszyna. Jeśli bezpieczeństwo tożsamości obejmuje wyłącznie użytkowników będących ludźmi, organizacje nie mogą tworzyć kompletnych ścieżek audytowych uwzględniających aktywność AI, co naraża je na sankcje regulacyjne oraz ustalenia audytu, którym post factum coraz trudniej jest zaradzić.
Jak zarządzać sztuczną inteligencją w tle, skoncentrowaną na tożsamości
Zarządzanie Shadow AI nie powinno polegać na blokowaniu wszystkich narzędzi AI dla użytkowników w organizacji; powinno zaczynać się od uzyskania pełnej widoczności tego, kto uzyskuje dostęp do kluczowych systemów i danych. Oto kilka kluczowych kroków, które powinny wykonać Państwa zespoły IT i zespoły bezpieczeństwa, aby zastosować podejście zorientowane na tożsamość do zarządzania shadow AI:
- Zapewnienie widoczności wszystkich tożsamości: Należy korzystać z silnego rozwiązania IAM, aby zidentyfikować, kto uzyskuje dostęp zarówno do zatwierdzonych, jak i niezatwierdzonych narzędzi AI. Bez tego zespoły ds. bezpieczeństwa mogą reagować na Shadow AI dopiero po ujawnieniu danych. Organizacje muszą mieć widoczność niezbędną do zarządzania tożsamościami zarówno ludzi, jak i maszyn, aby mogły określić, na które narzędzia zezwolić i gdzie zasady dostępu muszą stać się bardziej precyzyjne.
- Rozszerzenie zarządzania na NHI: Połączenie IAM z Zarządzanie tożsamością i administracja (IGA) w celu zarządzania dostępem zarówno dla tożsamości ludzkich, jak i maszynowych. Agenci AI i konta usług powinny podlegać tym samym przeglądom dostępu, zasadom najmniejszych uprawnień i procedurom offboardingu, co użytkownicy ludzcy.
- Wymuszanie bezpieczeństwa zerowego zaufania: Należy zawsze weryfikować każde żądanie dostępu, bez względu na to, czy pochodzi z tożsamości ludzkiej, czy maszynowej. Należy wymagać uwierzytelniania wieloskładnikowego (MFA), używać logowania jednokrotnego (SSO) i wymuszać dostęp z najmniejszymi uprawnieniami, aby ograniczyć wszystkie tożsamości tylko do tego, co jest wymagane dla określonego zadania.
- Monitorowanie i nagrywanie uprzywilejowanych sesji w czasie rzeczywistym: Warto połączyć wszystkie działania związane ze sztuczną inteligencją z autoryzowanymi tożsamościami i nagrywać sesje obejmujące dostęp do krytycznych systemów. Narzędzia takie jak KeeperAI analizują sesje w miarę ich wystąpienia, automatycznie oznaczając podejrzane zachowanie względem progów ryzyka zdefiniowanych przez administratora, zapewniając zespołom bezpieczeństwa szczegółowe ścieżki audytu i możliwość interwencji przed eskalacją zagrożenia.
- Wdrożenie funkcji wykrywania i reagowania na zagrożenia tożsamości (ITDR): ITDR stale monitoruje anomalie behawioralne zarówno w odniesieniu do tożsamości ludzkich, jak i maszynowych, wykrywając podejrzane działania, takie jak próby eskalacji uprawnień i nadużycia danych uwierzytelniających, zanim rozwiną się one w większe incydenty. Rozszerzając wykrywanie zagrożeń poza kontrole obwodowe do warstwy tożsamości, ITDR bezpośrednio odnosi się do martwych punktów tworzonych przez Shadow AI.
Keeper® zabezpiecza tożsamości ludzkie i maszynowe
Wraz ze wzrostem wykorzystania AI będzie rosnąć również Shadow AI. Organizacje potrzebują platformy bezpieczeństwa tożsamości, która zapewnia widoczność, kontrolę i zarządzanie w każdej tożsamości, zarówno ludzkiej, jak i maszynowej.
Keeper zapewnia uprzywilejowany dostęp zarówno dla użytkowników ludzkich, jak i tożsamości maszynowych, egzekwuje zasady najmniejszych uprawnień i zapewnia monitorowanie sesji w czasie rzeczywistym w krytycznych systemach. Reguluje tajne dane infrastruktury i klucze API, na których polegają agenci AI, troszcząc się o to, aby NHI działały w określonych granicach, a dane uwierzytelniające były rotowane automatycznie. KeeperAI poprawia tę widoczność, analizując sesje uprzywilejowane w czasie rzeczywistym i ujawniając aktywność wysokiego ryzyka w momencie jej wystąpienia. Zbudowany w oparciu o architekturę zero-trust i zero-knowledge, Keeper zapewnia ścieżki audytu i kontrole dostępu, których organizacje potrzebują do zarządzania wykorzystaniem sztucznej inteligencji bez blokowania produktywności, jaką umożliwia.
Warto już dziś rozpocząć bezpłatny okres próbny Keeper, aby uzyskać pełną widoczność i kontrolę nad każdą tożsamością w swoim środowisku.