Ransomware en gestolen aanmeldingsgegevens behoren tot de meest voorkomende en schadelijke aanvalsvectoren die zijn gericht op financiële instellingen. Omdat banksystemen waardevolle financiële activa en gevoelige klantg...
Naarmate organisaties meer vertrouwen op kunstmatige intelligentie (AI) om bedrijfskritische activiteiten uit te voeren, wordt de infrastructuur die de ontwikkeling en inzet van AI ondersteunt een waardevol doelwit voor cybercriminelen. Van modeltraining en datapijplijnen tot cloudworkloads en API’s; AI-activiteiten zijn afhankelijk van toegang tot bevoorrechte aanmeldingsgegevens en kritieke systemen.
In werkelijkheid worden AI-omgevingen niet alleen beheerd door menselijke gebruikers, maar ook door niet-menselijke identiteiten (NHI’s) zoals AI-agenten, containers en serviceaccounts. Vergeleken met menselijke identiteiten zijn NHI’s bijzonder moeilijk te controleren en te beveiligen in dynamische, geautomatiseerde pijplijnen. Om het risico op AI-gestuurde cyberaanvallen te verminderen, moeten organisaties elke menselijke en machine-identiteit beveiligen door het principe van minimale privileges af te dwingen, permanente privileges te elimineren en zero-trust beveiligingsprincipes toe te passen.
Lees verder over waarom identiteitsbeveiliging essentieel is om u te beschermen tegen AI-beveiligingsrisico’s en hoe Keeper® helpt bij het beveiligen van zowel menselijke als niet-menselijke identiteiten.
Waarom is identiteitsbeveiliging zo belangrijk?
Op AI gebaseerde systemen zijn afhankelijk van gedistribueerde infrastructuur en verhoogde toegang tot kritieke omgevingen. Menselijke gebruikers, waaronder technici, DevOps-teams en datawetenschappers, hebben doorgaans verhoogde rechten nodig om databases, Kubernetes-clusters, GPU’s en productieworkloads te beheren. Interne medewerkers zijn echter niet de enige menselijke gebruikers die toegang nodig hebben. Veel organisaties vertrouwen op externe leveranciers die mogelijk bevoorrechte toegang krijgen om infrastructuur te beheren of onderliggende platforms te onderhouden, wat externe risico’s introduceert die streng moeten worden beheerd. Vendor Privileged Access Management (VPAM) pakt dit risico aan door toegang van derden te controleren en te monitoren. VPAM richt zich op het beveiligen en beheren van externe toegang tot interne systemen door toegang met minimale privileges af te dwingen en controleerbare zichtbaarheid te behouden.
Hoewel menselijke identiteiten cruciaal zijn voor het aansturen van AI-activiteiten, zijn NHI’s zoals AI-agenten, serviceaccount, API’s en automatiseringsscripts net zo belangrijk. NHI’s hebben bevoorrechte toegang en aanmeldingsgegevens nodig om gegevens te verplaatsen, AI-modellen te implementeren en geautomatiseerde pijplijnen uit te voeren. In tegenstelling tot menselijke gebruikers werken NHI’s meestal continu en op grote schaal, waardoor ze een waardevol doelwit zijn voor cybercriminelen. Als de identiteit van een individu of machine wordt gecompromitteerd, kunnen de gevolgen variëren van datadiefstal en misbruik van aanmeldingsgegevens tot laterale beweging en schendingen van regelgeving.
Uitdagingen met menselijke en niet-menselijke identiteiten
Het beheren van identiteiten in AI-omgevingen is een uitdaging omdat organisaties zowel menselijke gebruikers als geautomatiseerde processen binnen snel veranderende infrastructuren moeten beveiligen. Menselijke gebruikers verzamelen na verloop van tijd vaak buitensporige rechten, vooral in snelle omgevingen waar technici en datawetenschappers permanente toegang krijgen om de ontwikkeling te versnellen.
NHI’s zorgen voor een extra reeks uitdagingen bovenop het complexe toegangsbeheer voor menselijke gebruikers. Serviceaccounts, AI-agenten, scripts en API’s vertrouwen vaak op geheimen die in scripts zijn gecordeerd of ingebed in containers, waardoor ze moeilijk te volgen, te roteren en in te trekken zijn. Teams hebben vaak geen zicht op wat NHI’s doen, welke systemen op hen vertrouwen of welke toegang ze hebben. Naarmate AI-infrastructuur zich uitbreidt over multi-cloudomgevingen, wordt de wildgroei aan geheimen moeilijker te beheersen terwijl audittrails voor automatisering nagenoeg niet bestaan. Zonder goed toezicht en passende controles kunnen gecompromitteerde identiteiten onopgemerkt blijven, waardoor ongeautoriseerde toegang tot kritieke systemen en AI-modellen mogelijk wordt. Om dit aan te pakken, zijn gedragsanalyses en continue validatie van groot belang om ongebruikelijke activiteiten in AI-workflows te detecteren, zodat zowel menselijke als machine-identiteiten binnen de goedgekeurde toegangslimieten blijven.
Best practices voor het beveiligen van identiteiten in verschillende AI-omgevingen
Om gevoelige gegevens en kritieke infrastructuur te beschermen, moeten organisaties een identiteitsgerichte beveiligingsstrategie hanteren om zowel menselijke als niet-menselijke identiteiten te beveiligen. Hieronder volgen enkele best practices voor het beveiligen van identiteiten in elke fase van de AI-levenscyclus:
- Pas toegang met minimale rechten toe: Beperk de toegang tot alleen wat nodig is voor elke specifieke rol of taak, en valideer die toegang continu op basis van context om de impact van een gecompromitteerde identiteit te verminderen.
- Gebruik geheimenbeheer met geautomatiseerde rotatie van aanmeldingsgegevens: elimineer hardgecodeerde aanmeldingsgegevens door ze veilig op te slaan en regelmatig automatisch te roteren. Dit is cruciaal voor machine-identiteiten die continu in meerdere pijplijnen werken.
- Handhaaf rolgebaseerde toegangscontroles (RBAC) en multi-factor-authenticatie (MFA): implementeer RBAC om een granulair toegangsbeleid per rol of team te definiëren en verplicht MFA voor bevoorrechte acties op alle systemen om onbevoegde toegang te voorkomen.
- Monitor en registreer bevoorrechte sessies: Registreer sessieactiviteiten voor alle menselijke en machinetoegang tot kritieke systemen. Dit zorgt voor verantwoording, helpt abnormale activiteiten te detecteren en vereenvoudigt de audit.
- Elimineer permanente privileges met Just-in-Time (JIT)-toegang: verleen toegang en trek deze automatisch in zodra een taak is voltooid. JIT-toegang verkleint de mogelijkheden voor cybercriminelen aanzienlijk en ondersteunt zero-trust beveiliging.
- Integreer identiteitsbeveiliging in CI/CD: Sluit geheimenbeheer en toegangscontroles rechtstreeks in de ontwikkelingsworkflows in om ervoor te zorgen dat beveiliging de automatisering binnen AI-omgevingen niet belemmert.
- Handhaaf tijdelijke toegang voor verkopers met VPAM: Gebruik VPAM om derden tijdelijke, beleidsgebaseerde toegang te geven tot interne systemen, zodat hun toegang beperkt en traceerbaar is.
Hoe Keeper menselijke en niet-menselijke identiteiten beveiligt
Keeper is een zero-trust besturingsvlak voor menselijke en machine-identiteiten, gebouwd om te voldoen aan de identiteitsbeveiligingseisen van moderne AI-omgevingen. Keeper beschermt elke identiteit binnen het ecosysteem van een organisatie met:
- Geheimenbeheer: Keeper slaat geheimen, zoals SSH-sleutels, tokens en certificaten, veilig op en roteert ze in een versleutelde kluis zodat er geen geheimen in platte tekst worden blootgesteld.
- JIT-toegang: Met Keeper wordt toegang alleen ingericht wanneer dat nodig is, met automatische intrekking om permanente toegang te elimineren en te voorkomen dat aanmeldingsgegevens een risico vormen binnen snel veranderende AI-omgevingen.
- Sessie-opname: Om te voldoen aan interne beveiligingsrichtlijnen en compliance-eisen, kunnen alle sessies met beheerdersrechten worden opgenomen en gecontroleerd, waardoor volledig inzicht wordt verkregen in wie wanneer toegang had tot wat.
- AI-dreigingsdetectie en -respons: KeeperAI identificeert sessies met hoog risico en beëindigt deze automatisch, met volledige analyse en categorisatie van activiteiten.
- Multi-cloud omgevingsdekking: Keeper ondersteunt toegang tot AWS, Azure, GCP en on-premises omgevingen, waardoor gecentraliseerde controle mogelijk is, zelfs in gedistribueerde infrastructuren die vaak worden gebruikt in geautomatiseerde workflows.
- Integraties van tools voor ontwikkelaars: Keeper ondersteunt veel integraties met tools die moderne AI-ontwikkeling mogelijk maken, waaronder Terraform, Kubernetes, SQL-clients en meer. Deze integraties zorgen ervoor dat beveiliging is ingebed in de workflows van ontwikkelaars, zonder frictie te veroorzaken.
- VPAM: Voor aannemers en externe medewerkers zorgt Keeper voor beperkte, op beleid gebaseerde toegang met gedetailleerde auditsporen, zodat de activiteiten van leveranciers streng worden gecontroleerd en volledig worden gemonitord.
Bescherm elke identiteit tegen AI-beveiligingsrisico’s met Keeper
Naarmate AI steeds sneller wordt toegepast, introduceert elke menselijke en machinegebruiker nieuwe beveiligingsrisico’s in verband met onbeheerde identiteiten en ongecontroleerde toegang als deze niet goed beveiligd zijn. Traditionele toegangsbeheermethoden kunnen de snelle uitbreiding van moderne infrastructuur niet bijbenen, daarom is een modern identiteitsbeveiligingsplatform zoals Keeper noodzakelijk. Keeper stelt organisaties in staat om AI-omgevingen te beschermen zonder de bedrijfsvoering te vertragen en biedt zero-trust beveiliging die meegroeit met snelgroeiende AI-infrastructuren.
Begin vandaag nog met uw gratis proefperiode van Keeper om elke identiteit binnen uw moderne omgeving te beveiligen.