La maggior parte delle soluzioni Zero Trust Network Access (ZTNA) affermano di eliminare i rischi di sicurezza basati sul perimetro, ma molte in realtà introducono nuove
Secondo una ricerca dell’International Data Corporation (IDC), si prevede che la spesa globale per le infrastrutture di intelligenza artificiale (AI) supererà i 200 miliardi di dollari entro il 2028. Con la rapida implementazione di sistemi AI sempre più complessi da parte delle organizzazioni, la domanda di infrastrutture ad alte prestazioni, come unità di elaborazione grafica (GPU) e risorse che velocizzano l’esecuzione dell’AI, è in forte aumento. Questa crescita aumenta esponenzialmente la potenza di elaborazione, il consumo energetico e lo scambio di dati negli ambienti ibridi e cloud. Tuttavia, questa rapida espansione delle infrastrutture AI aumenta anche i rischi per la sicurezza informatica.
I framework di sicurezza tradizionali non sono all’altezza di ridurre le superfici di attacco e proteggere gli accessi con privilegi. Il futuro dell’AI richiede una soluzione di gestione degli accessi con privilegi (PAM) moderna per proteggere gli ambienti cloud dinamici.
La crescita esplosiva dell’infrastruttura dell’IA
Le aziende si stanno affrettando a implementare sistemi più grandi e potenti per tenere il passo con la rapida velocità dei progressi dell’AI. Al centro di questa crescita c’è un aumento della domanda di GPU, che sono cruciali per l’addestramento e l’esecuzione di modelli di apprendimento moderni. La maggior parte degli stack AI è altamente complessa e richiede risorse significative, il che spinge molti provider cloud a investire significativamente in data center specifici per l’AI, capaci di elaborare ciò che le infrastrutture tradizionali non riescono. Poiché questi centri sono progettati per supportare workload avanzati, le organizzazioni necessitano di grandi quantità di potenza di elaborazione, il che porta a un aumento significativo del consumo energetico. Sulla base di un report dell’International Energy Agency (AIE), si prevede che i data center specifici per l’AI degli Stati Uniti rappresenteranno quasi la metà della crescita della domanda di elettricità del Paese entro il 2030, con un consumo di energia superiore a quello di tutti i settori di produzione incentrati sull’energia messi insieme.
Oltre alla complessità e al consumo energetico delle infrastrutture AI, i moderni stack AI sono profondamente integrati nelle pipeline di addestramento, nelle Application Programming Interfaces (API) e nei set di dati, che devono interagire senza problemi tra più ambienti ibridi e cloud per garantire prestazioni ottimali. Con l’aumento della dipendenza dall’AI, le organizzazioni devono assicurarsi prestazioni e scalabilità senza compromettere la conformità o lo stato di sicurezza complessivo.
Rischi per la sicurezza negli ambienti guidati dall’intelligenza artificiale
Quando l’infrastruttura AI si espande, si espande anche la superficie di attacco, ovvero il numero totale di punti di ingresso da cui un utente non autorizzato potrebbe accedere a sistemi o dati sensibili. I potenziali punti di ingresso, o vettori di attacco, includono hardware, cluster GPU, software, API ed endpoint che possono essere sfruttati in un attacco informatico. Uno dei vettori di attacco più a rischio nelle infrastrutture AI è l’accesso con privilegi.
Solitamente, gli utenti con privilegi, come ingegneri, amministratori IT e team DevOps, hanno autorizzazioni elevate in tutta l’infrastruttura per il provisioning e l’accesso ai dati. Se un solo account con privilegi viene compromesso, i criminali informatici possono utilizzarlo per accedere a sistemi sensibili e persino corrompere gli output dell’AI.
La sicurezza perimetrale tradizionale non è più sufficiente, perché il fatto di affidarsi esclusivamente a firewall o a difese basate sulla rete non fornisce piena visibilità e controllo degli accessi. Con una soluzione PAM moderna, le organizzazioni possono passare dai metodi di sicurezza tradizionali a modelli di sicurezza incentrati sull’identità che danno priorità all’applicazione dell’accesso con privilegi minimi, al monitoraggio delle sessioni e alla convalida continua degli utenti umani e non umani attraverso un approccio zero-trust.
Perché una soluzione PAM moderna è fondamentale
Man mano che gli ambienti AI crescono in termini di dimensioni e complessità, una soluzione PAM moderna è essenziale per proteggere sia le identità umane che quelle non umane. Implementando una soluzione PAM, le organizzazioni si assicurano che i segreti non siano hardcoded in script o esposti nei file di configurazione. A differenza delle soluzioni PAM legacy, realizzate attorno ai ruoli IT tradizionali e all’infrastruttura statica, le soluzioni PAM moderne sono progettate per garantire la scalabilità con architetture cloud-native e basate sull’AI. Quando una singola credenziale compromessa può portare a un accesso diffuso all’infrastruttura di un’organizzazione, l’implementazione di una soluzione PAM moderna offre un controllo granulare sugli accessi con privilegi, migliora la visibilità e riduce la superficie di attacco.
Per proteggere gli ambienti AI complessi, le soluzioni PAM moderne offrono funzionalità e caratteristiche critiche quali:
- Accesso Just-in-Time (JIT): concede l’accesso con privilegi solo quando necessario e per una durata limitata, eliminando l’accesso permanente.
- Monitoraggio e registrazione delle sessioni: traccia tutte le sessioni con privilegi in tempo reale e aiuta a rilevare le attività sospette con audit trail dettagliati.
- Gestione dei segreti: memorizza, ruota e gestisce in modo sicuro le credenziali e i segreti utilizzati nelle pipeline AI.
- Sicurezza zero-trust: applica l’autenticazione continua per ogni utente, dispositivo e sessione prima di concedere l’accesso.
Proteggere il futuro dell’infrastruttura AI con KeeperPAM
Quando le organizzazioni investono nell’AI, la protezione degli accessi con privilegi deve rimanere una priorità assoluta. Gli strumenti PAM tradizionali che un tempo proteggevano i sistemi legacy non riescono più a soddisfare le esigenze degli ambienti AI, specialmente per quanto riguarda l’accesso con privilegi. Quando le organizzazioni si concentrano sugli investimenti nell’innovazione dell’AI e nell’addestramento di modelli linguistici di grandi dimensioni (LLM), devono anche investire nella sicurezza informatica, poiché l’incapacità di controllare gli accessi con privilegi può compromettere i sistemi e i dati sensibili.
Fortunatamente, KeeperPAM è stato creato pensando al futuro. Progettato per ambienti ad alte prestazioni e ad alta intensità di risorse, KeeperPAM è una soluzione PAM moderna e nativa del cloud che si adatta perfettamente ai workload AI.
Richiedi subito una demo di KeeperPAM per proteggere la tua organizzazione e gestire i rischi degli ambienti basati sull’AI.