La cybersécurité n’est plus seulement une préoccupation informatique ; elle constitue maintenant une priorité stratégique dans la salle du conseil. Comme les entreprises fonctionnent sans périmètre fixe,
À mesure que les agents d’intelligence artificielle (IA) deviennent plus autonomes en accédant à des systèmes critiques et en agissant sans surveillance humaine en temps réel, ils évoluent d’outils de productivité vers des identités non humaines (NHI) actives, comme les comptes de service ou les clés API, qui nécessitent la même surveillance et les mêmes contrôles que les utilisateurs humains. Cette évolution élargit la surface d’attaque des organisations, introduisant de nouveaux risques de sécurité liés aux accès surprivilégiés et au mouvement latéral des NHI dans l’infrastructure cloud. Lorsque les agents d’IA sont compromis, les cybercriminels peuvent exploiter l’injection de commandes pour manipuler un agent afin d’exécuter des actions non autorisées, voler des identifiants ou se déplacer latéralement dans les environnements cloud.
Pour relever ces défis, les organisations doivent repenser la manière dont la sécurité zero trust s’applique aux agents d’IA autonomes. Le « Model Context Protocol » (MCP ou le protocole de contextes des modèles) introduit un cadre axé sur le contexte pour régir la manière dont les agents d’IA accèdent aux outils et aux données en mettant l’accent sur l’identité, l’accès et l’intention, aidant les organisations à appliquer les principes du zero trust au premier plan de chaque interaction pilotée par machine.
Poursuivez votre lecture pour en savoir plus sur le MCP, comment il permet de mettre en œuvre les principes zero-trust et comment Keeper® applique le zero trust aux agents d’IA.
Qu’est-ce que le « Model Context Protocol » (MCP) ?
Le « Model Context Protocol » (MCP), une norme ouverte introduite par Anthropic, est conçu pour régir de manière sécurisée l’accès autonome des agents d’IA aux outils, données et systèmes dans les environnements d’entreprise. Au lieu de permettre aux agents d’IA de fonctionner selon des contrôles d’accès statiques ou généraux, le MCP met l’accent sur l’intégration du contexte dans chaque requête effectuée par un agent d’IA. Par exemple, plutôt que d’accorder à un agent d’IA un accès en lecture générale à une base de données entière, le MCP peut évaluer si une requête spécifique, à ce moment précis et pour cette tâche, doit être autorisée, en récupérant uniquement le rôle correspondant à l’accès spécifique requis. Cette structure garantit que les actions de l’IA sont transparentes et alignées sur les politiques et exigences de sécurité de l’organisation.
Le MCP joue un rôle important dans la contextualisation et le contrôle du comportement des agents d’IA en temps réel. En intégrant le contexte à chaque interaction, le MCP aide les organisations à vérifier en continu les NHI grâce aux accès de moindre privilège et à des décisions basées sur le risque, atténuant ainsi les vecteurs d’attaque modernes spécifiques à l’IA. Une approche contextuelle permet aux équipes de sécurité d’évaluer qui ou quoi demande l’accès, ainsi que pourquoi et comment la demande est formulée. Le MCP contribue ainsi à transformer les agents d’IA, qui représentent des identités à haut risque, en entités gouvernées fonctionnant dans un environnement zero trust, permettant aux organisations d’adopter l’IA à grande échelle sans compromettre la sécurité ni la visibilité.
Comment le MCP permet d’appliquer les principes du zero-trust dans les flux de travail IA
Les modèles de sécurité zero trust traditionnels étaient conçus pour les utilisateurs humains, et non pour les agents d’IA autonomes que des flux de travail compromis peuvent influencer. Sans une vérification continue de l’identité, les agents d’IA peuvent agir sans le savoir sur des instructions malveillantes, réutiliser des identifiants exposés ou créer des conditions idéales pour l’escalade des privilèges et le mouvement latéral. Le MCP étend les principes du zero-trust aux flux de travail pilotés par l’IA en garantissant que chaque action est vérifiée en permanence, étroitement contrôlée et entièrement auditable. Avec le MCP, chaque requête effectuée par un agent d’IA est évaluée en fonction du contexte, y compris l’identité, la tâche et l’environnement, de façon à s’adapter aux conditions changeantes. Par exemple, un agent d’IA DevOps déployant du code peut être limité à un environnement spécifique pendant une période donnée, tandis qu’un agent d’IA du support client peut accéder uniquement aux entrées clients nécessaires pour résoudre un ticket. Si la tâche ou le périmètre d’un agent change, l’accès peut être revalidé ou révoqué, renforçant ainsi la vérification continue.
Cette approche d’authentification en temps réel limite l’exposition des identifiants, empêchant les agents d’IA d’accéder à des systèmes au-delà de leur objectif prévu. L’accès limité dans le temps des agents d’IA réduit l’exposition des identifiants tout en garantissant un accès de moindre privilège dans tous les environnements. De plus, le MCP améliore la visibilité et la responsabilité en permettant la journalisation contextuelle des actions autonomes, que les outils de sécurité peuvent utiliser pour soutenir l’enregistrement des sessions, l’audit et la réponse aux incidents.
Sécurisation des flux de travail des agents d’IA avec KeeperPAM
Bien que le MCP définisse comment le contexte doit être appliqué aux interactions avec l’IA, les organisations ont toujours besoin de solutions de gestion des accès privilégiés (PAM) pour faire respecter les principes du zero trust. KeeperPAM® sécurise les flux de travail pilotés par l’IA en combinant des contrôles contextuels, un chiffrement zero knowledge et une automatisation basée sur des politiques, sans exposer les identifiants ni perturber les opérations.
- Gestion des secrets et contrôle des sessions contextuels : KeeperPAM permet aux agents d’IA de récupérer des secrets de manière dynamique en fonction de l’identité, du rôle et du contexte d’exécution, sans avoir à coder en dur les identifiants. Avec Keeper Secrets Manager, l’accès est régi par des politiques et évalué en continu afin de garantir à chaque agent d’IA un accès de moindre privilège pour chaque tâche et session.
- Accès temporaire et sans identifiants pour les agents d’IA : Keeper prend en charge l’accès juste-à-temps (JIT) pour les identités humaines et les NHI, éliminant ainsi les privilèges permanents. Les identifiants sont délivrés uniquement lorsque cela est nécessaire et expirent automatiquement une fois la tâche accomplie, réduisant ainsi la surface d’attaque.
- Chiffrement de bout en bout avec architecture zero knowledge : grâce au chiffrement de bout en bout, les secrets ne sont jamais divulgués en clair aux agents d’IA ni à Keeper lui-même. Ce niveau de sécurité permet aux agents d’IA de prendre des décisions et d’exécuter des actions sans manipuler d’identifiants, conformément au principe du zero trust.
- Intégration CI/CD et tunnels éphémères : KeeperPAM s’intègre aux pipelines CI/CD et aux outils d’automatisation de l’infrastructure tout en préservant les secrets en les excluant du code source et des fichiers de configuration. Grâce à un accès éphémère et des tunnels sécurisés, les agents d’IA peuvent interagir avec les systèmes critiques sans avoir à conserver d’identifiants pour une utilisation ultérieure.
- Prise en charge des protocoles PAM dans l’automatisation pilotée par l’IA : avec la prise en charge native de SSH, RDP et SQL, KeeperPAM permet aux agents d’IA d’automatiser en toute sécurité la gestion de l’infrastructure, les accès à distance et les opérations de base de données en fonction de politiques appliquées de manière cohérente.
- Enregistrement des sessions, application des politiques et RBAC : toutes les sessions privilégiées pilotées par l’IA peuvent être surveillées, enregistrées et appliquées par le contrôle d’accès basé sur les rôles (RBAC). Cela procure une visibilité totale sur les actions autonomes tout en maintenant un accès de moindre privilège pour les NHI. Lorsqu’une activité à haut risque est détectée, KeeperAI met automatiquement fin à la session.
Créer des systèmes d’IA dignes de confiance
À mesure que les agents d’IA s’intègrent dans les environnements d’entreprise, la sécurité zero trust est cruciale pour maintenir un accès sécurisé, autonome et piloté par machine. Le MCP introduit une couche contextuelle fondamentale nécessaire pour vérifier en permanence les identités, les intentions et l’accès des agents d’IA à grande échelle. Pour améliorer les postures de sécurité modernes, les organisations ont besoin de contrôles zero trust au sein d’une solution PAM solide qui s’intègre au MCP. Grâce à son intégration MCP, KeeperPAM fournit la gestion des secrets et des accès privilégiés nécessaire pour activer en toute sécurité les flux de travail pilotés par l’IA sans exposer les identifiants ni perdre en visibilité.
Commencez dès aujourd’hui votre essai gratuit de KeeperPAM afin de sécuriser les agents d’IA avec une sécurité zero trust dans l’ensemble de votre organisation.