尽管 Jira 是许多开发运营团队和 IT 团队的记
员工纷纷使用人工智能 (AI) 工具来提升工作效率,却很少考量此举带来的安全隐患。 当员工将客户敏感数据粘贴至未经许可的 AI 工具时,这些数据会由组织控制范围之外的第三方模型处理,通常不会留下任何可供安全团队核查的审计记录。
根据 Microsoft 2024 年工作趋势指数年度报告,78% 的员工表示会在工作中使用个人 AI 工具。 这种未经许可使用 AI 工具的行为凸显出影子 AI 已十分普遍。 身份安全解决方案为应对这一挑战奠定了基础,帮助组织掌握人员访问 AI 工具的身份与场景,让安全团队具备管控 AI 使用行为的能力。
继续阅读,深入了解影子 AI、影子 AI 为何构成重大身份安全风险,以及如何治理以身份为核心的影子 AI。
影子 IT 与影子 AI
影子 AI 在影子 IT 现有风险的基础上,衍生出更现代化、更复杂的安全威胁。影子 IT 是指组织内部未经授权私自使用软件或系统的行为。 例如,员工使用个人邮箱账号分享工作文件,会造成访问管控与可见性方面的漏洞。 影子 AI 则将这类风险进一步升级,AI 工具不仅能够存储数据,还会主动处理并可能长期留存数据。 这会造成更高层级的数据泄露风险,敏感信息可能被深度嵌入组织无法管控的外部模型之中。 导致 AI 难以管控的两大因素如下:
- 个人账户或设备的使用:员工通过个人账户、私人设备在企业办公环境外访问 AI 工具,会使其操作行为与组织身份脱离,丧失行为透明度与可追溯性。
- 浏览器端 AI 工具:这类工具无需安装部署,仅依靠终端管控的环境很难对其进行监测。
大规模的数据泄露,叠加工具可规避传统监测的特性,让影子 AI 成为一项极具挑战的安全难题。
为什么影子 AI 属于身份安全问题
当员工使用未经许可的 AI 工具时,安全团队无法知晓共享了哪些数据、访问人员身份以及工具对数据的处理方式。 身份可见性的缺失,是影子 AI 难以监测、更难以管控的核心原因。 传统身份和访问管理 (IAM) 解决方案专为行为可预判、角色明确的人类用户设计。现代组织必须调整安全策略,将 AI 代理、服务账号等非人类身份 (NHI) 纳入管控范围。 这类机器身份可以自主访问多个核心系统并执行任务,且在企业中的应用规模正持续扩大。 事实上,根据麦肯锡《2025 年全球 AI 现状调查》对企业高层的调研,62% 的受访组织表示至少已开始试用 AI 代理。 与人类用户不同,AI 代理可全天候运行、快速扩容,同时与多个系统产生交互。 如果缺少可同时管控人类身份与机器身份的身份安全机制,组织将无法掌控数据的访问与使用情况。
与身份相关的主要影子 AI 风险
身份安全防护薄弱不仅会加大影子 AI 的监测难度,还会放大其造成的安全危害。
未受监控的数据访问
员工向未经许可的 AI 工具传输敏感数据,会引发数据泄露,而传统监控系统往往无法识别这类风险。 数据丢失防护工具只能监测自身可视范围内的渠道,而影子 AI 完全游离在这类管控边界之外。 如果员工通过未受监控的个人账户使用未经许可的 AI 工具,组织将无法监测、记录及留存相关操作日志。 一旦高权限数据或凭据发生泄露,网络犯罪分子便可借机入侵核心系统,且不会留下完整审计痕迹。
机器身份蔓延
企业员工有规范的入职与离职流程,而 AI 代理、服务账号通常缺乏标准化的生命周期管理。 这就导致越来越多的机器身份跨多环境运行,权限冗余且缺乏有效监管,进而造成机器身份蔓延。 如果缺乏对机器身份的可见性,组织就无法核查被访问的系统,也无法判断是否已遭到入侵。
合规与审计漏洞
GDPR、HIPAA、PCI DSS 等监管规范,均要求组织追踪敏感数据的访问与处理行为,无论操作主体是人类还是机器。 如果身份安全仅涵盖人类用户,组织将无法建立可记录 AI 活动的完整审计轨迹,这会使其面临监管处罚与审计结果,而这类问题的事后修复难度也会越来越高。
如何治理以身份为中心的影子 AI
管理影子 AI 并非禁止组织成员使用所有 AI 工具,首要步骤是全面掌握访问核心系统与数据的人员身份。 以下是您的 IT 和安全团队应遵循的一些关键步骤,通过以身份为核心的思路治理影子 AI:
- 建立所有身份的可见性:借助完善的 IAM 解决方案,识别所有访问合规及非合规 AI 工具的人员身份。缺少这一能力,安全团队只能在数据泄露后被动处置。组织必须具备覆盖人类与机器身份的可视能力,以此划定工具使用白名单,并细化访问管控策略。
- 将治理范围扩展到 NHI:将 IAM 与 身份治理和管理 (IGA) 相结合,以统一管控人类与机器身份的访问权限。AI 代理和服务账号需与人类用户遵循相同的访问审核、最小权限策略及注销流程。
- 执行零信任安全机制:所有访问请求都必须经过核验,不论发起主体是人类身份还是机器身份。启用多因素认证 (MFA)、单点登录 (SSO),严格执行最小权限访问原则,限制所有身份仅拥有完成指定工作所需的权限。
- 实时监控和记录特权会话:将所有 AI 相关操作与授权身份绑定,留存访问核心系统的会话记录。KeeperAI 这类工具可实时分析会话行为,按照管理员设定的风险阈值自动标记异常操作,为安全团队提供完整审计轨迹,便于在风险升级前及时干预。
- 部署身份威胁检测与响应 (ITDR):ITDR 可持续监测人类与机器身份的异常行为,提前识别权限越权、凭据滥用等风险,避免演变为重大安全事件。将威胁检测从边界防护延伸至身份层面,可直接填补影子 AI 带来的安全盲区。
借助 Keeper® 保护人类与机器身份安全
随着 AI 应用不断普及,影子 AI 的风险也会随之攀升。 组织需要一个身份安全平台,以实现对所有人类及机器身份的可视、管控与治理。
Keeper 可为人类用户和机器身份提供特权访问防护,执行最低特权原则,并对核心系统会话进行实时监控。 平台可管控 AI 代理所依赖的基础设施机密与 API 密钥,确保非人类身份在划定范围内合规运行,同时实现凭据自动轮换。 KeeperAI 可实时分析特权会话,即时识别高风险操作,进一步提升全局可视能力。 Keeper 基于零信任、零知识架构搭建,可为组织提供完备的审计轨迹与访问管控能力,在规范 AI 使用行为的同时,不阻碍其业务增效价值。
立即开始免费试用 Keeper,全面了解和管控您业务环境中的所有身份。