Jiraは多くのDevOpsチームやITチームの記録
生産性向上のために人工知能 (AI) ツールを利用する従業員が増加していますが、AIがセキュリティに及ぼす影響については、ほとんど考慮されていないと言えるでしょう。 従業員が、機密性の高い顧客データを未承認のAIツールに貼り付けると、そのデータは組織の管理が及ばないサードパーティのモデルによって処理され、多くの場合、セキュリティチームが確認できる監査証跡が残りません。
Microsoftの「2024年労働トレンド指数年次報告書」によると、従業員の78%が職場で独自にAIツールを使用していると回答しています。 この承認されていないAIツールの利用は、シャドーAIと呼ばれるものであり、それがいかに広く普及しているかを示しています。 アイデンティティセキュリティは、組織内の誰が、どのような条件下でAIツールにアクセスできるかを可視化するものです。それによりセキュリティチームは、AIの使用を適切に管理できる基盤が得られるため、この課題に対処できるようになります。
以下では、シャドーAIについての説明と、それがなぜアイデンティティセキュリティの大きなリスクなのか、またID中心のシャドーAIをどう管理すべきかについてご紹介します。
シャドーITとシャドーAIの比較
シャドーAIは、シャドーITがもたらす既存のリスクを拡大させるだけでなく、より現代的で複雑な脅威をもたらします。シャドーITとは、組織内で未承認のソフトウェアやシステムを使用することを指します。 例えば、従業員が個人のメールアカウントを使用して業務上のファイルを共有した場合、アクセス制御と可視性に隙ができてしまいます。 シャドーAIは、この脅威がさらに一歩進んだものです。なぜなら、AIツールはデータを保存するだけでなく、積極的に処理し、保持する可能性があるからです。 そのため、機密情報が組織の管理を超えた外部モデルに深く埋め込まれる可能性が高まり、新たなレベルのデータ漏洩につながります。 AIの管理を特に困難にする要因には次の2つが挙げられます。
- 個人のアカウントやデバイスの使用: 従業員が個人のアカウントやデバイスを使用して、会社がプロビジョニングする環境外でAIツールにアクセスすると、そのアクティビティは組織のアイデンティティから切り離され、透明性と追跡可能性が失われます。
- ブラウザベースのAIツール: ブラウザベースのAIツールはインストールが不要なため、エンドポイントベースの制御のみに依存する環境では、検出が困難になります。
こうした大規模なデータ漏洩と、従来の検出方法を回避できるツールが組み合わさることで、シャドーAIは特に難しいセキュリティ問題となっています。
シャドーAIがアイデンティティセキュリティの問題である理由
従業員が未承認のAIツールを使用すると、セキュリティチームは、どのデータが共有されたのか、誰がツールにアクセスしたのか、ツールがそのデータをどう処理するのかを把握できません。 このようにアイデンティティが特定できないという点こそ、シャドーAIの検出が極めて困難である主な理由であり、その管理はなおさらです。 従来のIDおよびアクセス管理 (IAM) ソリューションは、予測可能な行動と定義されたロールを持つ人間のユーザー向けに設計されていました。しかし現代の組織は、AIエージェントやサービスアカウントを含む非人間アイデンティティ (NHI) を考慮に入れてセキュリティ戦略を調整する必要があります。 これらのマシンアイデンティティは、複数の重要なシステムに自律的にアクセスし、タスクを実行することができるため、企業内での利用が拡大しています。 実際、マッキンゼーの2025年版「AIの現状に関するグローバル調査」によると、上級リーダーの62%が、所属する組織で少なくともAIエージェントの使用実験を行っていると回答しています。 人間のユーザーとは異なり、AIエージェントは継続的に動作し、迅速に拡張し、同時に多くのシステムと連携することができます。 人間とマシンの両方のアイデンティティを管理できるアイデンティティセキュリティ制御がなければ、組織はデータへのアクセス方法やその使用方法を管理できなくなります。
アイデンティティに関連するシャドーAIの主なリスク
脆弱なアイデンティティセキュリティは、シャドーAIの検出を困難にするだけでなく、シャドーAIが引き起こす被害を悪化させます。
監視されていないデータアクセス
機密データを未承認のAIツールと共有する従業員は、従来の監視システムでは検出できないデータ漏洩を引き起こします。 データ損失防止ツールは、監視可能なチャンネルしか監視できず、シャドーAIはその境界の外側で動作します。 従業員が、監視されていない個人アカウントを通じて未承認のAIツールを使用した場合、組織はそのアクティビティを監視し、記録し、ログに保存する方法がありません。 特権データや認証情報が漏洩すると、サイバー犯罪者は、監査証跡を残さずに重要なシステムにアクセスできます。
マシンアイデンティティの無秩序な増加
正式なオンボーディングとオフボーディングのプロセスを経る人間の従業員とは異なり、AIエージェントとサービスアカウントは、多くの場合、構造化されたライフサイクル管理が欠けています。 その結果、過剰な権限と限られた監視の下で、複数の環境にわたって動作するマシンアイデンティティの数が増加し、マシンアイデンティティの無秩序な増加 (スプロール) を引き起こしています。 マシンアイデンティティが可視化されていない場合、組織はどのシステムがアクセスされているか、またはそれらが侵害されているかどうかを把握できません。
コンプライアンスおよび監査の不備
GDPR、HIPAA、PCI DSSなどの規制フレームワークでは、人間によるものかマシンによるものかにかかわらず、組織は機密データへのアクセス方法および処理方法を追跡することが求められています。 アイデンティティセキュリティが人間のユーザーのみを対象としている場合、組織はAIのアクティビティを網羅した完全な監査証跡を作成できず、規制上の罰則や監査所見の対象となるリスクにさらされます。こうした問題は、事後に対処することがますます困難になっています。
ID中心のシャドーAIをいかに管理するか
シャドーAIの管理とは、組織のメンバー全員に対し、AIツールを全面的に使用禁止にすることではありません。まずは、重要なシステムやデータに誰がアクセスしているかを完全に把握することから始めるべきなのです。 シャドーAIの管理において、ID中心のアプローチを採用するために、ITチームとセキュリティチームが従うべき重要な手順を以下に示します。
- すべてのアイデンティティを可視化: 強力なIAMソリューションを活用して、承認済みおよび未承認のAIツールにアクセスするユーザーを特定します。これを行わなければ、セキュリティチームはデータが漏洩した後になって初めてシャドーAIへの対応を迫られることになります。組織は、人間とマシンの両方のアイデンティティを管理するために必要な可視性を確保し、どのツールを許可すべきか、またどのアクセスポリシーをより厳格にする必要があるかを判断できるようにしなければなりません。
- 非人間アイデンティティまで管理を拡大: IAMとIDガバナンスおよび管理 (IGA) を組み合わせることで、人間とマシンの両方のアイデンティティによるアクセスを管理します。AIエージェントとサービスアカウントは、人間のユーザーと同じアクセスレビュー、最小権限ポリシー、オフボーディングプロセスの対象となる必要があります。
- ゼロトラストセキュリティを適用: すべてのアクセスリクエストは、そのアイデンティティが人間によるものであれマシンによるものであれ、常に検証されるべきです。多要素認証 (MFA) を要求し、シングルサインオン (SSO) を使用し、最小権限アクセスを適用して、すべてのIDのアクセスを特定のタスクに必要な権限のみに制限する必要があります。
- 特権セッションをリアルタイムで監視して記録: AIに関連するすべてのアクティビティを承認済みのIDに紐付けて、重要なシステムへのアクセスに伴うセッションを記録します。KeeperAIのようなツールは、セッションが発生するたびにリアルタイムで分析し、管理者が定義したリスクのしきい値に基づいて不審な行動を自動的に検出してフラグを付けます。それによってセキュリティチームは詳細な監査証跡を取得し、脅威が深刻化する前に介入できるようになります。
- アイデンティティの脅威検知と対応 (ITDR) の導入: ITDRは、人間とマシンの両方のアイデンティティにおける異常な行動を継続的に監視し、特権昇格の試みや認証情報の不正使用などの不審な行動を、より大きなインシデントに発展する前に検出します。ITDRは、脅威の検出を境界管理からIDのレベルに拡張することで、シャドーAIによって生じる盲点に直接対処します。
Keeper®で人間とマシンの両方のアイデンティティを保護
AIの普及が進むにつれて、シャドーAIも同様に拡大していきます。 組織は、人間とマシンを含むあらゆるアイデンティティ全体に対して、可視化、制御、ガバナンスを提供するアイデンティティセキュリティプラットフォームを必要としています。
Keeperは、人間のユーザーとマシンアイデンティティの両方の特権アクセスを保護し、最小権限ポリシーを適用するとともに、重要なシステム全体でリアルタイムのセッション監視を提供します。 またAIエージェントが使用するインフラのシークレットとAPIキーを管理し、NHIが定義された境界内で動作し、認証情報が自動的にローテーションされることを保証します。 KeeperAIは特権セッションをリアルタイムで分析し、高リスクのアクティビティが発生した時点で検出することで、可視性を向上させます。 ゼロトラスト、ゼロ知識アーキテクチャに基づいて構築されたKeeperは、AIがもたらす生産性を損なうことなく、AIの使用を管理するために必要な監査証跡とアクセス制御を組織に提供し、統制を実現します。
ぜひKeeperの無料トライアルをご利用の上、環境内のすべてのアイデンティティの可視化と制御をご体験ください。