サイバー攻撃の被害につながる大きな要因の一つが、「管
行政機関のあらゆるレベルのサイバーセキュリティリーダーが、人工知能(AI)を利用したサイバー攻撃の増加に対し、ますます危機感を募らせています。サイバー犯罪者は、機械学習や自動化を攻撃手法に組み込み、攻撃の規模、効率性、巧妙さを大幅に向上させています。
最近の調査によると、800人以上のITリーダーのうち実に95%が、「サイバー脅威はこれまで以上に高度化している」と考えています。具体的な例として、高度に個別化された自動フィッシング攻撃、巧妙なディープフェイク動画や音声、従来のセキュリティ対策をすり抜けるAI駆動型マルウェアなどが挙げられます。
本記事では、AIを活用したサイバー脅威の実態を解説し、政府や行政機関がこれらのリスクを効果的に軽減するための戦略を紹介します。
AI駆動のサイバー脅威
悪意のある攻撃者は、ますます複雑なサイバー攻撃にAIを活用しています。従来の手動によるサイバー脅威とは異なり、AIを使った攻撃者は、リアルタイムで戦略を適応させ、脆弱性をより効率的に悪用することができます。このため、組織はサイバーセキュリティ戦略を再考する必要に迫られ、従来の方法だけではこれらの高度で自動化された攻撃に対応するには不十分になっています。以下は、最も一般的なAI駆動のサイバー脅威のいくつかです。
高度なフィッシング攻撃
フィッシング攻撃の初期段階では、ユーザーにナイジェリアの王子にお金を送るように促すという手法が取られており、これはすぐに明らかな詐欺として認識され、冗談のネタになりました。フィッシング攻撃が進化するにつれて、メッセージは正当な要求に似たものになり、通常はスペルミスや文法的な誤り、フォーマットの問題が含まれていました。
現在、AIは、よりプロフェッショナルな書き方でメッセージを作成し、文法的な問題を迅速に修正するために使用されています。また、フィッシング攻撃はよりタイムリーになっています。例えば、AIはニュースサイトやウェブサイトからリアルタイムの情報を使用して、緊急性を信じさせるようなメッセージを作成できます。
ディープフェイクと誤情報
AIで生成されたディープフェイクは、政治家、著名人、組織のリーダーが実際には言っていないことを言ったり、行ったりする偽の動画や音声記録です。例えば、選挙の際に候補者が物議を醸す発言をしたり、不適切な行動をしている偽の動画が公開され、その評判を損なうために使われることがあります。これらのディープフェイクはソーシャルメディアで急速に広まり、誤情報が訂正される前に公衆の認識に影響を与えることがあります。
もう一つの例は、高位の役人になりすましたディープフェイクの音声録音で、低位の社員を騙して多額の金銭を送金させるものです。この声はAIによってリーダーの話し方やトーン、リズムを模倣するため、非常に精度が高く聞こえることがあります。これらの攻撃は、行政職員を対象に行われると、機密情報の開示や金融取引の承認をさせる際に壊滅的な結果を招く可能性があります。
自動化されたハッキングとマルウェア
機械学習アルゴリズムは、従来のハッキング手法よりも高速で脆弱性を特定して悪用する能力が向上しています。AI駆動型ランサムウェアは、最も重要なファイルを最初に識別して暗号化し、ネットワーク全体に自動的に広がり、従来の防御策では止めることが難しくなります。
自動化されたクレデンシャル・スタッフィング攻撃では、AI駆動のボットが漏洩したユーザー名とパスワードの組み合わせを前例のない速度で自動的にテストします。機械学習アルゴリズムは、過去の試行から学習し、アカウントへの不正アクセスの可能性を高めます。
もう一つの例は、AI駆動型ボットネットで、機械学習アルゴリズムを使用して、セキュリティプロトコルが弱いために脆弱なIoTデバイスを特定し、悪用するものです。また、これらはソーシャルメディアネットワークで誤情報を広めるためにも使われることがあります。
AIでAIに立ち向かう今後の対策方法
幸いなことに、セキュリティ担当者にとって、AIは従来のセキュリティツールでは見逃されがちなネットワークの微細な異常や疑わしい活動を検出するツールにも活用されています。AIはまた、複数のソースからの脅威データを集約して分析し、政府や行政と民間部門のパートナー間での調整とコミュニケーションを迅速化するのに役立ちます。
政府や行政は、AIによって駆動される自動応答システムを実装することで、サイバー脅威が拡大する前に迅速に無力化することができます。これらのシステムは、機械学習を使って攻撃の深刻度を評価し、侵害されたシステムを隔離し、悪意のあるトラフィックをブロックしたり、侵害されたアカウントを無効にするなどの対策を講じます。AIによる自動化は、検出と対応の間の時間を短縮し、サイバーインシデントによるダメージを軽減するために重要です。政府機関は、AI駆動のサイバー脅威に対抗するために、以下の戦略を採用できます。
サイバーセキュリティフレームワークの強化
政府や行政は、AIを活用して脅威検出、対応、予防機能を改善することで、既存のサイバーセキュリティフレームワークを強化できます。たとえば、AIはネットワークトラフィックやシステムログを分析して、脅威を示唆する異常を検出します。
政府のリーダーは、重要インフラやシステムに対するセキュリティ基準を義務化し、アクセスを職務を遂行する必要のあるユーザーに制限する必要があります。また、政府の契約者やベンダーにも厳格なサイバーセキュリティ基準を満たすことを求めるべきです。
協力と情報共有
官民のパートナーシップは、AI駆動の新たな脅威に関する情報を共有する上で重要な役割を果たします。たとえば、サイバーセキュリティとインフラストラクチャーセキュリティ庁(CISA)は、政府と民間部門間で機械可読のサイバー脅威情報を交換する「自動化されたインディケーター共有(AIS)」プログラムなどのいくつかの取り組みを行っています。CISAはまた、サイバー脅威に対抗するために実行可能なサイバーリスク情報を収集、分析、共有するための「共同サイバー防御共同体(JCDC)」を設立しました。
AI脅威へのインシデント対応計画
迅速なインシデント対応が不可欠です。幸いなことに、AI駆動のシステムは、影響を受けたシステムを自動的に隔離し、悪意のあるIPアドレスをブロックしたり、侵害されたユーザーアカウントを無効にすることができます。機械学習は、過去のインシデントから学び、対応プロトコルを洗練させることで、対応の精度を向上させます。
政府や行政機関のITチームは、AIによるサイバー脅威を認識するための従業員のトレーニングに投資し、サイバー攻撃に備えるために定期的なシミュレーションやトレーニングを実施する必要があります。
KeeperでAIからのサイバー攻撃を未然に防ぎましょう
Keeperは、ゼロトラストサイバーセキュリティによって政府機関をAIによるサイバー攻撃の脅威から保護します。これにより、敏感な情報へのアクセスが場所やデバイスに関係なく厳密に認証、承認、継続的に確認されます。たとえ攻撃者がAIを使って説得力のあるフィッシングを仕掛けても、Keeperは偽のウェブサイトで資格情報を自動入力しません。
また、Keeperはダークウェブを継続的に監視し、漏洩した資格情報が見つかった場合に組織に警告を出し、即座に修正を行えるようにします。
Keeperは、AIツールが弱いパスワードを急速に解析するリスクを軽減するため、強力で一意のパスワードの使用を強制します。従業員はこれらのパスワードを覚える必要はなく、Keeperが適切なサイトやアプリケーションで自動的に保存および入力します。
Keeperを使用することで、IT管理者はユーザーの行動を監視および分析するツールを提供され、これにより、盗まれたまたはAI生成の資格情報を使った大規模なログイン試行など、AI駆動の攻撃の兆候や異常を検出するのに役立ちます。
これらの機能を継続的な革新と組み合わせることで、Keeperは、政府機関が進化するAI駆動のサイバー脅威に対してゼロトラストプラットフォームを使用して先んじて対応できるよう支援します。このプラットフォームは、FedRAMPおよびStateRAMP認証を受け、AWS GovCloudで利用可能です。
今すぐデモを予約して、Keeper Securityがどのように環境を保護し、セキュリティを確保するかを確認してください。