Vectra AI、企業の情報セキュリティ責任者が懸念するMicrosoft Copilotの課題を明らかに
[24/12/04]
提供元:PRTIMES
提供元:PRTIMES
生成AIによる機密データへのアクセスや機密データの生成がもたらす新たなサイバー犯罪の実態とは?
[画像: https://prcdn.freetls.fastly.net/release_image/108014/31/108014-31-b1ffd6a624cfcca57b440f68bc1401e5-774x559.png?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]
ハイブリッドおよびマルチクラウド企業向けのAIによる拡張検知と対応ソリューション (NDRおよびXDR)を提供するVectra AI(本社:カリフォルニア州サンノゼ、CEO:ヒテッシュ・セス)は、このたび、企業の情報セキュリティ責任者がMicrosoftのAIアシスタント機能であるCopilotを利用する上での課題と解決策を発表しました。
米国で活動するコンピュータ・アーキテクチャーやクラウド・コンピューティングなどを専門とする研究者たちが、Microsoftが開発した人工知能(AI)アシスタント機能であるCopilotは、検索拡張生成(retrieval augmented generation、以下RAG)システム内のセキュリティの脆弱性につながることを明らかにしました。彼らが 「ConfusedPilot <https://confusedpilot.info/>」と名付けたこのプログラムは、Copilotが悪用されたAIに騙されてしまい、会社のシステムから機密データを漏洩してしまう可能性があると警鐘を鳴らしています。
Microsoft以外にも、生成AIを利用した他のAIアシスタント・プログラムは、セキュリティ侵害の深刻な増加につながっていますが、多くの組織はそれを防ぐための準備がほとんどできていません。実際、ガートナー社は、2025年までに生成AIの安全性を確保するために必要なサイバーセキュリティにかかわるのリソースが急増し、アプリケーションとデータのセキュリティに15%以上の支出が増加する<https://www.gartner.com/en/newsroom/press-releases/2024-03-19-gartner-forecasts-security-and-risk-management-spending-in-australia-to-grow-more-than-11-percent-in-2024#:~:text=Australian%20organizations%20will%20spend%20more,of%2026.9%25%20expected%20in%202024.>と予測しています。これは、AIアシスタント・プログラムの利用が自社のセキュリティ・インフラに与える影響を懸念するセキュリティ・リーダーからの声と一致しています。
Microsoftを含むAIアシスタント・プログラムを提供するベンダー各社は、ユーザーの懸念を和らげるよう取り組んでいますが、セキュリティ責任者は、自分の組織をサイバー攻撃から適切に保護するために、セキュリティ上の懸念を正確に理解する必要があります。
業務を変革する生成AIとAIアシスタントの台頭
生成AIを搭載したソリューションは、独立型および統合型を問わず、ワークフローの根本的な改善、カスタマーサポートの強化、チームの作業時間の短縮などを実現することで、様々な業務に変革をもたらしました。
調査会社のStatistaによると、アジア太平洋地域では、生成AIの市場規模<https://www.statista.com/outlook/tmo/artificial-intelligence/generative-ai/apac>は年間46.46%の成長率(2024-2030年)を示し、2030年までに867.7億米ドルの市場規模になると予想されています。この成長の背景にあるのは、生成AIが個人の好みを理解し、それに応えるバーチャルアシスタントやチャットボットなど、パーソナライズされた、効率的なデジタル体験に適しているという事実です。
ガートナー社が5月に発表した調査レポート<https://www.gartner.com/en/newsroom/press-releases/2024-05-07-gartner-survey-finds-generative-ai-is-now-the-most-frequently-deployed-ai-solution-in-organizations>によると、生成AIは組織で導入されているAIソリューションの中で最も重要なテクノロジーであると評価しています。MicrosoftのCopilot for 365やAdobe Fireflyのような既存のアプリケーションに生成AIを組み込むことは利用事例を創出する方法とのことです。この調査レポートによれば、回答者の34%は、従来使っているアプリケーションに組み込まれた生成AIを使用することは、カスタマイズされた生成AIモデルなどの他のオプションよりも一般的であると述べています。
ガートナー社のシニア・ディレクター・アナリストであるレイナー・ラモス(Leinar Ramos)氏は、生成AIソリューションの増加が、適切な使用に関する会話をどのように促進しているかについて、「生成AIはビジネス全体でAI導入の度合いを高め、AIに関するスキルアップやAIの統制方法といったトピックをより重要なものにしています。生成AIによって組織はAI活用の必要性を認識しなければならなくなりました」述べています。
Microsoft Copilotは、既存のプラットフォームを介して統合できる生成AIソリューションの主要な事例ですが、セキュリティ上の懸念を軽減するためにさらなる注意が必要です。複数のアナリストや統計学者が証言しているようにMicrosoft Copilotは組み込み型生成AIの先駆的なテクノロジーです。Microsoftは、「Microsoft Copilotは、AIを搭載したデジタルアシスタントであり、デバイス上のさまざまなタスクやアクティビティで人々を支援するように設計されています」と説明しています。
Copilotが原因のセキュリティ上の問題を理解し、適切に対応するには?
Copilotのような生成AIソリューションがもたらす様々な機能はとても魅力的です。一方でこのAIアシスタントがなぜセキュリティ上の重大な問題があるのかを理解することが極めて重要です。なぜならば、すでに数社の大手企業がセキュリティ侵害を経験し、その解決に取り組んでいるからです。生成AIによるセキュリティ侵害対策とは、生成AIがどのようなデータにアクセスできてしまうのかを理解し、いかにデータを守りアクセスを管理するかということです。
Microsoft Copilotや同様のツールの主な懸念は、ユーザーと同じ機密データにアクセスできることです。残念ながら、Copilotを使用している多くのユーザーは、過度に寛容なデータアクセスが、サイバー犯罪者が機密情報やシステムに侵入する可能性を大幅に高めることを十分に理解していません。企業のセキュリティ総責任者はこうした深刻な状況から、企業のデータを守る必要が高まっています。
もう1つの根本的な懸念は、Copilotがリクエストに基づいて大量の新しい機密データを迅速に生成し、本来は参照すべきでない正規のアクセスデータを参照できることです。例えば、Copilotは、将来の製品発売、企業再編、高度な業務に関するデータなど、質問者が許可を持っていない機密情報を使って、質問に対する回答を作成する可能性があります。
データの悪用に関する問題に対処する方法は存在します。例えば、MicrosoftはCopilotをトレーニングする目的で組織のデータを使用することはありません。データはMicrosoft 365のテナント内に残ります。企業はユーザーへのアクセスについてもより慎重になっているとはいえ、こうした対策はここまでで、Copilotで作成された文書や回答は、セキュリティポリシーや原則ではなく、主に知識の共有に準拠し続けます。
生成AIによるデータ悪用を防ぐための対処方法は?
生成AIの統合を成功させ、データ漏洩を引き起こさないためには、システムとプロセスをスタッフと業務の安全性とセキュリティに集中することです。覚えておくべき3つの重要なポイントは、以下の3つです。
- 生成AIは自社のみならずサイバー攻撃者にとっても戦力増強剤であると認識すること
- 攻撃への対応は客観的なデータに基づく迅速な行動が必要であること
- 正確に検知・対応を行い、攻撃を阻止すること
基本的かつ重要な第一歩として、Copilotを採用する前に、組織は非常に厳格かつ徹底的なアクセス制御の見直しに取り組み、誰がどのデータにアクセスできるかを決定しなければなりません。ゼロトラスト原則(NIST(National Institute of Standards and Technology:米国立標準技術研究所)が発行したレポートである「SP 800-207 Zero Trust Architecture(2nd Draft)」)などで示されているように、ベストプラクティスは多くの場合、ユーザーアクセスを最低限にすることを支持しています。
Copilotが企業システムに統合されると、企業はデータに「機密ラベル」を適用できるようになります。Microsoftは、データのガバナンス、管理、保護、セキュリティに役立つソリューションであるMicrosoft Purviewを通じて機密ラベルを適用することを推奨しています。セキュリティ担当者は機密データを暗号化するラベルを設定し、一般ユーザーがコンテンツをコピーと抽出できる権限「EXTRACT」を利用不可にします。「EXTRACT」権限の設定により、ユーザーが機密文書をコピーしたり、Copilotが文書を参照するのを無効にすることができます。
また、セキュリティ専門家がサイバー脅威を事前に把握できるように、不審なユーザーの行動を特定し、優先度の高いアラートを検知するための追加のセキュリティサービスや、専門家向けソリューションの導入を検討することも有効です。セキュリティ専門家は、これらの追加情報を活用して、例えば「ユーザー」(従業員を装ったハッカーボット)をアカウントからロックするなどの対応ができるようになります。また、高機能のツールを使用することで、セキュリティ・チームは誰がCopilotを使用しているのか、どのようなデータが活用されているのかを確認できるため、継続的にサイバー脅威の認知と対策準備が可能になります。
Vectra AIが発行した「2024 脅威検知の現状(2024 State of Threat Detection and Response Report)<https://www.vectra.ai/resources/2024-state-of-threat-detection>」によると、AIは、生成AIの統合だけでなく、すべてのワークフローを通じて、セキュリティ・チームが自社のデータ・セキュリティ機能の脆弱性を補うことができます。同レポートによると、ほぼすべてのSOC実務者(97%)がAIツールを導入しており、85%が過去1年間にAIへの投資額とAIの使用率が上がったと回答しています。さらに、SOCの実務担当者の89%は、従来のサイバー脅威の検知と対応ソリューションから、今後1年間でAIを搭載したツールに変更する可能性が高い、75%は過去1年間にAIによって作業負荷が軽減されたと回答しています。
セキュリティの専門家と提携することは、セキュリティ・チームが組織全体のセキュリティを理解し、生成AIツールを適切に採用する方法を知る上で大きな助けとなります。さらにサイバー脅威の検知と対応を強化するためにAI搭載のセキュリティ・ソリューションを活用することもできます。セキュリティの専門家は、Copilotによるデータ漏えいを減らす方法として、プロンプトと応答を監視して機密データが誤った方法で使用されていないことを確認し、異常な動作を監視するようにCopilotを設定することが可能です。
Vectra AIについて
Vectra AIは、AIによる拡張検知とレスポンス (NDRおよびXDR) のリーダーです。Vectra AI Platform<https://ja.vectra.ai/platform>は、パブリッククラウド、SaaS、アイデンティティ、データセンターのネットワークにわたる統合シグナルを単一のプラットフォームで提供します。Vectra AIの特許取得済みのAttack Signal Intelligence(TM) < https://ja.vectra.ai/products/attack-signal-intelligence>により、セキュリティ・チームは最先端のハイブリッド・サイバー攻撃を迅速に検知、優先順位付け、調査、対応することができます。AI主導の検知に関する35件の特許と、MITRE D3FENDにおける最多のベンダーリファレンスにより、世界中の組織がハイブリッド攻撃者のスピードと規模に合わせて動くために、Vectra AIプラットフォームとMDRサービスを信頼しています。詳細については、<https://ja.vectra.ai/> をご参照ください。
Vectra AIのセキュリティ製品デモについては、<https://ja.vectra.ai/demo>からお申込みください。
Vectra AIではNDRの進化とVectra AIについてマンガを通してご紹介しています。<https://ja.vectra.ai/resources/infographics/jp-ndr-has-evolved-so-far-vectra-ai-explained-comic>
その他、Vectra AI Japanが配信しているSNSはこちらです。
X(旧Twitter): https://x.com/vectra_ai_jp
YouTube : https://www.youtube.com/@vectra-JP
[画像: https://prcdn.freetls.fastly.net/release_image/108014/31/108014-31-b1ffd6a624cfcca57b440f68bc1401e5-774x559.png?width=536&quality=85%2C75&format=jpeg&auto=webp&fit=bounds&bg-color=fff ]
ハイブリッドおよびマルチクラウド企業向けのAIによる拡張検知と対応ソリューション (NDRおよびXDR)を提供するVectra AI(本社:カリフォルニア州サンノゼ、CEO:ヒテッシュ・セス)は、このたび、企業の情報セキュリティ責任者がMicrosoftのAIアシスタント機能であるCopilotを利用する上での課題と解決策を発表しました。
米国で活動するコンピュータ・アーキテクチャーやクラウド・コンピューティングなどを専門とする研究者たちが、Microsoftが開発した人工知能(AI)アシスタント機能であるCopilotは、検索拡張生成(retrieval augmented generation、以下RAG)システム内のセキュリティの脆弱性につながることを明らかにしました。彼らが 「ConfusedPilot <https://confusedpilot.info/>」と名付けたこのプログラムは、Copilotが悪用されたAIに騙されてしまい、会社のシステムから機密データを漏洩してしまう可能性があると警鐘を鳴らしています。
Microsoft以外にも、生成AIを利用した他のAIアシスタント・プログラムは、セキュリティ侵害の深刻な増加につながっていますが、多くの組織はそれを防ぐための準備がほとんどできていません。実際、ガートナー社は、2025年までに生成AIの安全性を確保するために必要なサイバーセキュリティにかかわるのリソースが急増し、アプリケーションとデータのセキュリティに15%以上の支出が増加する<https://www.gartner.com/en/newsroom/press-releases/2024-03-19-gartner-forecasts-security-and-risk-management-spending-in-australia-to-grow-more-than-11-percent-in-2024#:~:text=Australian%20organizations%20will%20spend%20more,of%2026.9%25%20expected%20in%202024.>と予測しています。これは、AIアシスタント・プログラムの利用が自社のセキュリティ・インフラに与える影響を懸念するセキュリティ・リーダーからの声と一致しています。
Microsoftを含むAIアシスタント・プログラムを提供するベンダー各社は、ユーザーの懸念を和らげるよう取り組んでいますが、セキュリティ責任者は、自分の組織をサイバー攻撃から適切に保護するために、セキュリティ上の懸念を正確に理解する必要があります。
業務を変革する生成AIとAIアシスタントの台頭
生成AIを搭載したソリューションは、独立型および統合型を問わず、ワークフローの根本的な改善、カスタマーサポートの強化、チームの作業時間の短縮などを実現することで、様々な業務に変革をもたらしました。
調査会社のStatistaによると、アジア太平洋地域では、生成AIの市場規模<https://www.statista.com/outlook/tmo/artificial-intelligence/generative-ai/apac>は年間46.46%の成長率(2024-2030年)を示し、2030年までに867.7億米ドルの市場規模になると予想されています。この成長の背景にあるのは、生成AIが個人の好みを理解し、それに応えるバーチャルアシスタントやチャットボットなど、パーソナライズされた、効率的なデジタル体験に適しているという事実です。
ガートナー社が5月に発表した調査レポート<https://www.gartner.com/en/newsroom/press-releases/2024-05-07-gartner-survey-finds-generative-ai-is-now-the-most-frequently-deployed-ai-solution-in-organizations>によると、生成AIは組織で導入されているAIソリューションの中で最も重要なテクノロジーであると評価しています。MicrosoftのCopilot for 365やAdobe Fireflyのような既存のアプリケーションに生成AIを組み込むことは利用事例を創出する方法とのことです。この調査レポートによれば、回答者の34%は、従来使っているアプリケーションに組み込まれた生成AIを使用することは、カスタマイズされた生成AIモデルなどの他のオプションよりも一般的であると述べています。
ガートナー社のシニア・ディレクター・アナリストであるレイナー・ラモス(Leinar Ramos)氏は、生成AIソリューションの増加が、適切な使用に関する会話をどのように促進しているかについて、「生成AIはビジネス全体でAI導入の度合いを高め、AIに関するスキルアップやAIの統制方法といったトピックをより重要なものにしています。生成AIによって組織はAI活用の必要性を認識しなければならなくなりました」述べています。
Microsoft Copilotは、既存のプラットフォームを介して統合できる生成AIソリューションの主要な事例ですが、セキュリティ上の懸念を軽減するためにさらなる注意が必要です。複数のアナリストや統計学者が証言しているようにMicrosoft Copilotは組み込み型生成AIの先駆的なテクノロジーです。Microsoftは、「Microsoft Copilotは、AIを搭載したデジタルアシスタントであり、デバイス上のさまざまなタスクやアクティビティで人々を支援するように設計されています」と説明しています。
Copilotが原因のセキュリティ上の問題を理解し、適切に対応するには?
Copilotのような生成AIソリューションがもたらす様々な機能はとても魅力的です。一方でこのAIアシスタントがなぜセキュリティ上の重大な問題があるのかを理解することが極めて重要です。なぜならば、すでに数社の大手企業がセキュリティ侵害を経験し、その解決に取り組んでいるからです。生成AIによるセキュリティ侵害対策とは、生成AIがどのようなデータにアクセスできてしまうのかを理解し、いかにデータを守りアクセスを管理するかということです。
Microsoft Copilotや同様のツールの主な懸念は、ユーザーと同じ機密データにアクセスできることです。残念ながら、Copilotを使用している多くのユーザーは、過度に寛容なデータアクセスが、サイバー犯罪者が機密情報やシステムに侵入する可能性を大幅に高めることを十分に理解していません。企業のセキュリティ総責任者はこうした深刻な状況から、企業のデータを守る必要が高まっています。
もう1つの根本的な懸念は、Copilotがリクエストに基づいて大量の新しい機密データを迅速に生成し、本来は参照すべきでない正規のアクセスデータを参照できることです。例えば、Copilotは、将来の製品発売、企業再編、高度な業務に関するデータなど、質問者が許可を持っていない機密情報を使って、質問に対する回答を作成する可能性があります。
データの悪用に関する問題に対処する方法は存在します。例えば、MicrosoftはCopilotをトレーニングする目的で組織のデータを使用することはありません。データはMicrosoft 365のテナント内に残ります。企業はユーザーへのアクセスについてもより慎重になっているとはいえ、こうした対策はここまでで、Copilotで作成された文書や回答は、セキュリティポリシーや原則ではなく、主に知識の共有に準拠し続けます。
生成AIによるデータ悪用を防ぐための対処方法は?
生成AIの統合を成功させ、データ漏洩を引き起こさないためには、システムとプロセスをスタッフと業務の安全性とセキュリティに集中することです。覚えておくべき3つの重要なポイントは、以下の3つです。
- 生成AIは自社のみならずサイバー攻撃者にとっても戦力増強剤であると認識すること
- 攻撃への対応は客観的なデータに基づく迅速な行動が必要であること
- 正確に検知・対応を行い、攻撃を阻止すること
基本的かつ重要な第一歩として、Copilotを採用する前に、組織は非常に厳格かつ徹底的なアクセス制御の見直しに取り組み、誰がどのデータにアクセスできるかを決定しなければなりません。ゼロトラスト原則(NIST(National Institute of Standards and Technology:米国立標準技術研究所)が発行したレポートである「SP 800-207 Zero Trust Architecture(2nd Draft)」)などで示されているように、ベストプラクティスは多くの場合、ユーザーアクセスを最低限にすることを支持しています。
Copilotが企業システムに統合されると、企業はデータに「機密ラベル」を適用できるようになります。Microsoftは、データのガバナンス、管理、保護、セキュリティに役立つソリューションであるMicrosoft Purviewを通じて機密ラベルを適用することを推奨しています。セキュリティ担当者は機密データを暗号化するラベルを設定し、一般ユーザーがコンテンツをコピーと抽出できる権限「EXTRACT」を利用不可にします。「EXTRACT」権限の設定により、ユーザーが機密文書をコピーしたり、Copilotが文書を参照するのを無効にすることができます。
また、セキュリティ専門家がサイバー脅威を事前に把握できるように、不審なユーザーの行動を特定し、優先度の高いアラートを検知するための追加のセキュリティサービスや、専門家向けソリューションの導入を検討することも有効です。セキュリティ専門家は、これらの追加情報を活用して、例えば「ユーザー」(従業員を装ったハッカーボット)をアカウントからロックするなどの対応ができるようになります。また、高機能のツールを使用することで、セキュリティ・チームは誰がCopilotを使用しているのか、どのようなデータが活用されているのかを確認できるため、継続的にサイバー脅威の認知と対策準備が可能になります。
Vectra AIが発行した「2024 脅威検知の現状(2024 State of Threat Detection and Response Report)<https://www.vectra.ai/resources/2024-state-of-threat-detection>」によると、AIは、生成AIの統合だけでなく、すべてのワークフローを通じて、セキュリティ・チームが自社のデータ・セキュリティ機能の脆弱性を補うことができます。同レポートによると、ほぼすべてのSOC実務者(97%)がAIツールを導入しており、85%が過去1年間にAIへの投資額とAIの使用率が上がったと回答しています。さらに、SOCの実務担当者の89%は、従来のサイバー脅威の検知と対応ソリューションから、今後1年間でAIを搭載したツールに変更する可能性が高い、75%は過去1年間にAIによって作業負荷が軽減されたと回答しています。
セキュリティの専門家と提携することは、セキュリティ・チームが組織全体のセキュリティを理解し、生成AIツールを適切に採用する方法を知る上で大きな助けとなります。さらにサイバー脅威の検知と対応を強化するためにAI搭載のセキュリティ・ソリューションを活用することもできます。セキュリティの専門家は、Copilotによるデータ漏えいを減らす方法として、プロンプトと応答を監視して機密データが誤った方法で使用されていないことを確認し、異常な動作を監視するようにCopilotを設定することが可能です。
Vectra AIについて
Vectra AIは、AIによる拡張検知とレスポンス (NDRおよびXDR) のリーダーです。Vectra AI Platform<https://ja.vectra.ai/platform>は、パブリッククラウド、SaaS、アイデンティティ、データセンターのネットワークにわたる統合シグナルを単一のプラットフォームで提供します。Vectra AIの特許取得済みのAttack Signal Intelligence(TM) < https://ja.vectra.ai/products/attack-signal-intelligence>により、セキュリティ・チームは最先端のハイブリッド・サイバー攻撃を迅速に検知、優先順位付け、調査、対応することができます。AI主導の検知に関する35件の特許と、MITRE D3FENDにおける最多のベンダーリファレンスにより、世界中の組織がハイブリッド攻撃者のスピードと規模に合わせて動くために、Vectra AIプラットフォームとMDRサービスを信頼しています。詳細については、<https://ja.vectra.ai/> をご参照ください。
Vectra AIのセキュリティ製品デモについては、<https://ja.vectra.ai/demo>からお申込みください。
Vectra AIではNDRの進化とVectra AIについてマンガを通してご紹介しています。<https://ja.vectra.ai/resources/infographics/jp-ndr-has-evolved-so-far-vectra-ai-explained-comic>
その他、Vectra AI Japanが配信しているSNSはこちらです。
X(旧Twitter): https://x.com/vectra_ai_jp
YouTube : https://www.youtube.com/@vectra-JP