近年、生成 AI の業務活用は急速に広がっています。一方で、組織として把握・管理できていない生成 AI の利用、いわゆる「Shadow AI」が新たなリスクとして注目されています。
従業員が個人判断で生成 AI サービスを利用した結果、機密情報や業務データが意図せず外部に送信されてしまうケースも少なくありません。AI 活用の推進と情報保護をどのように両立するかは、多くの企業に共通する課題となっています。
すでに Netskope をご利用いただいている環境では、こうしたShadow AI の可視化とリスク把握を行うための基盤が整っています。Netskope の App Catalog(旧 Cloud Confidence Index)では、生成 AI を含むクラウドアプリケーションを識別し、それぞれのアプリが持つリスク情報や特性を確認することが可能です。これにより、組織内で実際に利用されている生成 AI の種類や利用状況を把握し、業務で利用を許可すべきサービスと、注意が必要なサービスを整理することができます。
さらに Netskope では、可視化した情報をもとにポリシーを適用することで、生成 AI へのアクセスや送信操作に対する制御も行えます。一律に生成 AI を禁止するのではなく、業務上必要な利用は許可しつつ、リスクの高い操作やサービスに対してのみ制御をかけるといった運用も可能です。これにより、現場の利便性を損なうことなく、情報漏洩や意図しないデータ共有のリスクを低減できます。
また、Netskope の App Catalog には、1,500を超える生成 AI アプリが登録されており(※2025年時点)、日々増え続ける生成 AI サービスにも継続的に対応しています。これにより、特定の有名な生成 AI サービスだけでなく、従業員が個別に利用している小規模・新興の生成 AI も含めて把握することができます。
このような網羅的なアプリ識別を前提とすることで、組織内で実際に利用されている生成 AI の種類や利用状況を把握し、業務で利用を許可すべきサービスと、注意が必要なサービスを整理することが可能になります。
生成 AI の活用は今後さらに拡大していくことが予想されます。重要なのは、「使わせない」ことではなく、「把握し、適切にコントロールする」ことです。Netskope の機能を活用いただくことで、生成 AI 活用が進む移行期においても、安心して業務を継続できる環境づくりが可能です。
備考:本稿の内容は公開日時時点の情報に基づきます。