生成AIの情報漏洩リスクと対策|安全な業務利用のためのセキュリティガイド

  • 1970年1月1日

ブログ目次



title: "生成AIの情報漏洩リスクと対策|安全な業務利用のためのセキュリティガイド"

slug: "hubspot-ai/ai-governance/ai-data-security-guide"

metaDescription: "生成AIの情報漏洩リスクと企業が取るべきセキュリティ対策を解説。法人プランの選び方、DLP連携、データ分類ルール、安全な業務利用体制の構築方法を紹介します。"

featuredImage: "https://www.start-link.jp/hubfs/blog-featured-images/ai.webp"

blogAuthorId: "166212808307"

contentGroupId: "166203508570"

keywords: ["AI 情報漏洩", "生成AI セキュリティ", "AI データ保護"]

category: "BF_ai-governance"


生成AIの業務活用が広がるにつれ、情報漏洩リスクへの懸念も高まっています。IPA(情報処理推進機構)の2024年調査では、企業のIT部門の68%が「生成AIからの情報漏洩」を最大のセキュリティ懸念として挙げています。

本記事では、生成AIの情報漏洩リスクの実態と、企業が講じるべき具体的なセキュリティ対策を解説します。

情報漏洩リスクの全体像

生成AIに関連する情報漏洩リスクは、主に3つの経路で発生します。

経路 リスク内容 具体例
入力経路 機密情報がAIサービスのサーバーに送信される ソースコード、顧客リスト、契約書の内容を入力
学習経路 入力データがAIの学習に使用され、他者の回答に反映 無料プランで入力した情報がモデル改善に利用
出力経路 AIの回答から他者が入力した情報が推測・復元される プロンプトインジェクション攻撃による情報抽出

主要AIサービスのデータポリシー比較

サービス 無料プランの学習利用 法人プランの学習利用 データ保持期間 SOC2認証
ChatGPT オプトアウト可能 学習に使用しない 30日 取得済み
Claude オプトアウト可能 学習に使用しない 30日 取得済み
Gemini 利用される場合あり 学習に使用しない 設定可能 取得済み
Copilot(M365) 学習に使用しない 学習に使用しない テナント内保持 取得済み

セキュリティ対策:5つのレイヤー

レイヤー1:アクセス管理

対策 内容
法人プランの一元管理 個人アカウントの利用を禁止し、法人プランで全社員のアクセスを管理
SSO/SAML連携 社内IDプロバイダとの連携で認証を一元化
ロールベース権限 部門・役職に応じたAI利用権限の設定
利用ログの取得 誰が・いつ・何を入力したかのログを記録

レイヤー2:データ分類と入力制御

社内データを機密レベルで分類し、AIへの入力可否を明確にします。

機密レベル データ例 AI入力
極秘 未公開の財務情報、M&A情報、個人番号 禁止
機密 顧客リスト、契約書、ソースコード 法人プラン+マスキング処理後に限定許可
社内限定 社内レポート、議事録、提案書ドラフト 法人プランで利用可
公開可能 プレスリリース、公開ブログ、製品パンフレット 制限なし

レイヤー3:DLP(Data Loss Prevention)連携

DLPツールを導入し、AIサービスへの機密データ送信を自動的にブロックまたは警告します。

DLPツール 特徴
Microsoft Purview Microsoft 365環境での統合DLP。Copilot連携
Nightfall AI AI特化のDLP。ChatGPT/Slack/GitHub対応
Netskope CASB+DLP。クラウドアプリのデータフロー制御
Zscaler ゼロトラストベースのDLP。AI利用の可視化

レイヤー4:プライベートデプロイ

特に機密性の高いデータを扱う場合は、AIモデルを自社環境(VPC、オンプレミス)にデプロイする選択肢も検討します。

デプロイ方式 特徴 コスト
Azure OpenAI Service Azureテナント内でGPT-4を利用。データは外部に出ない Azure利用料+API料金
AWS Bedrock AWS VPC内でClaude/Titan等を利用 AWS利用料+API料金
オンプレミスLLM Llama 3等のOSSモデルを自社サーバーで運用 GPU/サーバーコスト

レイヤー5:教育と文化

技術的な対策だけでは限界があります。全社員への定期的なセキュリティ研修が不可欠です。

  • 生成AIの仕組みとデータの流れの理解
  • 入力してはいけないデータの具体例
  • インシデント発生時の報告手順
  • 実際のインシデント事例の共有

導入事例

三菱商事

三菱商事は、社内の生成AI利用にAzure OpenAI Serviceを採用。自社のAzureテナント内でGPT-4を運用し、データが外部に一切流出しない体制を構築。さらにDLPと連携し、機密レベルの高いデータの入力を自動ブロックする仕組みを導入しています。

リコー

リコーは、全社で約4万人が利用する生成AI環境を構築。AWS Bedrock上でClaudeを運用し、入力データのログ記録・監査体制を整備。部門ごとに利用可能なAI機能を制御し、セキュリティとユーザビリティを両立しています。

CRMデータの保護とAI活用の両立

CRMに蓄積された顧客データは企業の最も価値ある情報資産です。CRMデータをAIで活用する際は、CRMのアクセス権限設計に合わせてAIの参照範囲を制御し、個人情報のマスキング処理を適用するなど、データ保護とAI活用を両立させる設計が求められます。


株式会社StartLinkは、事業推進に関わる「販売促進」「DXによる業務効率化(ERP/CRM/SFA/MAの導入)」などのご相談を受け付けております。 サービスのプランについてのご相談/お見積もり依頼や、ノウハウのお問い合わせについては、無料のお問い合わせページより、お気軽にご連絡くださいませ。

関連キーワード:

サービス資料を無料DL

著者情報

7-1

今枝 拓海 / Takumi Imaeda

株式会社StartLinkの代表取締役。
HubSpotのトップパートナーである株式会社H&Kにて、HubSpotのCRM戦略/設計/構築を軸として、 国内・外資系エンタープライズ企業へコンサルティング支援を実施。 パーソルホールティングス株式会社にて、大規模CRM/SFA戦略の策定・PERSOLグループ横断のグループAI戦略/企画/開発ディレクションの業務を遂行経験あり。
株式会社StartLinkでは、累計100社以上のHubSpotプロジェクト実績を元にHubSpot×AIを軸にした経営基盤DXのコンサルティング事業を展開。