HubSpot - AI Studio|HubSpotと生成AIの技術特化メディア

生成AIの情報漏洩リスクと対策|安全な業務利用のためのセキュリティガイド | StartLink

作成者: 今枝 拓海|2026/03/05 12:00:00

生成AIの情報漏洩リスクは、入力経路(機密情報の送信)・学習経路(モデル改善への利用)・出力経路(プロンプトインジェクション)の3経路で発生します。IPA調査ではIT部門の68%がこれを最大のセキュリティ懸念としています。アクセス管理・データ分類と入力制御・DLP連携・プライベートデプロイ・教育と文化の5レイヤーで対策し、法人プランで学習利用を排除することが最低限の必須対応です。三菱商事はAzure OpenAI、リコーはAWS Bedrockで安全な環境を構築しています。

生成AIの業務活用が広がるにつれ、情報漏洩リスクへの懸念も高まっています。IPA(情報処理推進機構)の2024年調査では、企業のIT部門の68%が「生成AIからの情報漏洩」を最大のセキュリティ懸念として挙げています。

本記事では、生成AIの情報漏洩リスクの実態と、企業が講じるべき具体的なセキュリティ対策を解説します。

この記事でわかること

  • 情報漏洩リスクの全体像
  • 主要AIサービスのデータポリシー比較
  • セキュリティ対策:5つのレイヤー
  • 導入事例

AI活用は、もはや先進企業だけの取り組みではありません。本記事では、経営に直結するAI活用の考え方と実践手法をわかりやすく解説しています。自社での導入を検討されている方は、ぜひ最後までお読みください。

情報漏洩リスクの全体像

生成AIに関連する情報漏洩リスクは、主に3つの経路で発生します。

経路 リスク内容 具体例
入力経路 機密情報がAIサービスのサーバーに送信される ソースコード、顧客リスト、契約書の内容を入力
学習経路 入力データがAIの学習に使用され、他者の回答に反映 無料プランで入力した情報がモデル改善に利用
出力経路 AIの回答から他者が入力した情報が推測・復元される プロンプトインジェクション攻撃による情報抽出

主要AIサービスのデータポリシー比較

サービス 無料プランの学習利用 法人プランの学習利用 データ保持期間 SOC2認証
ChatGPT オプトアウト可能 学習に使用しない 30日 取得済み
Claude オプトアウト可能 学習に使用しない 30日 取得済み
Gemini 利用される場合あり 学習に使用しない 設定可能 取得済み
Copilot(M365) 学習に使用しない 学習に使用しない テナント内保持 取得済み

セキュリティ対策:5つのレイヤー

レイヤー1:アクセス管理

対策 内容
法人プランの一元管理 個人アカウントの利用を禁止し、法人プランで全社員のアクセスを管理
SSO/SAML連携 社内IDプロバイダとの連携で認証を一元化
ロールベース権限 部門・役職に応じたAI利用権限の設定
利用ログの取得 誰が・いつ・何を入力したかのログを記録

これらのアクセス管理を組織全体で運用するには、AI利用ガイドラインの策定が前提となります。

レイヤー2:データ分類と入力制御

社内データを機密レベルで分類し、AIへの入力可否を明確にします。

機密レベル データ例 AI入力
極秘 未公開の財務情報、M&A情報、個人番号 禁止
機密 顧客リスト、契約書、ソースコード 法人プラン+マスキング処理後に限定許可
社内限定 社内レポート、議事録、提案書ドラフト 法人プランで利用可
公開可能 プレスリリース、公開ブログ、製品パンフレット 制限なし

レイヤー3:DLP(Data Loss Prevention)連携

DLPツールを導入し、AIサービスへの機密データ送信を自動的にブロックまたは警告します。

DLPツール 特徴
Microsoft Purview Microsoft 365環境での統合DLP。Copilot連携
Nightfall AI AI特化のDLP。ChatGPT/Slack/GitHub対応
Netskope CASB+DLP。クラウドアプリのデータフロー制御
Zscaler ゼロトラストベースのDLP。AI利用の可視化

レイヤー4:プライベートデプロイ

特に機密性の高いデータを扱う場合は、AIモデルを自社環境(VPC、オンプレミス)にデプロイする選択肢も検討します。

デプロイ方式 特徴 コスト
Azure OpenAI Service Azureテナント内でGPT-4を利用。データは外部に出ない Azure利用料+API料金
AWS Bedrock AWS VPC内でClaude/Titan等を利用 AWS利用料+API料金
オンプレミスLLM Llama 3等のOSSモデルを自社サーバーで運用 GPU/サーバーコスト

レイヤー5:教育と文化

技術的な対策だけでは限界があります。全社員への定期的なセキュリティ研修が不可欠です。

  • 生成AIの仕組みとデータの流れの理解
  • 入力してはいけないデータの具体例
  • インシデント発生時の報告手順
  • 実際のインシデント事例の共有

導入事例

三菱商事

三菱商事は、社内の生成AI利用にAzure OpenAI Serviceを採用。自社のAzureテナント内でGPT-4を運用し、データが外部に一切流出しない体制を構築。さらにDLPと連携し、機密レベルの高いデータの入力を自動ブロックする仕組みを導入しています。

リコー

リコーは、全社で約4万人が利用する生成AI環境を構築。AWS Bedrock上でClaudeを運用し、入力データのログ記録・監査体制を整備。部門ごとに利用可能なAI機能を制御し、セキュリティとユーザビリティを両立しています。

CRMデータの保護とAI活用の両立

CRMに蓄積された顧客データは企業の最も価値ある情報資産です。CRMデータをAIで活用する際は、CRMのアクセス権限設計に合わせてAIの参照範囲を制御し、個人情報のマスキング処理を適用するなど、データ保護とAI活用を両立させる設計が求められます。こうした取り組みは責任あるAIの実践とも密接に結びついています。

AI CRMで実現する生成AIの情報漏洩リスクと対策

生成AIの情報漏洩リスクと対策を実務に落とし込むには、CRMツールの活用が不可欠です。詳しくは「生成AIとCRMの連携活用ガイド|ChatGPT・Claude等のAIでCRM業務を効率化する方法」で解説しています。

あわせて読みたい

あわせて読みたい

まとめ

  • 情報漏洩リスクは入力経路・学習経路・出力経路の3つのパターンで発生する
  • 法人プランで学習利用を排除することが最低限の必須対応
  • データを4段階(極秘・機密・社内限定・公開可能)に分類し、AI入力の可否を明確化
  • DLPツール(Nightfall AI・Netskope等)でAIサービスへの機密データ送信を自動ブロック
  • 特に機密性の高いデータはAzure OpenAI/AWS Bedrockでプライベートデプロイ

よくある質問(FAQ)

Q1. 生成AIの業務利用で最も多い情報漏洩パターンは何ですか?

社員がAIに機密情報や個人データを直接入力してしまうケース(プロンプトインジェクション経由ではなく、人的ミス)が最も多いです。入力禁止データの明確な定義と、DLP(データ損失防止)ツールの導入が基本対策です。

Q2. 法人向けAIサービスなら入力データは安全ですか?

ChatGPT EnterpriseやClaude for Businessなどの法人向けプランでは、入力データが学習に使用されないことが契約で保証されています。ただし、従業員が個人アカウントで無料版を利用する「Shadow AI」のリスクは残るため、利用サービスの統制も重要です。

Q3. 情報漏洩リスクを最小化しつつAIを活用するにはどうすべきですか?

法人向けAIサービスの利用、入力データのマスキング・匿名化ルールの策定、利用ログの監査体制の構築の3点が基本です。CRMのデータをAIに渡す場合は、APIベースの連携(MCP等)を利用し、ブラウザ経由の手動入力を避けることでリスクを大幅に低減できます。

AI活用やCRM連携について詳しく知りたい方は、150社以上のCRM導入支援実績を持つ株式会社StartLinkにお気軽にご相談ください。

カテゴリナビゲーション: