HubSpot - AI Studio|HubSpotと生成AIの技術特化メディア

Claude Codeでデータ分析を自動化する|CSV・JSON・APIデータの一気通貫ワークフロー

作成者: 今枝 拓海|2026/03/14 3:34:56

——「このCSVから先月の売上トレンドを分析して、グラフ付きのレポートにまとめて」。こう指示するだけで、Pythonスクリプトの生成、データの読み込み、分析の実行、グラフの生成、レポートの出力まで一気に完了する——これがClaude Codeによるデータ分析の世界です。AI活用完全ガイドで、AI活用の全体像を把握できます。

従来のデータ分析は、Excelでのデータ整形、Pythonでのスクリプト作成、Jupyterでの試行錯誤、PowerPointでのレポート作成と、複数のツールを行き来する必要がありました。Claude Codeを使えば、ターミナル上の自然言語指示ひとつで、このプロセス全体を自動化できます。詳しくは「Claude Codeでチーム開発を効率化する方法」で解説しています。

本記事では、CSV/JSON/APIデータの分析を自動化するための実践的なワークフローを、具体的なユースケース(経営ダッシュボード、GA4分析、GSCデータ分析)とともに解説します。詳しくは「Claude Codeの企業導入セキュリティガイド」で解説しています。

関連する記事の一覧はClaude Code実践ガイドをご覧ください。

この記事でわかること

  • Claude CodeでCSV/JSONデータを分析する基本ワークフロー(読み込み→分析→可視化→レポート)
  • GA4、Google Search Console、CRMデータなど実務データの分析自動化パターン
  • APIからのデータ取得→加工→分析を一気通貫で実行する方法と、その限界

Claude Codeがデータ分析に向いている理由

Claude Codeは「コードを生成するAI」ではなく、「コードを生成し、実行し、結果を解釈するAI」です。この違いがデータ分析において決定的に重要です。詳しくは「Claude Code × CI/CD」で解説しています。

従来のAIデータ分析との比較

アプローチ ツール ワークフロー 制約
ChatGPT + Code Interpreter ChatGPT Plus ファイルアップロード → 分析 → DL ファイルサイズ制限、環境制約
Jupyter + Copilot GitHub Copilot セル単位でコード補完 手動でセル実行が必要
Claude Code ターミナル 自然言語指示 → 全自動実行 ローカル環境が前提
BI ツール Tableau / Power BI GUIで可視化設定 カスタム分析には不向き

Claude Codeの最大の強みはローカルファイルシステムに直接アクセスできることです。数GBのCSVファイルも、社内サーバーのAPIも、ローカル環境から直接処理できます。ChatGPTのCode Interpreterでは「ファイルをアップロードする」というステップが必要ですが、Claude Codeならファイルパスを伝えるだけです。

基本ワークフロー: CSV分析の一気通貫

ステップ1: データの把握

まず、Claude Codeにデータの全体像を理解させます。

このCSVファイルを読んで、カラム一覧・データ型・行数・欠損値の状況を教えてください。
/data/sales_2025.csv

Claude Codeは自動的にPythonスクリプト(pandas使用)を生成・実行し、データのプロファイリング結果を返します。

ステップ2: 分析の実行

データの全体像を把握したら、分析を指示します。

以下の分析を実行してください:
1. 月別の売上推移
2. 商品カテゴリ別の売上構成比
3. 前年同月比の増減
4. 売上上位10商品とその推移

結果はCSVファイルとして /output/ に出力してください。

ここが結構ミソなのですが、Claude Codeは1回の指示で複数のPythonスクリプトを生成・実行できるため、上記4つの分析が1回のやり取りで完了します。途中でエラーが出ても、自動的にデバッグして再実行してくれます。

ステップ3: 可視化

先ほどの分析結果をmatplotlibで可視化してください。
- 月別売上推移: 棒グラフ + 前年比の折れ線(2軸)
- カテゴリ別構成比: ドーナツチャート
- 上位10商品: 横棒グラフ

グラフは日本語フォント(Noto Sans JP)を使用し、
/output/charts/ に保存してください。

Claude Codeは、ローカルにインストールされているフォントを自動検出して適切なフォント設定を行います。日本語の文字化けが発生した場合も、自動的に修正スクリプトを生成してくれます。

ステップ4: レポート生成

分析結果とグラフを使って、月次レポート(Markdown形式)を生成してください。
- エグゼクティブサマリー(3行)
- 主要KPIの前月比
- グラフの埋め込み
- 推奨アクション(データに基づく提案)

実践ユースケース1: GA4データ分析

Google Analytics 4のデータをClaude Codeで分析する実践パターンです。

データ取得

GA4からのデータ取得には、BigQueryエクスポートまたはGA4 APIを使用します。

GA4からエクスポートしたBigQueryのCSVデータを分析してください。
ファイル: /data/ga4_events_202603.csv

以下の分析をお願いします:
1. ページ別のPV数とセッション数
2. 流入元(source/medium)別のコンバージョン率
3. ランディングページ別の直帰率
4. デバイス別のユーザー行動比較

分析のポイント

GA4データの分析でClaude Codeが特に有効なのは、複数の指標を組み合わせたクロス分析です。

分析パターン GA4の指標組み合わせ ビジネスインサイト
流入元×コンバージョン source/medium × conversions 費用対効果の高いチャネル特定
ページ×滞在時間 page_path × engagement_time コンテンツ品質の評価
デバイス×離脱率 device_category × bounce_rate UX改善の優先順位
時間帯×PV hour × page_views コンテンツ配信最適タイミング

実践ユースケース2: Google Search Console分析

GSC(Google Search Console)のパフォーマンスデータを分析し、SEO戦略に活かすパターンです。

GSCからエクスポートしたCSVを分析してください。
ファイル: /data/gsc_performance_90days.csv

分析項目:
1. 検索クエリ別のCTR(クリック率)とポジション
2. CTRが低い(< 3%)がポジション10位以内のキーワード(改善余地あり)
3. ポジションが上昇傾向のキーワード(直近30日 vs 前30日)
4. カニバリゼーション検出(同一クエリで複数ページが表示されているケース)

このようなGSC分析は、AIを活用した生産性測定の文脈でも重要です。コンテンツマーケティングのROIを定量的に測定するために、検索パフォーマンスデータの分析は欠かせません。

実践ユースケース3: CRMデータ分析

HubSpotなどのCRMからエクスポートしたデータを分析するパターンです。

HubSpotからエクスポートした商談データを分析してください。
ファイル: /data/hubspot_deals_export.csv

分析項目:
1. パイプラインステージ別の商談数と金額
2. 平均商談期間(ステージ別のリードタイム)
3. 受注率の推移(月別)
4. 商談金額の分布(ヒストグラム)
5. 失注理由の分類と頻度

MCP連携による直接データ取得

Claude CodeはMCP(Model Context Protocol)を使って、APIから直接データを取得することもできます。CSVエクスポートの手間を省き、常に最新のデータで分析を実行できます。

HubSpot MCPを使って、直近90日間の商談データを取得し、
受注率のファネル分析を実行してください。

出典: HubSpot API ドキュメント: CRM API

高度なパターン: 複数データソースの統合分析

実務では、1つのデータソースだけで分析が完結することは稀です。複数のデータソースを組み合わせた統合分析こそ、Claude Codeの真価が発揮される場面です。

パターン例: マーケティングROI分析

以下の3つのデータソースを統合して、チャネル別のマーケティングROIを分析してください。

1. GA4データ(/data/ga4_channels.csv): チャネル別のセッション・CV数
2. 広告費データ(/data/ad_spend.csv): Google Ads・Facebook Adsの月別費用
3. CRMデータ(/data/hubspot_revenue.csv): チャネル別の受注金額

統合キー: utm_source + utm_medium

出力:
- チャネル別のCAC(顧客獲得コスト)
- チャネル別のROAS(広告費用対効果)
- 投資配分の最適化提案

Claude Codeは、データの結合ロジック(join条件)を自動的に推定し、Pythonスクリプトを生成して実行します。結合でデータの不整合が発生した場合も、自動的に問題箇所を報告して修正を提案してくれます。

分析パイプラインのテンプレート化

頻繁に行う分析は、カスタムコマンドとしてテンプレート化すると効率的です。

例: .claude/commands/monthly-report.md

以下のデータを使って月次レポートを生成してください。

## データソース
- 売上データ: /data/sales_latest.csv
- 広告費: /data/ad_spend_latest.csv
- Webトラフィック: /data/ga4_latest.csv

## 分析項目
1. 売上の前月比・前年比
2. チャネル別のROI
3. トップ10キーワードのパフォーマンス
4. 来月の予測(直近6ヶ月のトレンドベース)

## 出力
- Markdownレポート → /output/monthly_report_YYYYMM.md
- グラフ → /output/charts/
- サマリーCSV → /output/summary_YYYYMM.csv

今枝(StartLink代表)の経験として、データ分析の自動化で最も効果が高いのは「レポートの型」を固定することです。分析内容は毎月変わっても、出力フォーマットが一定であれば、経営層のレポート消費効率が格段に上がります。

エラーハンドリングとデータ品質

よくあるエラーとClaude Codeの対処

エラー 原因 Claude Codeの自動対処
UnicodeDecodeError CSV文字コード(Shift_JIS等) エンコーディング自動検出・変換
KeyError カラム名の不一致 類似カラム名の提案
ValueError データ型の不整合 型変換スクリプトの生成
MemoryError データが大きすぎる チャンク処理への自動切り替え
日本語文字化け matplotlibフォント設定 日本語フォント自動設定

データ品質チェックの自動化

分析の前に、データ品質のチェックを自動的に実行させることを推奨します。

データの品質チェックを実行してから分析に進んでください。
チェック項目:
- 欠損値の割合(5%以上のカラムは報告)
- 外れ値の検出(IQR法)
- 重複行の検出
- 日付カラムのフォーマット整合性

正直な限界と注意点

Claude Codeでのデータ分析が向かないケース

  • リアルタイム処理: Claude Codeはバッチ処理向けです。リアルタイムのストリーミングデータ分析には向きません
  • 超大規模データ: 数十GB以上のデータは、ローカル環境のメモリ制約から処理が困難です。BigQueryやSnowflakeなどのクラウドDWHを併用してください
  • インタラクティブな探索的分析: 仮説を立てながら試行錯誤する探索的分析は、Jupyter Notebookの方が適しています。Claude Codeは「分析方針が決まっている定型分析」に最適です
  • 統計的な厳密性: Claude Codeが生成する統計分析は実用的ですが、学術論文レベルの厳密性を求める場合は、統計専門家によるレビューが必要です

セキュリティの考慮

  • 分析データにPII(個人識別情報)が含まれる場合、Claude Code(APIプラン)ではデータがAnthropicに送信されます。Claude MAX プランや、APIの0日保持ポリシーを利用してください
  • 社内の機密データを分析する場合は、組織のデータ取り扱いポリシーを必ず確認してください

出典: Anthropic API データポリシー

StartLinkのデータ分析・CRM活用支援

StartLinkでは、HubSpot CRMのデータを最大限に活用するためのデータ分析基盤の構築を支援しています。

  • HubSpotの商談データ・マーケティングデータの分析ダッシュボード設計
  • GA4 / GSC / 広告データとCRMデータの統合分析
  • Claude Codeを活用した定型レポートの自動化

CRMに蓄積されたデータを経営判断に活かしきれていない企業の方は、お気軽にご相談ください。

よくある質問(FAQ)

Q1. Pythonの知識がなくてもClaude Codeでデータ分析できますか?

はい、Claude Codeが自動的にPythonスクリプトを生成・実行するため、Python自体の知識は必須ではありません。「このCSVから月別の売上推移をグラフにして」のように自然言語で指示するだけで、分析が完了します。ただし、Pythonの基礎知識があると、Claude Codeが生成したスクリプトの妥当性を検証できるため、分析結果の信頼性が向上します。

Q2. 大きなCSVファイル(100MB以上)でも処理できますか?

ローカル環境のメモリに依存しますが、一般的なPC(16GB RAM)であれば数百MBのCSVは処理可能です。Claude Codeはデータサイズが大きい場合、自動的にチャンク処理(分割読み込み)を提案してくれます。それでも処理が困難な場合は、BigQueryやDuckDBなどを併用する方法をClaude Codeに相談してください。

Q3. 分析結果をExcelやGoogleスプレッドシートに出力できますか?

はい、可能です。Claude Codeにopenpyxlライブラリを使ったExcel出力を指示すれば、フォーマット済みのExcelファイルを生成できます。Google スプレッドシートへの出力は、Google Sheets APIを使うか、CSV出力してからインポートする方法が一般的です。

Q4. APIからのデータ取得とCSV分析、どちらが良いですか?

用途によって使い分けます。定期的な分析にはAPI直接取得が効率的です(データエクスポートの手間が省ける)。一方、アドホックな分析や、APIアクセスが制限されている場合はCSVエクスポートが適しています。MCP対応のAPIであれば、Claude Codeから直接データ取得できるため、最も効率的です。

Q5. データ分析の自動化で最もROIが高い業務は何ですか?

経験上、最もROIが高いのは「月次レポートの自動生成」です。毎月同じフォーマットで作成するレポートは、一度パイプラインを構築すれば、以降は毎月数分で完了します。次にROIが高いのは「データクレンジング」で、手作業では数時間かかるデータの整形・統合・検証を、Claude Codeなら数分で処理できます。