——「このCSVから先月の売上トレンドを分析して、グラフ付きのレポートにまとめて」。こう指示するだけで、Pythonスクリプトの生成、データの読み込み、分析の実行、グラフの生成、レポートの出力まで一気に完了する——これがClaude Codeによるデータ分析の世界です。AI活用完全ガイドで、AI活用の全体像を把握できます。
従来のデータ分析は、Excelでのデータ整形、Pythonでのスクリプト作成、Jupyterでの試行錯誤、PowerPointでのレポート作成と、複数のツールを行き来する必要がありました。Claude Codeを使えば、ターミナル上の自然言語指示ひとつで、このプロセス全体を自動化できます。詳しくは「Claude Codeでチーム開発を効率化する方法」で解説しています。
本記事では、CSV/JSON/APIデータの分析を自動化するための実践的なワークフローを、具体的なユースケース(経営ダッシュボード、GA4分析、GSCデータ分析)とともに解説します。詳しくは「Claude Codeの企業導入セキュリティガイド」で解説しています。
関連する記事の一覧はClaude Code実践ガイドをご覧ください。
Claude Codeは「コードを生成するAI」ではなく、「コードを生成し、実行し、結果を解釈するAI」です。この違いがデータ分析において決定的に重要です。詳しくは「Claude Code × CI/CD」で解説しています。
| アプローチ | ツール | ワークフロー | 制約 |
|---|---|---|---|
| ChatGPT + Code Interpreter | ChatGPT Plus | ファイルアップロード → 分析 → DL | ファイルサイズ制限、環境制約 |
| Jupyter + Copilot | GitHub Copilot | セル単位でコード補完 | 手動でセル実行が必要 |
| Claude Code | ターミナル | 自然言語指示 → 全自動実行 | ローカル環境が前提 |
| BI ツール | Tableau / Power BI | GUIで可視化設定 | カスタム分析には不向き |
Claude Codeの最大の強みはローカルファイルシステムに直接アクセスできることです。数GBのCSVファイルも、社内サーバーのAPIも、ローカル環境から直接処理できます。ChatGPTのCode Interpreterでは「ファイルをアップロードする」というステップが必要ですが、Claude Codeならファイルパスを伝えるだけです。
まず、Claude Codeにデータの全体像を理解させます。
このCSVファイルを読んで、カラム一覧・データ型・行数・欠損値の状況を教えてください。
/data/sales_2025.csv
Claude Codeは自動的にPythonスクリプト(pandas使用)を生成・実行し、データのプロファイリング結果を返します。
データの全体像を把握したら、分析を指示します。
以下の分析を実行してください:
1. 月別の売上推移
2. 商品カテゴリ別の売上構成比
3. 前年同月比の増減
4. 売上上位10商品とその推移
結果はCSVファイルとして /output/ に出力してください。
ここが結構ミソなのですが、Claude Codeは1回の指示で複数のPythonスクリプトを生成・実行できるため、上記4つの分析が1回のやり取りで完了します。途中でエラーが出ても、自動的にデバッグして再実行してくれます。
先ほどの分析結果をmatplotlibで可視化してください。
- 月別売上推移: 棒グラフ + 前年比の折れ線(2軸)
- カテゴリ別構成比: ドーナツチャート
- 上位10商品: 横棒グラフ
グラフは日本語フォント(Noto Sans JP)を使用し、
/output/charts/ に保存してください。
Claude Codeは、ローカルにインストールされているフォントを自動検出して適切なフォント設定を行います。日本語の文字化けが発生した場合も、自動的に修正スクリプトを生成してくれます。
分析結果とグラフを使って、月次レポート(Markdown形式)を生成してください。
- エグゼクティブサマリー(3行)
- 主要KPIの前月比
- グラフの埋め込み
- 推奨アクション(データに基づく提案)
Google Analytics 4のデータをClaude Codeで分析する実践パターンです。
GA4からのデータ取得には、BigQueryエクスポートまたはGA4 APIを使用します。
GA4からエクスポートしたBigQueryのCSVデータを分析してください。
ファイル: /data/ga4_events_202603.csv
以下の分析をお願いします:
1. ページ別のPV数とセッション数
2. 流入元(source/medium)別のコンバージョン率
3. ランディングページ別の直帰率
4. デバイス別のユーザー行動比較
GA4データの分析でClaude Codeが特に有効なのは、複数の指標を組み合わせたクロス分析です。
| 分析パターン | GA4の指標組み合わせ | ビジネスインサイト |
|---|---|---|
| 流入元×コンバージョン | source/medium × conversions | 費用対効果の高いチャネル特定 |
| ページ×滞在時間 | page_path × engagement_time | コンテンツ品質の評価 |
| デバイス×離脱率 | device_category × bounce_rate | UX改善の優先順位 |
| 時間帯×PV | hour × page_views | コンテンツ配信最適タイミング |
GSC(Google Search Console)のパフォーマンスデータを分析し、SEO戦略に活かすパターンです。
GSCからエクスポートしたCSVを分析してください。
ファイル: /data/gsc_performance_90days.csv
分析項目:
1. 検索クエリ別のCTR(クリック率)とポジション
2. CTRが低い(< 3%)がポジション10位以内のキーワード(改善余地あり)
3. ポジションが上昇傾向のキーワード(直近30日 vs 前30日)
4. カニバリゼーション検出(同一クエリで複数ページが表示されているケース)
このようなGSC分析は、AIを活用した生産性測定の文脈でも重要です。コンテンツマーケティングのROIを定量的に測定するために、検索パフォーマンスデータの分析は欠かせません。
HubSpotなどのCRMからエクスポートしたデータを分析するパターンです。
HubSpotからエクスポートした商談データを分析してください。
ファイル: /data/hubspot_deals_export.csv
分析項目:
1. パイプラインステージ別の商談数と金額
2. 平均商談期間(ステージ別のリードタイム)
3. 受注率の推移(月別)
4. 商談金額の分布(ヒストグラム)
5. 失注理由の分類と頻度
Claude CodeはMCP(Model Context Protocol)を使って、APIから直接データを取得することもできます。CSVエクスポートの手間を省き、常に最新のデータで分析を実行できます。
HubSpot MCPを使って、直近90日間の商談データを取得し、
受注率のファネル分析を実行してください。
出典: HubSpot API ドキュメント: CRM API
実務では、1つのデータソースだけで分析が完結することは稀です。複数のデータソースを組み合わせた統合分析こそ、Claude Codeの真価が発揮される場面です。
以下の3つのデータソースを統合して、チャネル別のマーケティングROIを分析してください。
1. GA4データ(/data/ga4_channels.csv): チャネル別のセッション・CV数
2. 広告費データ(/data/ad_spend.csv): Google Ads・Facebook Adsの月別費用
3. CRMデータ(/data/hubspot_revenue.csv): チャネル別の受注金額
統合キー: utm_source + utm_medium
出力:
- チャネル別のCAC(顧客獲得コスト)
- チャネル別のROAS(広告費用対効果)
- 投資配分の最適化提案
Claude Codeは、データの結合ロジック(join条件)を自動的に推定し、Pythonスクリプトを生成して実行します。結合でデータの不整合が発生した場合も、自動的に問題箇所を報告して修正を提案してくれます。
頻繁に行う分析は、カスタムコマンドとしてテンプレート化すると効率的です。
例: .claude/commands/monthly-report.md
以下のデータを使って月次レポートを生成してください。
## データソース
- 売上データ: /data/sales_latest.csv
- 広告費: /data/ad_spend_latest.csv
- Webトラフィック: /data/ga4_latest.csv
## 分析項目
1. 売上の前月比・前年比
2. チャネル別のROI
3. トップ10キーワードのパフォーマンス
4. 来月の予測(直近6ヶ月のトレンドベース)
## 出力
- Markdownレポート → /output/monthly_report_YYYYMM.md
- グラフ → /output/charts/
- サマリーCSV → /output/summary_YYYYMM.csv
今枝(StartLink代表)の経験として、データ分析の自動化で最も効果が高いのは「レポートの型」を固定することです。分析内容は毎月変わっても、出力フォーマットが一定であれば、経営層のレポート消費効率が格段に上がります。
| エラー | 原因 | Claude Codeの自動対処 |
|---|---|---|
| UnicodeDecodeError | CSV文字コード(Shift_JIS等) | エンコーディング自動検出・変換 |
| KeyError | カラム名の不一致 | 類似カラム名の提案 |
| ValueError | データ型の不整合 | 型変換スクリプトの生成 |
| MemoryError | データが大きすぎる | チャンク処理への自動切り替え |
| 日本語文字化け | matplotlibフォント設定 | 日本語フォント自動設定 |
分析の前に、データ品質のチェックを自動的に実行させることを推奨します。
データの品質チェックを実行してから分析に進んでください。
チェック項目:
- 欠損値の割合(5%以上のカラムは報告)
- 外れ値の検出(IQR法)
- 重複行の検出
- 日付カラムのフォーマット整合性
StartLinkでは、HubSpot CRMのデータを最大限に活用するためのデータ分析基盤の構築を支援しています。
CRMに蓄積されたデータを経営判断に活かしきれていない企業の方は、お気軽にご相談ください。
はい、Claude Codeが自動的にPythonスクリプトを生成・実行するため、Python自体の知識は必須ではありません。「このCSVから月別の売上推移をグラフにして」のように自然言語で指示するだけで、分析が完了します。ただし、Pythonの基礎知識があると、Claude Codeが生成したスクリプトの妥当性を検証できるため、分析結果の信頼性が向上します。
ローカル環境のメモリに依存しますが、一般的なPC(16GB RAM)であれば数百MBのCSVは処理可能です。Claude Codeはデータサイズが大きい場合、自動的にチャンク処理(分割読み込み)を提案してくれます。それでも処理が困難な場合は、BigQueryやDuckDBなどを併用する方法をClaude Codeに相談してください。
はい、可能です。Claude Codeにopenpyxlライブラリを使ったExcel出力を指示すれば、フォーマット済みのExcelファイルを生成できます。Google スプレッドシートへの出力は、Google Sheets APIを使うか、CSV出力してからインポートする方法が一般的です。
用途によって使い分けます。定期的な分析にはAPI直接取得が効率的です(データエクスポートの手間が省ける)。一方、アドホックな分析や、APIアクセスが制限されている場合はCSVエクスポートが適しています。MCP対応のAPIであれば、Claude Codeから直接データ取得できるため、最も効率的です。
経験上、最もROIが高いのは「月次レポートの自動生成」です。毎月同じフォーマットで作成するレポートは、一度パイプラインを構築すれば、以降は毎月数分で完了します。次にROIが高いのは「データクレンジング」で、手作業では数時間かかるデータの整形・統合・検証を、Claude Codeなら数分で処理できます。