GCP

GCP無料トライアルで0円から始めるデータ分析環境構築ガイド

ⓘ本ページはプロモーションが含まれています

お得なお知らせ

スポンサードリンク
1ヶ月で資格+現場入り

インフラエンジニアへの最短ルート

未経験でもAWS・Linux・ネットワーク資格を最短で取り、現場入りまでサポート。SREやクラウドエンジニアの入口。

CODE×CODEスピード転職|無料面談▶ SRE/クラウドのフリーランス案件▶

▶ AWS/GCP/Kubernetesの独学には Kindle Unlimited の技術書読み放題がコスパ最強。


Contents

スポンサードリンク

1. Google アカウントだけで始める GCP 無料トライアル

手順 内容
https://console.cloud.google.com/getting-started にアクセスし「Get started for free」をクリック
画面の指示に従い、氏名・住所・電話番号を入力。課金確認用として クレジットカード情報(またはデビットカード) を登録します
無料トライアル開始」ボタンを押すと、$300 相当の クレジット自動で付与 されますが、課金アカウントの有効化手続き が必要です(後述)
完了すると GCP コンソールへログインでき、プロジェクトやリソース作成が可能になります

ポイント
- Google アカウントさえあれば追加の企業向け登録は不要です。
- 無料トライアルは 90 日間有効 で、期間中に $300 を使い切らなかった場合でも残額は失効します。


2. $300 クレジットと永続無料枠の正確な内容(2024 年最新)

サービス 永続無料枠(月間上限) 公式ドキュメント
BigQuery ストレージ 10 GB、クエリ処理 1 TB(スキャン量) https://cloud.google.com/bigquery/docs/free-tier
Cloud Storage (Standard) 標準ストレージ 5 GB、ネットワークアウト 1 GB https://cloud.google.com/storage/pricing#free-tier
BigQuery Data Transfer Service 転送自体は無料(ただし、転送先の Cloud Storage/BigQuery の使用料は別途課金) https://cloud.google.com/bigquery/docs/transfer-service-introduction#pricing
Looker Studio 無料プランでデータソース数・レポート数に制限なし(ただし、接続先の GCP サービスは上記無料枠を適用) https://cloud.google.com/looker-studio/pricing

※注意点
- 「Data Transfer Service」の月間上限という項目は公式に存在せず、転送自体は課金対象外です。従って表から「1,000 GB/月」等の記載は削除しました。
- $300 クレジットは トライアル開始直後 に自動付与されますが、有効化するために 課金アカウントを有効化(Billing → Activate) し、利用規約に同意する必要があります。


3. プロジェクト作成・課金アカウントリンク手順(クレジット有効化)

3‑1. 新規プロジェクトの作成

  1. コンソール左上メニュー → 「IAM と管理」 > 「プロジェクトの作成」
  2. プロジェクト名(例:my-data-analysis) を入力し、組織があればフォルダを選択
  3. 「作成」 をクリック → 数秒でプロジェクトが生成されます

3‑2. 課金アカウントのリンクとクレジット有効化

重要:無料トライアルでは課金アカウントを 手動で有効化 しなければ $300 のクレジットは利用できません。

手順 操作内容
コンソール左メニュー → 「請求」 に移動
課金アカウントを作成」または既存の課金アカウントが表示されている場合は 「リンク」 を選択
利用規約に同意 し、クレジットカード情報 が正しく登録されていることを確認
無料トライアルの開始」ボタンが表示されたらクリック(この時点で $300 クレジットが課金アカウントに紐付く)
請求ページ左上の 「残高」$300 と表示されれば完了

ヒント:クレジットは プロジェクト単位ではなく課金アカウント全体で共有 されます。複数プロジェクトを作成しても、同一課金アカウントにリンクすれば自動的に残高が適用されます。


4. IAM の最小権限設定例

ロール 主な権限 推奨対象
BigQuery User (roles/bigquery.user) bigquery.jobs.create, bigquery.datasets.get データ閲覧・クエリ実行者
BigQuery Data Viewer (roles/bigquery.dataViewer) bigquery.tables.getData 読み取り専用ユーザー
Storage Object Viewer (roles/storage.objectViewer) storage.objects.get, storage.objects.list GCS のオブジェクト参照者
BigQuery Data Transfer Service Admin (roles/bigtransfer.admin)(必要に応じて) データ転送設定の作成・管理 Data Transfer を利用するユーザー

IAM 設定手順(コンソール)

ベストプラクティス
- 最小特権の原則 を徹底し、不要な Editor ロールは付与しない。
- 将来的にチームで共有する場合は カスタムロール で細かく権限を絞ることも検討してください。


5. データ取り込み:Cloud Storage と BigQuery Data Transfer Service

5‑1. Cloud Storage に CSV/JSON をアップロード

手順 内容
コンソール左メニュー → 「Storage」 > 「バケットを作成」
バケット名はグローバルで一意(例:my-analysis-data-2024
リージョンはデータの利用場所に合わせて us-central1asia-northeast1 を選択
作成後、バケット内に以下のフォルダ構成を作る
raw/(元データ)
processed/(BigQuery にロードした結果)
「アップロード」ボタンで CSV / JSON ファイルを raw/ にドラッグ&ドロップ
必要に応じてオブジェクト単位で 「閲覧者 (storage.objectViewer)」 のみ付与し、書き込み権限は除外

5‑2. BigQuery Data Transfer Service(外部 SaaS データの自動取得)

本手順では Google Drive(スプレッドシート)YouTube Analytics を例にします。公式ドキュメントを参照してください: https://cloud.google.com/bigquery/docs/transfer-service-overview

5‑2‑a. Google Drive → BigQuery

  1. コンソール左メニュー → 「BigQuery」 > 「転送」
  2. 転送の作成」をクリックし、データソースに 「Google Drive」 を選択
  3. 接続する Google アカウントで認可し、対象スプレッドシート ID と取得頻度(例:日次)を設定
  4. 「転送先」には my-analysis-data バケットの raw/drive/ フォルダ、もしくは直接 BigQuery データセット を指定

5‑2‑b. YouTube Analytics → BigQuery

  1. 同様に「転送の作成」→データソース 「YouTube Channel Reports」 を選択
  2. 認可画面で必要な権限を付与し、対象チャンネル ID とスケジュール(例:日次)を入力
  3. 「転送先」に my-analysis-data/raw/yt_reports/ を指定すると、CSV が自動的に格納されます

ポイント:Data Transfer Service の「転送」自体は無料です。転送後の Cloud StorageBigQuery ストレージ使用量は永続無料枠または $300 クレジットでカバーできます。


6. BigQuery でデータセット・テーブル作成(UI & CLI)

6‑1. UI での手順

  1. コンソール左メニュー → 「BigQuery」
  2. データセットを作成」ボタン
  3. データセット ID:sales_analysis
  4. ロケーション:US(または asia-northeast1
  5. 作成したデータセットを選択し「テーブルの作成」 → 「ファイルから作成
  6. ソース:gs://my-analysis-data/raw/sales_2024-01.csv
  7. ファイル形式:CSV、自動検出 または手動でスキーマを入力(例:order_id:STRING, date:DATE, amount:NUMERIC, category:STRING

6‑2. bq CLI での作成例

補足:CLI はスクリプト化できるため、同様の処理を複数月分や別プロジェクトに対して自動展開したい場合に便利です。


7. 典型的な分析 SQL サンプル

以下は sales_jan テーブルを対象とした基本的なクエリ例です。実際のテーブル名は \myproject.sales_analysis.sales_jan のようにバックティックで囲んでください。

7‑1. 日次売上集計

7‑2. カテゴリ別売上ランキング(トップ 5)

7‑3. 移動平均 7 日でトレンドを見る

7‑4. パーティション化したテーブルへのクエリ例(大規模データ向け)

ベストプラクティス
- 必ず SELECT … LIMIT 1000 等で結果件数を抑えてから本格実行し、クエリコストを確認してください。
- 大量データは パーティション化・クラスタリング を活用するとスキャン量が大幅に削減できます。


8. Looker Studio への接続とダッシュボード作成手順

8‑1. BigQuery データソースの登録

手順 操作
https://lookerstudio.google.com/ にアクセスし「レポートを作成」→「データソースを追加
Google BigQuery」 を選択
プロジェクト → データセット (sales_analysis) → ビューまたはテーブル(例:sales_daily_view)を指定
フィールドが自動検出されるので、数値・日付の型が正しいか確認し「接続

公式参照https://cloud.google.com/looker-studio/docs/connect-bigquery

8‑2. ダッシュボード作成(代表的ウィジェット例)

ウィジェット 設定項目
時系列折れ線グラフ X 軸:day (日付)
Y 軸:total_sales (数値)
棒グラフ(カテゴリ別) ディメンション:category
指標:sales
テーブル(トップ5) カラム:category, sales
ソート:sales DESC
行数制限:5

作成手順

  1. チャートを追加」 → 「折れ線グラフ」 を選択し、先ほど作成したデータソースを紐付け
  2. 右側パネルで 「X 軸」day「指標」total_sales をドラッグ
  3. 必要に応じて 日付範囲フィルタカテゴリ別ドロップダウン を追加(「コントロール」→「日付範囲選択」など)
  4. 完成したレポートは左上の 「共有」 ボタンから URL 発行、または組織内ユーザーに閲覧権限を付与

ポイント:Looker Studio は GCP の認証情報を共通利用するため、別途 API キーやサービスアカウント設定は不要です。


9. コスト管理:無料枠シミュレーションと予算アラート設定

9‑1. 無料枠シミュレーション手順(公式ツール)

  1. コンソール左メニュー → 「請求」 → 「料金見積もり
  2. 見積もりを作成」ボタンで新規見積もり画面へ
  3. 製品リストから BigQuery, Cloud Storage を選択し、以下の想定使用量を入力
製品 想定使用量(例)
BigQuery クエリスキャン 300 GB
BigQuery ストレージ 12 GB
Cloud Storage 標準ストレージ 5 GB
ネットワークアウト 0.5 GB
  1. 見積もりを計算」すると、無料枠(1 TB クエリ、10 GB ストレージ)との差額が自動で表示されます。
  2. 差額が $0 になるようにテーブルのパーティション化やスキャン量削減を検討してください。

公式参照https://cloud.google.com/billing/docs/how-to/estimate-costs

9‑2. 予算アラート設定(メール通知)

手順 内容
コンソール左メニュー → 「請求」 → 「予算とアラート」
予算を作成」ボタンをクリックし、名前 GCP Free Trial を入力
金額は $300(無料トライアルクレジット総額)を設定
アラート閾値を 50 %80 % に設定し、通知先メールアドレス(例:自分の GMail)を登録
「保存」 → 以降は利用が閾値に達した瞬間にメールで警告が届く

ポイント:予算は 課金アカウント単位 に設定されるため、複数プロジェクトを作成しても同一アラートで管理できます。


10. まとめ & 次のステップ

項目 実施すべきこと
① アカウント登録 Google アカウントで GCP 無料トライアルを開始し、課金アカウントを有効化
② プロジェクト & 課金リンク 1 つのプロジェクトに $300 クレジットを紐付ける
③ IAM の最小権限設定 必要なロールだけを付与し、セキュリティリスクを低減
④ データ格納 Cloud Storage に CSV/JSON をアップロード、または Data Transfer Service で自動取得
⑤ 分析基盤構築 BigQuery へデータロード → SQL で集計・可視化
⑥ ダッシュボード Looker Studio と連携し、インタラクティブレポートを作成
⑦ コスト管理 無料枠シミュレーションと予算アラートで課金リスクを排除

次に挑戦したいこと例
- データパーティショニング・クラスタリングによるクエリコスト削減
- Cloud Functions + Pub/Sub でリアルタイムデータ流入パイプライン構築
- Terraform を用いたインフラ自動化(プロジェクト、IAM、BigQuery データセットのコード管理)


参考リンク(公式ドキュメント)

内容 リンク
GCP 無料トライアル概要 https://cloud.google.com/free
BigQuery Free Tier https://cloud.google.com/bigquery/docs/free-tier
Cloud Storage Free Tier https://cloud.google.com/storage/pricing#free-tier
BigQuery Data Transfer Service 料金 https://cloud.google.com/bigquery/docs/transfer-service-introduction#pricing
IAM ロール一覧 https://cloud.google.com/iam/docs/understanding-roles
Looker Studio(旧 Data Studio)接続ガイド https://cloud.google.com/looker-studio/docs/connect-bigquery
予算とアラート設定手順 https://cloud.google.com/billing/docs/how-to/budgets
bq コマンドリファレンス https://cloud.google.com/sdk/gcloud/reference/bq

この記事は 2024 年 4 月時点の公式情報に基づいています。Google Cloud のサービスや無料枠は随時更新されるため、実装前に最新の公式ページをご確認ください。

スポンサードリンク

お得なお知らせ

スポンサードリンク
1ヶ月で資格+現場入り

インフラエンジニアへの最短ルート

未経験でもAWS・Linux・ネットワーク資格を最短で取り、現場入りまでサポート。SREやクラウドエンジニアの入口。

CODE×CODEスピード転職|無料面談▶ SRE/クラウドのフリーランス案件▶

▶ AWS/GCP/Kubernetesの独学には Kindle Unlimited の技術書読み放題がコスパ最強。


-GCP