こちらで、最近のデータ基盤動向についてまとめました。本稿では特にGoogle Cloud Platformに焦点をあて、データ基盤構築の実践を行っていきます。

Google Cloud Platform

Google Cloud Platform(GCP)は世界シェア3位ながら、成長率が高く、特にオンライン広告との相性が良い。また機械学習において他の2つより評価されています。1https://www.canalys.com/newsroom/global-cloud-market-Q121

2021 Q1時点の世界クラウドシェア (但しSaasは除くIaas/Paasのシェア) Canalys資料より引用 

IaaS/PaaS/SaaS/FaaS全部で100種類以上のサービスを持ちます。データ基盤に関係ありそうなものをまとめました。

その他にも、pub/sub、dataprep dataproc cloud functions、などがありますが、簡単な構成を作成する最低限のものを記しました。

実践 Biq Queryにデータ作成

データをバッチで取込、加工、可視化を行う基盤を構築してみます。

やりたいことは、筆者が個人的に毎日収集している、海釣り施設の釣果情報をCloud Storageにアップし、バッチ(ストリーミングでもできるが)でBigQueryに連携。BIに加工連携し日時、場所、魚の種類ごとの釣果情報を可視化することです。

まず、過去分のデータをBigQuery(BQ))に取込むことから行い、そのあとバッチ処理のパイプラインを構築すし、最後にBIへの連携部分を作成します。

  1. GCPにプロジェクト作成 (Gsuiteアカウントがあり、組織独自ドメインがあることを前提)
  2. 請求先アカウント作成→プロジェクトの費用を紐づける
  3. Cloud SDK インストール→ローカルmac端末のshell上からGCSを操作するための、gsutilコマンド、BQを操作するためのbqコマンドを使用できるようにする。
  4. Python用クライアントライブラリをインストール→ローカルmac端末からGCS→BQという操作をpythonで書けるようにするために必要。
  5. サービスアカウント設定→Pythonクライアントの実行のために必要(認証の問題)
  6. Cloud Storageのバケット作成→バケットはcloud shell(glの管理画面)からGUIで行う。
  7. BigQueryテーブル作成→BQコマンドを使用する。
  8. 過去分(5年分)をStorageに取込み(gsutilコマンド)、作成したBigQueryのテーブルに追加していく。(クライアントライブラリを使用)
  9. Google data portal と連携し可視化。
  10. 毎日のバッチ処理を作成する。(クライアントライブラリを使用)

正直色々なやり方がありますが、バッチ処理しやすいようにコマンドライン操作とpythonで処理する方法にしました。

プロジェクト作成

プロジェクトを作成します。組織(ドメイン)というカテゴリの下に紐づくイメージです。

Googleworkspace(旧Gsuite)にアカウントがあることが前提。不明であれば情報システムやインフラ開発部門に問い合わせましょう。個人で実行したい場合は、個人のgmailアカウントがあれぼ良いようです。

請求先アカウント作成

請求先アカウントを作成し、プロジェクトに紐づける。

Cloud SDKインストール

https://cloud.google.com/sdk/docs/install?hl=ja#mac からCloud SDKをダウンロードしてローカルマシンにインストール。

(参考) 手順 Cloud SDKインストール (参考) 細かい手順 (Mac版)

①ダウンロードした、tarを解凍→google-cloud-sdkという名前のフォルダができる。
②そのフォルダがある、ディレクトリで、macのシェルから以下のように打ち込む。

③y/n と聞かれるので「y」と入力。 python3.7がない場合ダウンロードしてくれます。
④gcloud init を実行して SDK を初期化します。

⑤これを実行するとurlの出力があり、そのurlをコピーしてブラウザにペースとしてアクセスします。googleのアカウントの認証とsdkのアクセスの許可画面が出ますので、許可してください。そのあと画面にでた文字列トークンをコピーしshellに打ち込んでください。
⑥ものすごい長い文字列の出力が終わったあと。シェルを再起動する。再起動しないと有効にならない。
⑦これでgsutilコマンド、bqコマンドが使用可能になった。

Python用クライアントライブラリをインストール (Mac版)

macのシェルターミナル上で行います。

①Virtualenvでクライアントライブラリ用のpython仮想環境を構築(別に必須ではないが、pythonマナーとしてこうするのが定石)

②作成した仮想環境をアクティブにする。

③Google-cloud-bigqueryをアップデート

サービスアカウント設定

  1. https://cloud.google.com/docs/authentication/production?hl=ja を参考にjsonファイルのキーを作成。
  2. Jsonファイルをローカルのどこかに置く。(例えば作成したbq環境のフォルダ下など)
  3. 以下のように打ち込む。(shellを立ち上げるたびに必要) ******は①作成したjsonファイル名、/Users/[user名]/bq/はjsonファイルが置いてある場所。

サービスアカウントにロールを与える。ここではCloud StorageとBQが使えるようにしておきます。

bigqueryとGCSに対してのロールを与えておきます。ロールの追加は以下から行います。

Cloud Storageのバケット作成

StorageはAWSS3と同様にバケットという単位で扱います。バケットの中にフォルダを作成できます。

BigQueryテーブル作成

取り込みたいデータの形は右下です。これが5年分日次である(いくつか取得できていない日もあるが)。
そのため年ごとに同じ形をしたテーブルを作成します。

プロジェクトの下にデータセット、その下にテーブルが紐づきます。そのため先にデータセットを作成。これはcloud shellのGUI画面から行います。

ローカルのshellからbqコマンドを使用してテーブルを作成します。

過去分(5年分)を取り込む

過去分(5年分)をStorageに取込み(gsutilコマンド)、作成したBigQueryのテーブルに追加していきます。

① ローカル→Storage
ローカル端末のシェルでgsutilコマンドを使用して取り込む。2017*となっているのは2017年のcsvすべてワイルドカード指定している。それを作成したバケット下のフォルダ「choka/2017」以下に転送するように命令している。(フォルダは指定すればバケット下に自動で作成される。)

② 2017-2022まで5年分行う。

③Storage→BiqQuery
クライントライブラリで作成したpythonスクリプトを使用してデータを転送し、あらかじめ作成したテーブルにアペンドしていく。test.pyという名前で作成(詳細は次ページ)。コマンドライン引数に年を指定。

④ 2017-2022まで5年分行う。

test.pyは引数に読み込みたい年の年数で、ローカルcsv→GCS→BQに一気にデータを入れる処理をします。

ここらへんを参考にしています。2https://dev.classmethod.jp/articles/bigquery-table-data-export2gcs/3https://qiita.com/Hyperion13fleet/items/0e00f4070f623dacf92b4https://colabmix.co.jp/tech-blog/python-google-cloud-bigquery-4/5https://www.ai-shift.co.jp/techblog/1839

test.pyの中身

実践 Google data portalに連携

Google data portalに連携

data portal連携前に、それ用のテーブルを作成します。2017-2022までを縦に結合したテーブルを作成。BQの画面から新規クエリ作成で行います。

CREATE TABLE test_choka.choka_all
AS
(
SELECT * FROM ****2017
union all
SELECT * FROM ****2018
union all
SELECT * FROM ****2019
union all
SELECT * FROM ****2020
union all
SELECT * FROM ****2021
union all
SELECT * FROM ****2022
)

****はそれぞれの年のテーブル名

GCS→BQの段階で同じテーブルに最初から入れておけばよいのであるが、運用上一応5つのテーブルに分けました。

適当にレポートを作成して共有します。

https://datastudio.google.com/u/0/reporting/339df563-d460-4b77-a415-0ec91cc202d3/page/e3OmC

後は毎日新しいデータを取得するバッチ処理を追加します。

日次バッチ処理の構成

Pythonのcloud storageのクライントライブラリをインストールします。(Big Queryのクライントライブラリはすでにインストールした)

バッチ処理を毎日午後11:30分に行うようにスケジューリングします。

crontab(macやlinux系OSのタスクスケジューラ)を以下のように設定します。
Pythonはクライアントライブラリをインストールした環境下のpythonインタプリタを使用します。

以上で完了です。

これで毎日クローリングと同時にGCS→BQへデータが連携され、DataPortalで釣果を確認できます。

残念なことに本牧施設は台風の影響で一部施設が損壊し、完全な稼働はできていません。実際に一番の釣果を誇った当施設も最近では磯子施設にお客さんが流れているで釣果も減少気味です。

GCPのデータ基盤の活用に関しては弊社までご相談ください。何卒宜しくお願い致します。

 

 

 

投稿者プロフィール

株式会社Crosstab 代表 漆畑充
株式会社Crosstab 代表 漆畑充
当ブログは【アナリティクスやデータの総合的な活用を通じて「未知の知」の獲得に貢献する】株式会社Crosstabが作成しています。

筆者について
2007年より金融機関向けデータ分析業務に従事。与信及びカードローンのマーケテイングに関する数理モデルを作成。その後大手ネット広告会社にてアドテクノロジーに関するデータ解析を行う。またクライアントに対してデータ分析支援及び提言/コンサルティング業務を行う。
統計モデルの作成及び特にビジネスアウトプットを重視した分析が得意領域である。
お問い合わせは株式会社Crosstabまでお願いいたします。
  • 1
    https://www.canalys.com/newsroom/global-cloud-market-Q121
  • 2
    https://dev.classmethod.jp/articles/bigquery-table-data-export2gcs/
  • 3
    https://qiita.com/Hyperion13fleet/items/0e00f4070f623dacf92b
  • 4
    https://colabmix.co.jp/tech-blog/python-google-cloud-bigquery-4/
  • 5
    https://www.ai-shift.co.jp/techblog/1839