CloudFunctionsでFireStoreにドキュメントを追加してみる


今回すること

最近無人島生活で忙しいRHEMS技研の葛西です。

今回はGCPのCloudFunctionsでFireStoreにドキュメントを追加する方法を紹介していきたいと思います。
また、DataFlow+BigQueryとCloudFunctions+FireStoreでのコストの比較も行います。

構成図

今回はCloudFunctionsとFireStoreについての記事なので、IoTCore等の詳細はこちらをご覧ください。

FireStoreの準備

CloudFunctionsで関数を作る前に、先にデータの受け入れ先の準備をします。
都合上プロジェクトがバラバラになってしまっていますが、CloudFunctionsとFireStoreは同じプロジェクトで作業してください。
FireBaseのコンソールを開き、左のメニューから「Database」を選択します。

「データベースの作成」をクリックします。

今回はテストモードで進めていきます。

ロケーションはasia-northeast1(東京)にします。(どこでも特に問題はないハズですが、CloudFunctionsのロケーションと合わせたほうがいいと思います。)

データベースの作成が終わるとこのような画面になります。

コレクションの作成

それではコレクションを開始を押して、コレクション(SQLで言うテーブルのようなもの)を作っていきます。

適切なIDを付けましょう。今回は「SuperCollection」にしました。

上のように最初のドキュメントを追加したら、保存をクリックします。

この様になっていればOKです。

サービスアカウントの用意

CloudFunctionsからFireStoreにドキュメントを追加するために、秘密鍵が必要になるのでそれの準備をしていきます。

左上の歯車マークをクリックし、「ユーザーと権限」をクリックします。

画面上部の「サービスアカウント」をクリックし、「新しい秘密鍵の生成」をクリックします。

「キーを生成」をクリックして、jsonがダウンロードされれば完了です。

CloudFunctionsの作成

次にCloudFunctionsで関数を作ります。
左上のナビゲーションメニューからCloudFunctionsをクリックします。
すると、初回の場合は下のような画面になるので、「関数を作成」をクリックします。
今回はCloud Pub/Subから受け取ったデータをFireStoreに入れるため、トリガーをCloud Pub/Subにします。
トピックは、今回作成する関数でFireStoreに追加したいデータを受け取れるものを選択してください。

今回はインラインエディタを使って編集していきます。
送られてくるデータの形式は

{"Hello":"FireStore"}

とします。

index.js
/**
 * Triggered from a message on a Cloud Pub/Sub topic.
 *
 * @param {!Object} event Event payload.
 * @param {!Object} context Metadata for the event.
 */
const admin = require('firebase-admin');

const serviceAccount = 先程ダウンロードしたjsonを貼り付ける

admin.initializeApp({
  credential: admin.credential.cert(serviceAccount)
});

var db = admin.firestore();

exports.helloPubSub = (event, context) => {
  const pubsubMessage = event.data;
  const raw = Buffer.from(pubsubMessage, 'base64').toString();
  console.log(raw);
  const obj = JSON.parse(raw);

  let docRef = db.collection('SuperCollection').add({
    Hello: obj.Hello
  }).then(function (docRef) {
    console.log("Document written with ID :", docRef.id);
  }).catch(function (error) {
    console.log("Error :", error);
  });

  console.log("Hello :",obj.Hello);
};

firebase-adminを使うために、Package.jsonも編集します。

Package.json
{
  "name": "sample-pubsub",
  "version": "0.0.1",
  "dependencies": {
    "@google-cloud/pubsub": "^0.18.0",
    "firebase-admin": "^5.10.0"
  }
}

このように変更します。

「作成」をクリックし、デプロイが完了すればOKです。

あとは ESP32からのデータを受信するごとにFireStoreのコレクションにドキュメントが追加されていきます。

コストの比較

Dataflow+BigQueryを使用した場合とCloudFunctions+FireStoreを使用した場合でコストの比較をしていきます。
今回の計算では1分に1回(1時間に60回)データを送信することとします。
また、IoTCoreとCloud Pub/Subは今回の計算の場合、データ量が少なく無料枠の範囲内なので省略します。

DataFlow+BigQuery

DataFlow

DataFlowにはバッチ処理とストリーミング処理がありますが、今回はストリーミング処理の方で計算していきます。
デフォルトのマシンほどのスペックはいらないので、e2-medium(vCPU:2 メモリ:4GB)の場合、ストレージは100GBで計算します。

1時間あたり約0.206米ドルなので、0.206*24*30=148.32
(1時間あたりの計算内訳 vCPU:0.069*2 メモリ:0.003557*4 ストレージ:0.000054*100)

1ヶ月あたり約148.32米ドルになります。かなり高い。

BigQuery

BigQueryに関しては、定額制ではない場合は月に行うクエリの量で料金が大きく変動するので、詳細に関しては公式のドキュメントをご参照ください。

DataFlow+BigQueryの場合、最低でも148.32米ドルかかることになります。

CloudFunctions+FireStore

CloudFunctions

1時間あたり60回関数が呼び出されるので、1ヶ月あたりの呼び出し回数は60*24*30=43200回となります。

CloudFunctionsは、1ヶ月あたり最初の200万回は無料なので、CloudFunctionsでは料金はかかりません。

FireStore

1回呼び出される毎に1つのドキュメントが書き込まれるので、1日あたり1440個のドキュメントがコレクションに追加されることになります。

FireStoreは、1日あたり、2万件までの書き込みが無料なので、こちらも料金がかかりません。

CloudFunctions+FireStoreの場合、今回の計算の場合は無料枠の範囲内で済ませることができます。すごい

おわりに

今回はCloudFunctionsでFireStoreにドキュメントを追加する方法についてまとめました。
GCPを触ったのは今回が初めてなので、間違っている点、もっとよくできる点等ありましたらご指摘ください。

サービスの組み合わせ次第でかなり節約できることがあるので、みなさんも組み合わせの見直しをしてみると費用を節約できるかもしれませんのでぜひ確認してみてください!