こんにちは、香田です。
今回はCloud Workflowsを使用してBigQuery 日付別テーブルのデータを分割テーブルへ移行する方法について紹介していきます。
利用する日付別テーブルとしては、Google アナリティクス 4で提供されているBigQuery Exportで生成されたテーブルを利用していきます。
Google アナリティクス 4のBigQuery Exportについては、以前下記の記事に記載してますのでよかったら参考にしてみてください。
続きを読むこんにちは、香田です。
今回はCloud Workflowsを使用してBigQuery 日付別テーブルのデータを分割テーブルへ移行する方法について紹介していきます。
利用する日付別テーブルとしては、Google アナリティクス 4で提供されているBigQuery Exportで生成されたテーブルを利用していきます。
Google アナリティクス 4のBigQuery Exportについては、以前下記の記事に記載してますのでよかったら参考にしてみてください。
続きを読むこんにちは、香田です。
今回はGoogle Workspaceの監査ログと使用状況レポートをBigQueryへエクスポートする方法について紹介していきます。
Google 管理コンソールを操作する必要がある為、操作する際は管理者権限が必要になってきます。
管理者権限の付与に関しては下記を参考にしてみてください。
続きを読むこんにちは、香田です。
今回はKubernetesへMauticをデプロイする方法について紹介していきます。
ローカル環境で検証できるようにKubernetesはMinikubeを使用していきます。
また、Mauticを複数台で構成した際、ファイルが共有できるようにVagrantでNFSサーバーを用意していきます。
続きを読むこんにちは、香田です。
今回はECS FargateのタスクからBigQueryへクエリを実行する方法について紹介していきます。
最終的にタスクで定義されたコンテナからbqコマンドでクエリ実行できるように設定していく流れとなります。
続きを読むこんにちは、香田です。
今回はCloud Workflowsを使用しCloud Runを実行する方法について紹介してきます。
実行するCloud Runについては、認証機能を利用しCloud Workflowsのみ使用できるようにしていきます。
続きを読む