BigQuery to Clickhouse テンプレート

BigQuery to Clickhouse テンプレートは、BigQuery テーブルから既存の Clickhouse テーブルにデータをコピーするバッチ パイプラインです。テンプレートでは、テーブル全体を読み取ることも、クエリを使用して特定のレコードを読み取ることもできます。

パイプラインの要件

  • ソースとなる BigQuery テーブルが存在していること。
  • Clickhouse テーブルが存在していること。

テンプレートのパラメータ

必須パラメータ

  • jdbcUrl: ターゲット ClickHouse JDBC URL(jdbc:clickhouse://host:port/schema 形式)。JDBC URL の末尾に JDBC オプションを追加できます。例: jdbc:clickhouse://localhost:8123/default
  • clickHouseUsername: 認証に使用する ClickHouse のユーザー名。
  • clickHouseTable: データを挿入するターゲット ClickHouse テーブル名。

オプション パラメータ

  • inputTableSpec: 読み取り元の BigQuery テーブル。inputTableSpec を指定すると、テンプレートは BigQuery Storage Read API(https://cloud.google.com/bigquery/docs/reference/storage)を使用して、BigQuery ストレージから直接データを読み取ります。Storage Read API の制限については、https://cloud.google.com/bigquery/docs/reference/storage#limitations をご覧ください。inputTableSpec または query を指定する必要があります。両方のパラメータを設定した場合、テンプレートは query パラメータを使用します。例: <BIGQUERY_PROJECT>:<DATASET_NAME>.<INPUT_TABLE>
  • outputDeadletterTable: 出力テーブルに到達できなかったメッセージの BigQuery テーブル。テーブルが存在しない場合は、パイプラインの実行中に作成されます。指定しない場合は <outputTableSpec>_error_records が使用されます例: <PROJECT_ID>:<DATASET_NAME>.<DEADLETTER_TABLE>
  • query: BigQuery からデータを読み取るために使用する SQL クエリ。BigQuery データセットが Dataflow ジョブとは異なるプロジェクトにある場合は、SQL クエリで完全なデータセット名を指定します(例: <PROJECT_ID>.<DATASET_NAME>.<TABLE_NAME>)。デフォルトでは、useLegacySqltrue でない限り、query パラメータは GoogleSQL(https://cloud.google.com/bigquery/docs/introduction-sql)を使用します。inputTableSpec または query を指定する必要があります。両方のパラメータを設定した場合、テンプレートは query パラメータを使用します。例: select * from sampledb.sample_table
  • useLegacySql: レガシー SQL を使用するには、true に設定します。このパラメータは、query パラメータを使用する場合にのみ適用されます。デフォルトは false です。
  • queryLocation: 基となるテーブルの権限なしで承認済みビューから読み取る場合は必須です例: US
  • queryTempDataset: このオプションを使用すると、既存のデータセットを設定して、クエリの結果を保存する一時テーブルを作成できます。例: temp_dataset
  • KMSEncryptionKey: クエリソースを使用して BigQuery から読み取る場合は、この Cloud KMS 鍵を使用して、作成された一時テーブルを暗号化します。例: projects/your-project/locations/global/keyRings/your-keyring/cryptoKeys/your-key
  • clickHousePassword: 認証に使用する ClickHouse のパスワード。
  • maxInsertBlockSize: 挿入ブロックの作成を制御する場合の挿入ブロックの最大サイズ(ClickHouseIO オプション)。
  • insertDistributedSync: この設定が有効になっている場合、分散クラスタに対する挿入クエリは、データがクラスタ内のすべてのノードに送信されるまで待機します(ClickHouseIO オプション)。
  • insertQuorum: レプリケートされたテーブルの INSERT クエリで、指定した数のレプリカへの書き込みを待機し、データの追加を線形化します。0 - 無効。この設定は、デフォルトのサーバー設定では無効になっています(ClickHouseIO オプション)。
  • insertDeduplicate: レプリケートされたテーブルの INSERT クエリで、挿入ブロックの重複除去を実行するように指定します。
  • maxRetries: 挿入あたりの最大再試行回数。

テンプレートを実行する

コンソール

  1. Dataflow の [テンプレートからジョブを作成] ページに移動します。
  2. [テンプレートからジョブを作成] に移動
  3. [ジョブ名] フィールドに、固有のジョブ名を入力します。
  4. (省略可)[リージョン エンドポイント] で、プルダウン メニューから値を選択します。デフォルトのリージョンは us-central1 です。

    Dataflow ジョブを実行できるリージョンのリストについては、Dataflow のロケーションをご覧ください。

  5. [Dataflow テンプレート] プルダウン メニューから、[ the BigQuery to Clickhouse template] を選択します。
  6. 表示されたパラメータ フィールドに、パラメータ値を入力します。
  7. [ジョブを実行] をクリックします。

gcloud

シェルまたはターミナルで、テンプレートを実行します。

gcloud dataflow flex-template run JOB_NAME \
    --project=PROJECT_ID \
    --region=REGION_NAME \
    --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/BigQuery_to_Clickhouse \
    --parameters \
jdbcUrl=JDBC_URL,\
clickHouseUsername=CLICKHOUSE_USERNAME,\
clickHouseTable=CLICKHOUSE_TABLE

次のように置き換えます。

  • PROJECT_ID: Dataflow ジョブを実行する Google Cloud プロジェクト ID
  • JOB_NAME: 一意の任意のジョブ名
  • REGION_NAME: Dataflow ジョブをデプロイするリージョン(例: us-central1
  • VERSION: 使用するテンプレートのバージョン

    使用できる値は次のとおりです。

    • latest: 最新バージョンのテンプレートを使用します。このテンプレートは、バケット内で日付のない親フォルダ(gs://dataflow-templates-REGION_NAME/latest/)にあります。
    • バージョン名(例: 2023-09-12-00_RC00)。特定のバージョンのテンプレートを使用します。このテンプレートは、バケット内で対応する日付の親フォルダ(gs://dataflow-templates-REGION_NAME/)にあります。
  • JDBC_URL: JDBC URL。
  • CLICKHOUSE_USERNAME: ClickHouse のユーザー名。
  • CLICKHOUSE_TABLE: ClickHouse テーブル。

API

REST API を使用してテンプレートを実行するには、HTTP POST リクエストを送信します。API とその認証スコープの詳細については、projects.templates.launch をご覧ください。

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch
{
   "launch_parameter": {
      "jobName": "JOB_NAME",
      "parameters": {
          "jdbcUrl": "JDBC_URL",
          "clickHouseUsername": "CLICKHOUSE_USERNAME",
          "clickHouseTable": "CLICKHOUSE_TABLE"
      },
      "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/BigQuery_to_Clickhouse",
   }
}

次のように置き換えます。

  • PROJECT_ID: Dataflow ジョブを実行する Google Cloud プロジェクト ID
  • JOB_NAME: 一意の任意のジョブ名
  • LOCATION: Dataflow ジョブをデプロイするリージョン(例: us-central1
  • VERSION: 使用するテンプレートのバージョン

    使用できる値は次のとおりです。

    • latest: 最新バージョンのテンプレートを使用します。このテンプレートは、バケット内で日付のない親フォルダ(gs://dataflow-templates-REGION_NAME/latest/)にあります。
    • バージョン名(例: 2023-09-12-00_RC00)。特定のバージョンのテンプレートを使用します。このテンプレートは、バケット内で対応する日付の親フォルダ(gs://dataflow-templates-REGION_NAME/)にあります。
  • JDBC_URL: JDBC URL。
  • CLICKHOUSE_USERNAME: ClickHouse のユーザー名。
  • CLICKHOUSE_TABLE: ClickHouse テーブル。

次のステップ