建立醫療照護搜尋資料儲存庫

如要在 Vertex AI Search 中搜尋臨床資料,請按照下列其中一個工作流程操作:

  • 建立醫療照護資料儲存庫、將 FHIR R4 資料匯入資料儲存庫、連結至醫療照護搜尋應用程式,以及查詢臨床資料。
  • 建立醫療照護搜尋應用程式、建立醫療照護資料儲存庫,並在建立應用程式的過程中,將 FHIR R4 資料匯入資料儲存庫,然後查詢臨床資料。詳情請參閱「建立醫療保健搜尋應用程式」。

本頁面將說明第一種方法。

關於資料匯入頻率

您可以透過下列方式,將 FHIR R4 資料匯入資料儲存庫:

  • 批次匯入:一次性匯入。資料會分批匯入資料存放區。如要進一步瞭解如何進行增量匯入,請參閱重新整理醫療保健資料

  • 串流匯入:近乎即時的串流資料匯入。來源 FHIR 儲存庫中的任何遞增變更,都會同步到 Vertex AI Search 資料儲存庫。如要串流,必須使用資料連接器,這是一種資料儲存庫。如要建立資料連接器,請務必設定集合。資料連接器包含「實體」,也就是資料儲存庫執行個體。

    你也可以視需要暫停及繼續串流,並執行手動同步。詳情請參閱「管理醫療保健搜尋資料存放區」。

    特定 Google Cloud 專案的資料串流速率取決於下列配額。如果超出配額,串流可能會延遲。

您可以在建立資料儲存庫時選取資料匯入頻率,但之後無法變更這項設定。

事前準備

建立醫療照護資料儲存庫並匯入資料前,請先瞭解下列事項:

  • 醫療照護搜尋應用程式和資料儲存庫之間的關係。 詳情請參閱「關於應用程式和資料儲存庫」。

  • 準備 FHIR 資料以供擷取

  • Vertex AI Search for healthcare 僅在美國多區域 (us) 提供搜尋服務,因此醫療照護搜尋應用程式和資料儲存庫必須位於 us 多區域。

  • 如果您要將醫療照護資料從一個 Google Cloud 專案的 Cloud Healthcare API FHIR 儲存庫匯入至另一個 Google Cloud 專案的 Vertex AI Search 資料儲存庫,且您使用 VPC Service Controls,則這兩個專案必須位於同一個範圍內。

建立資料儲存庫並匯入資料

您可以在Google Cloud 控制台中建立資料儲存庫並匯入 FHIR R4 資料,也可以使用 API 採取下列做法:

建立靜態資料儲存庫,並執行一次性批次匯入作業

本節說明如何建立 Vertex AI Search 資料儲存庫,您只能在其中執行批次匯入作業。您可以在首次建立資料儲存庫時匯入批次資料,並在必要時執行增量批次匯入

控制台

  1. 前往 Google Cloud 控制台的「AI Applications」頁面。

    AI 應用程式

  2. 在導覽選單中,按一下「資料儲存庫」

  3. 按一下「建立資料儲存庫」

  4. 在「選取資料來源」窗格中,選取「Healthcare API (FHIR)」做為資料來源。
  5. 如要從 FHIR 儲存庫匯入資料,請執行下列任一操作:
    • 從可用 FHIR 儲存庫清單中選取 FHIR 儲存庫:
      1. 展開「FHIR 儲存庫」欄位。
      2. 從清單中選取位於允許位置的資料集,然後選取使用 FHIR R4 版本的 FHIR 儲存庫。
    • 手動輸入 FHIR 儲存庫:
      1. 展開「FHIR 儲存庫」欄位。
      2. 按一下「Enter FHIR store manually」(手動輸入 FHIR 存放區)
      3. 在「FHIR store name」(FHIR 儲存庫名稱) 對話方塊中,輸入 FHIR 儲存庫的完整名稱,格式如下:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. 按一下 [儲存]
  6. 在「同步」部分,選取下列任一選項。 資料儲存庫建立後即無法變更這項選擇。
    • 一次性:執行一次性批次資料匯入作業。如要進一步瞭解如何進行增量匯入,請參閱「重新整理醫療保健資料」。
    • 串流:執行近乎即時的串流資料匯入作業。如要串流資料,您必須建立資料連接器,這是一種資料儲存庫。如要使用 REST API 設定串流資料存放區,請與客戶工程師聯絡。
  7. 在「這項資料的結構定義是什麼?」部分,選取下列其中一個選項:
    • Google 預先定義的結構定義:保留 Google 定義的結構定義設定,例如可建立索引、可搜尋及可擷取,適用於支援的 FHIR 資源和元素。選取這個選項後,您就無法在建立資料儲存庫後更新結構定義。如要在建立資料儲存庫後變更架構,請選取「自訂架構」選項。
      1. 按一下「繼續」
      2. 在「Your data store name」(資料儲存庫名稱) 欄位中,輸入資料儲存庫的名稱。
      3. 點選「建立」
      4. 您建立的資料儲存庫會列在「資料儲存庫」頁面。

    • 自訂結構定義:定義自己的結構定義設定,例如支援的 FHIR 資源和元素的索引、搜尋和擷取功能。如要設定可設定的結構定義,請與客戶工程師聯絡。
      1. 按一下「繼續」
      2. 查看結構定義、展開每個欄位,然後編輯欄位設定。
      3. 按一下「新增欄位」,在支援的 FHIR 資源中新增欄位。您無法移除 Google 定義結構定義中提供的欄位。
      4. 按一下「繼續」
      5. 在「Your data connector name」(資料連接器名稱) 欄位中,輸入資料連接器的名稱。
      6. 點選「建立」
      7. 您建立的資料連接器會列在「資料儲存庫」頁面。 來源 FHIR 存放區會新增為資料連接器中的實體。

  8. 按一下「繼續」

REST

  1. 建立資料儲存庫。

    curl -X POST\
     -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \
     -d '{
        "displayName": "DATA_STORE_DISPLAY_NAME",
        "industryVertical": "HEALTHCARE_FHIR",
        "solutionTypes": ["SOLUTION_TYPE_SEARCH"],
        "searchTier": "STANDARD",
        "searchAddOns": ["LLM"],
        "healthcareFhirConfig":
          {
            "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE
          }
    }'
    

    更改下列內容:

    • PROJECT_ID:您的 Google Cloud 專案 ID。
    • DATA_STORE_ID:您要建立的 Vertex AI Search 資料儲存庫 ID。這個 ID 只能包含小寫字母、數字、底線和連字號。
    • DATA_STORE_DISPLAY_NAME:要建立的 Vertex AI Search 資料儲存庫顯示名稱。
    • CONFIGURABLE_SCHEMA_TRUE|FALSE:設為 true 時的布林值,可讓您使用 schema.update 方法設定資料儲存庫結構定義。
  2. 如果來源 FHIR 存放區和目標 Vertex AI Search 資料儲存庫位於同一個 Google Cloud 專案中,請呼叫下列方法來執行一次性批次匯入作業。如果不在同一個專案中,請前往下一個步驟。

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    更改下列內容:

    • PROJECT_ID:您的 Google Cloud 專案 ID。
    • DATA_STORE_ID:Vertex AI Search 資料儲存庫的 ID。
    • CLOUD_HEALTHCARE_DATASET_ID:包含來源 FHIR 儲存庫的 Cloud Healthcare API 資料集 ID。
    • CLOUD_HEALTHCARE_DATASET_LOCATION:包含來源 FHIR 儲存庫的 Cloud Healthcare API 資料集位置。
    • :Cloud Healthcare API FHIR R4 存放區的 ID。FHIR_STORE_ID
  3. 如果來源 FHIR 存放區和目標 Vertex AI Search 資料儲存庫位於不同 Google Cloud 專案,請呼叫下列方法執行一次性批次匯入作業。如果兩者位於同一個專案,請返回上一個步驟。

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    更改下列內容:

    • PROJECT_ID:包含 Vertex AI Search 資料儲存庫的 Google Cloud專案 ID。
    • DATA_STORE_ID:Vertex AI Search 資料儲存庫的 ID。
    • SOURCE_PROJECT_ID:包含 Cloud Healthcare API 資料集和 FHIR 儲存庫的 Google Cloud 專案 ID。
    • CLOUD_HEALTHCARE_DATASET_ID: 包含來源 FHIR 儲存庫的 Cloud Healthcare API 資料集 ID。
    • CLOUD_HEALTHCARE_DATASET_LOCATION: 包含來源 FHIR 儲存庫的 Cloud Healthcare API 資料集位置。
    • :Cloud Healthcare API FHIR R4 存放區的 ID。FHIR_STORE_ID

Python

詳情請參閱 AI Applications Python API 參考說明文件

如要向 AI Applications 進行驗證,請設定應用程式預設憑證。 詳情請參閱「為本機開發環境設定驗證」。

建立資料儲存庫


from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "global"
# data_store_id = "YOUR_DATA_STORE_ID"


def create_data_store_sample(
    project_id: str,
    location: str,
    data_store_id: str,
) -> str:
    #  For more information, refer to:
    # https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
    client_options = (
        ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
        if location != "global"
        else None
    )

    # Create a client
    client = discoveryengine.DataStoreServiceClient(client_options=client_options)

    # The full resource name of the collection
    # e.g. projects/{project}/locations/{location}/collections/default_collection
    parent = client.collection_path(
        project=project_id,
        location=location,
        collection="default_collection",
    )

    data_store = discoveryengine.DataStore(
        display_name="My Data Store",
        # Options: GENERIC, MEDIA, HEALTHCARE_FHIR
        industry_vertical=discoveryengine.IndustryVertical.GENERIC,
        # Options: SOLUTION_TYPE_RECOMMENDATION, SOLUTION_TYPE_SEARCH, SOLUTION_TYPE_CHAT, SOLUTION_TYPE_GENERATIVE_CHAT
        solution_types=[discoveryengine.SolutionType.SOLUTION_TYPE_SEARCH],
        # TODO(developer): Update content_config based on data store type.
        # Options: NO_CONTENT, CONTENT_REQUIRED, PUBLIC_WEBSITE
        content_config=discoveryengine.DataStore.ContentConfig.CONTENT_REQUIRED,
    )

    request = discoveryengine.CreateDataStoreRequest(
        parent=parent,
        data_store_id=data_store_id,
        data_store=data_store,
        # Optional: For Advanced Site Search Only
        # create_advanced_site_search=True,
    )

    # Make the request
    operation = client.create_data_store(request=request)

    print(f"Waiting for operation to complete: {operation.operation.name}")
    response = operation.result()

    # After the operation is complete,
    # get information from operation metadata
    metadata = discoveryengine.CreateDataStoreMetadata(operation.metadata)

    # Handle the response
    print(response)
    print(metadata)

    return operation.operation.name

匯入文件

from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "us"
# data_store_id = "YOUR_DATA_STORE_ID"
# healthcare_project_id = "YOUR_HEALTHCARE_PROJECT_ID"
# healthcare_location = "YOUR_HEALTHCARE_LOCATION"
# healthcare_dataset_id = "YOUR_HEALTHCARE_DATASET_ID"
# healthcare_fihr_store_id = "YOUR_HEALTHCARE_FHIR_STORE_ID"

#  For more information, refer to:
# https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
client_options = (
    ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
    if location != "global"
    else None
)

# Create a client
client = discoveryengine.DocumentServiceClient(client_options=client_options)

# The full resource name of the search engine branch.
# e.g. projects/{project}/locations/{location}/dataStores/{data_store_id}/branches/{branch}
parent = client.branch_path(
    project=project_id,
    location=location,
    data_store=data_store_id,
    branch="default_branch",
)

request = discoveryengine.ImportDocumentsRequest(
    parent=parent,
    fhir_store_source=discoveryengine.FhirStoreSource(
        fhir_store=client.fhir_store_path(
            healthcare_project_id,
            healthcare_location,
            healthcare_dataset_id,
            healthcare_fihr_store_id,
        ),
    ),
    # Options: `FULL`, `INCREMENTAL`
    reconciliation_mode=discoveryengine.ImportDocumentsRequest.ReconciliationMode.INCREMENTAL,
)

# Make the request
operation = client.import_documents(request=request)

print(f"Waiting for operation to complete: {operation.operation.name}")
response = operation.result()

# After the operation is complete,
# get information from operation metadata
metadata = discoveryengine.ImportDocumentsMetadata(operation.metadata)

# Handle the response
print(response)
print(metadata)

後續步驟

建立串流資料儲存庫並設定串流匯入

本節說明如何建立串流 Vertex AI Search 資料儲存庫,持續從 Cloud Healthcare API FHIR 儲存庫串流處理變更。

控制台

  1. 前往 Google Cloud 控制台的「AI Applications」頁面。

    AI 應用程式

  2. 在導覽選單中,按一下「資料儲存庫」

  3. 按一下「建立資料儲存庫」

  4. 在「選取資料來源」窗格中,選取「Healthcare API (FHIR)」做為資料來源。
  5. 如要從 FHIR 儲存庫匯入資料,請執行下列任一操作:
    • 從可用 FHIR 儲存庫清單中選取 FHIR 儲存庫:
      1. 展開「FHIR 儲存庫」欄位。
      2. 從清單中選取位於允許位置的資料集,然後選取使用 FHIR R4 版本的 FHIR 儲存庫。
    • 手動輸入 FHIR 儲存庫:
      1. 展開「FHIR 儲存庫」欄位。
      2. 按一下「Enter FHIR store manually」(手動輸入 FHIR 存放區)
      3. 在「FHIR store name」(FHIR 儲存庫名稱) 對話方塊中,輸入 FHIR 儲存庫的完整名稱,格式如下:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. 按一下 [儲存]
  6. 在「同步」部分,選取下列任一選項。 資料儲存庫建立後即無法變更這項選擇。
    • 一次性:執行一次性批次資料匯入作業。如要進一步瞭解如何進行增量匯入,請參閱「重新整理醫療保健資料」。
    • 串流:執行近乎即時的串流資料匯入作業。如要串流資料,您必須建立資料連接器,這是一種資料儲存庫。如要使用 REST API 設定串流資料存放區,請與客戶工程師聯絡。
  7. 在「這項資料的結構定義是什麼?」部分,選取下列其中一個選項:
    • Google 預先定義的結構定義:保留 Google 定義的結構定義設定,例如可建立索引、可搜尋及可擷取,適用於支援的 FHIR 資源和元素。選取這個選項後,您就無法在建立資料儲存庫後更新結構定義。如要在建立資料儲存庫後變更架構,請選取「自訂架構」選項。
      1. 按一下「繼續」
      2. 在「Your data store name」(資料儲存庫名稱) 欄位中,輸入資料儲存庫的名稱。
      3. 點選「建立」
      4. 您建立的資料儲存庫會列在「資料儲存庫」頁面。

    • 自訂結構定義:定義自己的結構定義設定,例如支援的 FHIR 資源和元素的索引、搜尋和擷取功能。如要設定可設定的結構定義,請與客戶工程師聯絡。
      1. 按一下「繼續」
      2. 查看結構定義、展開每個欄位,然後編輯欄位設定。
      3. 按一下「新增欄位」,在支援的 FHIR 資源中新增欄位。您無法移除 Google 定義結構定義中提供的欄位。
      4. 按一下「繼續」
      5. 在「Your data connector name」(資料連接器名稱) 欄位中,輸入資料連接器的名稱。
      6. 點選「建立」
      7. 您建立的資料連接器會列在「資料儲存庫」頁面。 來源 FHIR 存放區會新增為資料連接器中的實體。

  8. 按一下「繼續」

REST

  1. 建立資料連接器來設定串流。

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/us:setUpDataConnector" \
    -d ' {
      "collectionId": "COLLECTION_ID",
      "collectionDisplayName": "COLLECTION_NAME",
      "dataConnector": {
      "dataSource": "gcp_fhir",
      "params": {
          "instance_uri": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID"
        },
        "entities": [
          {
            "entityName": "FHIR_STORE_NAME"
            "healthcareFhirConfig": {
              "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE,
              "enableStaticIndexingForBatchIngestion": STATIC_INDEXING_TRUE|FALSE
            }
          }
        ],
        "syncMode": "STREAMING"
      }
    }'
    

    更改下列內容:

    • PROJECT_ID:您的 Google Cloud 專案 ID。
    • COLLECTION_ID:要將 FHIR R4 資料串流至的集合 ID。
    • COLLECTION_NAME:要將 FHIR R4 資料串流至的集合名稱。
    • SOURCE_PROJECT_ID:包含 Cloud Healthcare API 資料集和 FHIR 儲存庫的 Google Cloud 專案 ID。
    • CLOUD_HEALTHCARE_DATASET_ID: 包含來源 FHIR 儲存庫的 Cloud Healthcare API 資料集 ID。
    • CLOUD_HEALTHCARE_DATASET_LOCATION: 包含來源 FHIR 儲存庫的 Cloud Healthcare API 資料集位置。
    • :Cloud Healthcare API FHIR R4 存放區的 ID。FHIR_STORE_ID
    • CONFIGURABLE_SCHEMA_TRUE|FALSE:設為 true 時的布林值,可讓您使用 schema.update 方法設定資料儲存庫結構定義。
    • STATIC_INDEXING_TRUE|FALSE:布林值,設為 true 時,您就能以較高的索引配額匯入歷史資料。如果您預期搜尋應用程式會遇到較高的資料量,這項功能就很有用。不過,個別記錄的編列索引時間較長。Google 強烈建議您將這個欄位設為 true
    • 如果成功建立集合,資料連接器就會新增至 Google Cloud 控制台「資料儲存庫」頁面的資料儲存庫清單。
    • 建立的資料連接器包含一個實體,該實體的名稱與您串流資料的 FHIR R4 存放區相同。

後續步驟

驗證資料儲存庫建立作業和 FHIR 資料匯入作業

這項工作會說明如何確認資料儲存庫是否已成功建立,以及 FHIR 資料是否已成功匯入資料儲存庫。

  • 在 Google Cloud 控制台中:選取資料儲存庫並驗證詳細資料。
  • 透過 REST API:
    1. 使用 dataStores.get 方法取得醫療照護資料儲存庫詳細資料。
    2. 使用 operations.get 方法取得匯入作業的詳細資料。

如要驗證資料存放區建立和資料匯入作業,請完成下列步驟。

控制台

  1. 前往 Google Cloud 控制台的「AI Applications」頁面。

    AI 應用程式

  2. 在導覽選單中,按一下「資料儲存庫」

    「資料儲存庫」頁面會顯示專案中的資料儲存庫清單及其詳細資料。 Google Cloud

  3. 確認您建立的資料儲存庫或資料連接器是否位於資料儲存庫清單中。在資料儲存庫清單中,串流資料的資料連接器會包含與 Cloud Healthcare API FHIR 儲存庫同名的資料儲存庫。

  4. 選取資料儲存庫或資料連接器,然後驗證詳細資料。

    • 資料儲存庫:
      • 摘要表格會列出下列詳細資料:
        • 資料儲存庫 ID、類型和地區。
        • 文件數量,表示匯入的 FHIR 資源數量。
        • 上次匯入文件時的時間戳記。
        • (選用) 按一下「查看詳細資料」,即可查看文件匯入詳細資料,例如匯入成功、部分成功或失敗的詳細資料。
      • 「文件」分頁會以分頁表格列出匯入的 FHIR 資源的資源 ID 和資源類型。您可以篩選這個表格,確認特定資源是否已匯入。
      • 「活動」分頁會列出文件匯入詳細資料,例如匯入成功、部分成功或失敗的詳細資料。
    • 資料連接器:
      • 摘要表格會列出下列詳細資料:
        • 集合 ID、類型和地區。
        • 已連結應用程式的名稱。
        • 連接器的狀態,可以是「有效」或「已暫停」。
      • 「實體」表格會顯示資料連接器中的實體。 實體名稱是來源 FHIR 存放區名稱。實體的 ID 是資料連接器 ID,並附加來源 FHIR 儲存庫名稱。
        • 按一下實體名稱即可查看詳細資料。由於實體是資料連接器中的資料儲存庫例項,因此實體詳細資料與資料儲存庫詳細資料相同。
  5. 在「結構定義」分頁中,查看支援的 FHIR 資源和元素屬性。按一下「編輯」即可設定結構定義。

REST

  1. 確認資料儲存庫已建立完成。

    curl -X GET -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
     "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID"
    

    更改下列內容:

    • PROJECT_ID:您的 Google Cloud 專案 ID。
    • DATA_STORE_ID:Vertex AI Search 資料儲存庫的 ID。
  2. 確認 FHIR 資料匯入作業是否完成。

    curl -X GET \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/operations/IMPORT_OPERATION_ID"
    

    更改下列內容:

    • PROJECT_ID:您的 Google Cloud 專案 ID。
    • DATA_STORE_ID:Vertex AI Search 資料儲存庫的 ID。
    • IMPORT_OPERATION_ID:呼叫 import 方法時傳回的長時間執行作業 ID

後續步驟