1. 1. 必要條件
預計完成時間:1 到 2 小時
執行本程式碼研究室有 2 種模式:本機測試或匯總服務。本機測試模式需要使用本機電腦和 Chrome 瀏覽器 (無須建立/使用 Google Cloud 資源)。「匯總服務」模式需要在 Google Cloud 上完整部署匯總服務。
如要在任一模式下執行本程式碼研究室,您必須具備一些先決條件。系統會根據各個條件標示需要執行「本機測試」或「匯總服務」。
1.1. 完成註冊和認證 (匯總服務)
如要使用 Privacy Sandbox API,請務必完成 Chrome 和 Android 的註冊和認證程序。
1.2. 啟用廣告隱私權 API (本機測試與匯總服務)
由於我們將使用 Privacy Sandbox,建議您啟用 Privacy Sandbox Ads API。
透過瀏覽器前往 chrome://settings/adPrivacy
,並啟用所有廣告隱私權 API。
此外,也請確認已啟用第三方 Cookie。
自 chrome://settings/cookies
起,確認「未封鎖」第三方 Cookie。視 Chrome 版本而定,您可能會看到不同的設定選單,但可接受的設定如下:
- 「封鎖所有第三方 Cookie」= 已停用
- 「封鎖第三方 Cookie」= 已停用
- 「在無痕模式中封鎖第三方 Cookie」= 已啟用
1.3. 下載本機測試工具 (本機測試)
本機測試將需要下載本機測試工具。這項工具會從未加密的偵錯報表中產生摘要報表。
本機測試工具可從 GitHub 中的 Cloud 函式 JAR 封存下載。路徑應命名為 LocalTestingTool_{version}.jar
。
1.4.確保已安裝 JAVA JRE (本機測試與匯總服務)
開啟「終端機」並使用 java --version
檢查機器是否已安裝 Java 或 OpenJDK。
如果尚未安裝,請前往 Java 網站或 openJDK 網站下載並安裝。
1.5. 下載 aggregatable_report_converter (本機測試與匯總服務)
您可以從 Privacy Sandbox 示範 GitHub 存放區下載 aggregatable_report_converter 副本。GitHub 存放區提及使用 IntelliJ 或 Eclipse,但兩者皆非。如果您不是使用這些工具,請改為將 JAR 檔案下載至本機環境。
1.6. 設定 GCP 環境 (匯總服務)
「匯總服務」需要使用雲端供應商的「受信任的執行環境」。在本程式碼研究室中,匯總服務會部署在 GCP 中,但系統也支援 AWS。
按照 GitHub 中的部署操作說明設定 gcloud CLI、下載 Terraform 二進位檔和模組,以及為匯總服務建立 GCP 資源。
部署作業操作說明中的重要步驟:
- 設定「gcloud」容器中的 CLI 和 Terraform。
- 建立 Cloud Storage 值區以儲存 Terraform 狀態。
- 下載依附元件。
- 更新
adtech_setup.auto.tfvars
並執行adtech_setup
Terraform。如需adtech_setup.auto.tfvars
檔案範例,請參閱附錄。請記下在此處建立的資料值區名稱:在程式碼研究室中,這個名稱會用來儲存我們建立的檔案。 - 更新
dev.auto.tfvars
、模擬部署服務帳戶,並執行dev
Terraform。如需dev.auto.tfvars
檔案範例,請參閱附錄。 - 部署作業完成後,請從 Terraform 輸出內容擷取
frontend_service_cloudfunction_url
,以便在後續步驟中向匯總服務發出要求。
1.7.完成匯總服務新手上路 (匯總服務)
「匯總服務」需要新手上路流程的協調人員才能使用這項服務。提供回報網站和其他資訊,選取「Google Cloud」,然後輸入服務帳戶地址,完成匯總服務新手上路表單。這個服務帳戶會按照先前的先決條件 (1.6.設定 GCP 環境)。(提示:如果您使用提供的預設名稱,這個服務帳戶的開頭會是「worker-sa@」)。
新手上路流程最多可能需要 2 週才能完成。
1.8.決定呼叫 API 端點 (匯總服務) 的方法
本程式碼研究室提供 2 種呼叫匯總服務 API 端點的選項:cURL 和 Postman。從終端機呼叫 API 端點時,使用 cURL 可以更輕鬆快速的方式,因為只需進行少量設定且不需其他軟體。不過,如果您不想使用 cURL,可以改用 Postman 執行並儲存 API 要求供日後使用。
第 3.2 節。「匯總服務使用情形」報表會提供同時使用這兩種選項的詳細操作說明。您現在可以預覽這些項目,確定要使用哪種方法。如果您選取 Postman,請執行以下初始設定。
1.8.1.設定工作區
註冊 Postman 帳戶。申請完成後,系統會自動為您建立工作區,
如果不是為您建立工作區,請前往「工作區」上方導覽項目並選取「建立工作區」
選取「空白工作區」,然後按一下下一步並命名為「GCP Privacy Sandbox」。選取「個人」並點選「建立」
將這兩個 JSON 檔案匯入「我的工作區」透過「匯入」工具按鈕。
這樣就能建立「GCP Privacy Sandbox」以及 createJob
和 getJob
HTTP 要求
1.8.2.設定授權
按一下「GCP Privacy Sandbox」然後前往 [Authorization] (授權) 頁面分頁。
使用「不記名權杖」方法。在終端機環境中執行下列指令,並複製輸出內容。
gcloud auth print-identity-token
接著將這個權杖值貼到「Token」欄位:
1.8.3.設定環境
前往「Environment Quick Look」面板:
按一下「編輯」並更新「Current Value」的「environment」、「region」和「cloud-function-id」:
您可以保留「request-id」目前暫時留空,稍後會填入說明其他欄位則使用 frontend_service_cloudfunction_url
的值,也就是在 Prerequisite 1.6 中完成 Terraform 部署後傳回的值。網址格式如下:https://
2. 2. 本機測試程式碼研究室
預計完成時間:不到 1 小時
您可以使用電腦上的本機測試工具執行匯總作業,並使用未加密的偵錯報表產生摘要報表。事前準備:請確認您已完成所有標示「本機測試」的必要條件。
程式碼研究室步驟
步驟 2.1:觸發報表:觸發私人匯總報表以收集報表。
步驟 2.2:建立偵錯 AVRO 報表:將收集的 JSON 報表轉換為 AVRO 格式報表。這個步驟與廣告技術從 API 報表端點收集報表,並將 JSON 報表轉換為 AVRO 格式報表時類似。
步驟 2.3:擷取值區金鑰:值區金鑰是由廣告技術人員設計。在本程式碼研究室中,由於值區已預先定義,因此請按照所提供的值區金鑰擷取值區金鑰。
步驟 2.4:建立輸出網域 AVRO:擷取值區金鑰後,建立輸出網域 AVRO 檔案。
步驟 2.5:建立摘要報表:使用本機測試工具,即可在本地環境中建立摘要報表。
步驟 2.6:查看摘要報表:查看本機測試工具建立的摘要報表。
2.1. 觸發報表
如要觸發私人匯總報表,可以使用 Privacy Sandbox 示範網站 (https://privacy-sandbox-demos-news.dev/?env=gcp) 或自己的網站 (例如 https://adtechexample.com)。如果您使用自己的網站,而且尚未完成註冊,認證和匯總服務新手上路流程,您必須使用 Chrome 旗標和 CLI 切換鈕。
在這個示範中,我們將使用 Privacy Sandbox 示範網站。透過連結前往網站;接著,您可以前往 chrome://private-aggregation-internals
查看報表:
傳送到 {reporting-origin}/.well-known/private-aggregation/debug/report-shared-storage
端點的報表也會顯示在「Report Body」中「Chrome 內部」頁面上顯示報告的其中一環
這裡可能有許多報表,但在這個程式碼研究室中,請使用偵錯端點產生的可匯總報表。「報表網址」會包含「/debug/」和「報表內文」的 aggregation_coordinator_origin field
將包含以下網址:https://publickeyservice.msmt.gcp.privacysandboxservices.com。
2.2. 建立偵錯匯總報表
複製「報表內文」中的報表後建立 JSON 檔,chrome://private-aggregation-internals
並在 privacy-sandbox-demos/tools/aggregatable_report_converter/out/artifacts/aggregatable_report_converter_jar
資料夾 (在以 Prerequisite 1.5 下載的存放區內) 建立 JSON 檔案。
在這個範例中,我們使用的是 Linux,但您也可以使用任何文字編輯器
vim report.json
將報表貼入 report.json
,然後儲存檔案。
設定完成後,請使用 aggregatable_report_converter.jar
協助建立偵錯可匯總報表。即可在目前的目錄中建立名為 report.avro
的可匯總報表。
java -jar aggregatable_report_converter.jar \
--request_type convertToAvro \
--input_file report.json \
--debug
2.3. 從報表中擷取值區金鑰
如要建立 output_domain.avro
檔案,您需要可以從報表中擷取的值區鍵。
值區金鑰是由廣告技術人員設計。不過,在這個情況下,Privacy Sandbox 示範網站會建立值區金鑰。這個網站的私人匯總作業處於偵錯模式,因此可以使用「檢舉內容」中的 debug_cleartext_payload
取得值區金鑰。
請直接複製報表內文中的 debug_cleartext_payload
。
開啟 goo.gle/ags-payload-decoder,並在「輸入內容」中貼上 debug_cleartext_payload
並點選 [解碼]
頁面會傳回值區金鑰的十進位值。以下是值區金鑰的範例。
2.4. 建立輸出網域 AVRO
現在您已取得值區金鑰,接下來讓我們在同一個資料夾中建立 output_domain.avro
。請務必將值區金鑰替換為您擷取的值區金鑰。
java -jar aggregatable_report_converter.jar \
--request_type createDomainAvro \
--bucket_key <bucket key>
指令碼會在目前的資料夾中建立 output_domain.avro
檔案。
2.5.使用本機測試工具建立摘要報表
我們會使用在先決條件 1.3 中下載的 LocalTestingTool_{version}.jar
,使用下列指令建立摘要報表。將 {version}
替換為下載的版本。請記得將 LocalTestingTool_{version}.jar
移至目前的目錄,或新增參照目前位置的相對路徑。
java -jar LocalTestingTool_{version}.jar \
--input_data_avro_file report.avro \
--domain_avro_file output_domain.avro \
--output_directory .
執行指令後,畫面應會顯示如下的內容。完成後,系統會建立「output.avro
」報表。
2.6.查看摘要報表
建立的摘要報表為 AVRO 格式。如要讀取此內容,您需要從 AVRO 轉換為 JSON 格式。在理想情況下,廣告技術應撰寫程式碼,將 AVRO 報表轉換回 JSON。
我們會使用 aggregatable_report_converter.jar
將 AVRO 報表轉換回 JSON。
java -jar aggregatable_report_converter.jar \
--request_type convertToJson \
--input_file output.avro
這樣就會傳回類似下方的報告。以及建立在同一個目錄中的報表「output.json
」。
程式碼研究室完成!
摘要:您已收集偵錯報表、建構輸出網域檔案,並透過本機測試工具產生摘要報告,這項工具會模擬匯總服務的匯總行為。
後續步驟:您已經測試過本機測試工具,現在可以嘗試相同的練習,並在您的環境中即時部署匯總服務。請重新查看先決條件,確認您已設定「匯總服務」的所有設定模式,然後繼續進行步驟 3。
3. 3. 匯總服務程式碼研究室
預計完成時間:1 小時
開始操作前,請確認已完成標示「匯總服務」的所有必備條件。
程式碼研究室步驟
步驟 3.1:建立匯總服務輸入資料:建立匯總服務批次的匯總服務報告。
- 步驟 3.1.1:觸發報告
- 步驟 3.1.2:收集可匯總報表
- 步驟 3.1.3:將報表轉換為 AVRO
- 步驟 3.1.4:建立 output_domain AVRO
- 步驟 3.1.5:將報表移至 Cloud Storage 值區
步驟 3.2:匯總服務使用情形:使用匯總服務 API 建立摘要報表及查看摘要報表。
- 步驟 3.2.1:使用「
createJob
」端點進行批次處理 - 步驟 3.2.2:使用
getJob
端點擷取批次狀態 - 步驟 3.2.3:查看摘要報表
3.1. 建立匯總服務輸入內容
繼續建立 AVRO 報表,以批次傳送至匯總服務。這些步驟中的殼層指令可以在 GCP 的 Cloud Shell 內執行 (只要從必備條件中的依附元件複製到 Cloud Shell 環境) 或本機執行環境中即可。
3.1.1. 觸發報告
透過連結前往網站;接著,您可以前往 chrome://private-aggregation-internals
查看報表:
傳送到 {reporting-origin}/.well-known/private-aggregation/debug/report-shared-storage
端點的報表也會顯示在「Report Body」中「Chrome 內部」頁面上顯示報告的其中一環
這裡可能有許多報表,但在這個程式碼研究室中,請使用偵錯端點產生的可匯總報表。「報表網址」會包含「/debug/」和「報表內文」的 aggregation_coordinator_origin field
將包含以下網址:https://publickeyservice.msmt.gcp.privacysandboxservices.com。
3.1.2. 收集可匯總報表
從對應 API 的 .well-known 端點收集可匯總報表。
- 私人匯總:
{reporting-origin}/.well-known/private-aggregation/report-shared-storage
- 歸因報表 - 摘要報表:
{reporting-origin}/.well-known/attribution-reporting/report-aggregate-attribution
在本程式碼研究室中,我們會手動執行報表收集作業。在實際工作環境中,廣告技術應透過程式輔助方式收集並轉換報表。
將 JSON 報表複製到「報表內文」chrome://private-aggregation-internals
起。
在這個範例中,我們使用的是 vim,因為我們使用的是 Linux。但您也可以使用任何文字編輯器
vim report.json
將報表貼入 report.json
,然後儲存檔案。
3.1.3. 將報表轉換為 AVRO
從 .well-known
端點收到的報表會採用 JSON 格式,必須轉換為 AVRO 報表格式。取得 JSON 報表後,請前往 report.json
的儲存位置,並使用 aggregatable_report_converter.jar
建立偵錯可匯總報表。即可在目前的目錄中建立名為 report.avro
的可匯總報表。
java -jar aggregatable_report_converter.jar \
--request_type convertToAvro \
--input_file report.json
3.1.4. 建立 output_domain AVRO
如要建立 output_domain.avro
檔案,您需要可以從報表中擷取的值區鍵。
值區金鑰是由廣告技術人員設計。不過,在這個情況下,Privacy Sandbox 示範網站會建立值區金鑰。這個網站的私人匯總作業處於偵錯模式,因此可以使用「檢舉內容」中的 debug_cleartext_payload
取得值區金鑰。
請直接複製報表內文中的 debug_cleartext_payload
。
開啟 goo.gle/ags-payload-decoder,並在「輸入內容」中貼上 debug_cleartext_payload
並點選 [解碼]
頁面會傳回值區金鑰的十進位值。以下是值區金鑰的範例。
現在您已取得值區金鑰,接下來讓我們在同一個資料夾中建立 output_domain.avro
。請務必將值區金鑰替換為您擷取的值區金鑰。
java -jar aggregatable_report_converter.jar \
--request_type createDomainAvro \
--bucket_key <bucket key>
指令碼會在目前的資料夾中建立 output_domain.avro
檔案。
3.1.5.將報表移至 Cloud Storage 值區
建立 AVRO 報表和輸出網域後,請繼續將報表和輸出網域移至 Cloud Storage 中的值區 (先前在事前準備 1.6 中所述)。
如果您已在本機環境中設定 gcloud CLI,請使用下列指令,將檔案複製到對應的資料夾。
gcloud storage cp report.avro gs://<bucket_name>/reports/
gcloud storage cp output_domain.avro gs://<bucket_name>/output_domain/
或者,您也可以手動將檔案上傳至值區。建立「報表」資料夾然後將 report.avro
檔案上傳到這裡。建立「output_domains」資料夾然後將 output_domain.avro
檔案上傳到這裡。
3.2. 匯總服務使用情形
回顧先前步驟 1.8 中,您選取了 cURL 或 Postman,向匯總服務端點發出 API 要求。以下提供這兩種選項的操作說明。
如果工作因發生錯誤而失敗,請參閱 GitHub 的疑難排解說明文件,進一步瞭解如何繼續操作。
3.2.1. 使用「createJob
」端點進行批次處理
按照下方的 cURL 或 Postman 操作說明建立工作。
cURL
在「終端機」中建立要求主體檔案 (body.json
),然後貼到下方。請務必更新預留位置值。如要進一步瞭解每個欄位代表的意義,請參閱 API 說明文件。
{
"job_request_id": "<job_request_id>",
"input_data_blob_prefix": "<report_folder>/<report_name>.avro",
"input_data_bucket_name": "<bucket_name>",
"output_data_blob_prefix": "<output_folder>/<summary_report_prefix>",
"output_data_bucket_name": "<bucket_name>",
"job_parameters": {
"output_domain_blob_prefix": "<output_domain_folder>/<output_domain>.avro",
"output_domain_bucket_name": "<bucket_name>",
"attribution_report_to": "<reporting origin of report>",
"reporting_site": "<domain of reporting origin(s) of report>", // Only one of attribution_report_to or reporting_site is required as of v2.7.0
"report_error_threshold_percentage": "10",
"debug_run": "true"
}
}
請執行以下要求。將 cURL 要求網址中的預留位置替換為 frontend_service_cloudfunction_url
的值,該值會在 Prerequisite 1.6 中成功完成 Terraform 部署作業後輸出。
curl -H "Authorization: Bearer $(gcloud auth print-identity-token)" \
-d @body.json \
https://<environment>-<region>-frontend-service-<cloud-function-id>-uc.a.run.app/v1alpha/createJob
匯總服務接受要求後,您應該會收到 HTTP 202 回應。其他可能的回應代碼請參閱 API 規格說明。
Postman
針對 createJob
端點,必須提供要求主體,才能向匯總服務提供可匯總報表、輸出網域和摘要報表的位置和檔案名稱。
前往 createJob
要求的「主體」分頁:
取代所提供 JSON 內的預留位置。如要進一步瞭解這些欄位及其代表的意義,請參閱 API 說明文件。
{
"job_request_id": "<job_request_id>",
"input_data_blob_prefix": "<report_folder>/<report_name>.avro",
"input_data_bucket_name": "<bucket_name>",
"output_data_blob_prefix": "<output_folder>/<summary_report_prefix>",
"output_data_bucket_name": "<bucket_name>",
"job_parameters": {
"output_domain_blob_prefix": "<output_domain_folder>/<output_domain>.avro",
"output_domain_bucket_name": "<bucket_name>",
"attribution_report_to": "<reporting origin of report>",
"reporting_site": "<domain of reporting origin(s) of report>", // Only one of attribution_report_to or reporting_site is required as of v2.7.0
"report_error_threshold_percentage": "10",
"debug_run": "true"
}
}
「傳送」createJob
API 要求:
回應代碼會顯示在網頁的下半部:
匯總服務接受要求後,您應該會收到 HTTP 202 回應。其他可能的回應代碼請參閱 API 規格說明。
3.2.2。使用 getJob
端點擷取批次狀態
請按照以下 cURL 或 Postman 操作說明取得工作。
cURL
在終端機中執行以下要求。將網址中的預留位置替換成 frontend_service_cloudfunction_url
的值 (也就是您用來回應 createJob
要求的網址)。在「job_request_id」部分,請使用您透過 createJob
端點建立的工作所含值。
curl -H "Authorization: Bearer $(gcloud auth print-identity-token)" \
https://<environment>-<region>-frontend-service-<cloud-function-id>-uc.a.run.app/v1alpha/getJob?job_request_id=<job_request_id>
結果應會傳回 HTTP 狀態為 200 的工作要求狀態。要求「內文」包含 job_status
、return_message
和 error_messages
等必要資訊 (如果工作發生錯誤)。
Postman
如要查看工作要求的狀態,您可以使用 getJob
端點。在「參數」中部分,將 job_request_id
值更新為在 createJob
要求中傳送的 job_request_id
。getJob
「傳送」getJob
要求:
結果應會傳回 HTTP 狀態為 200 的工作要求狀態。要求「內文」包含 job_status
、return_message
和 error_messages
等必要資訊 (如果工作發生錯誤)。
3.2.3.查看摘要報表
當您在輸出的 Cloud Storage 值區中收到摘要報表後,可以將這份報表下載到本機環境。摘要報表採用 AVRO 格式,且可轉換回 JSON。您可以使用 aggregatable_report_converter.jar
使用下列指令來讀取報表。
java -jar aggregatable_report_converter.jar \
--request_type convertToJson \
--input_file <summary_report_avro>
此方法會傳回類似下方內容的每個值區鍵匯總值的 JSON 檔案。
如果您的 createJob
要求包含 debug_run
為 true,您將可在位於 output_data_blob_prefix
的偵錯資料夾中收到摘要報表。報表為 AVRO 格式,您可以使用上述指令將報表轉換成 JSON。
報表中包含值區鍵、未雜訊的指標,以及為了形成摘要報表而加入的未雜訊指標。報告內容與下方類似。
註解中也包含「in_reports」和/或「in_domain」也就是說:
- in_reports - 範圍鍵會列在可匯總報表中。
- in_domain - 值區金鑰位於 output_domain AVRO 檔案內。
程式碼研究室完成!
摘要:您已在自己的雲端環境中部署匯總服務、收集偵錯報表、建構輸出網域檔案、將這些檔案儲存在 Cloud Storage 值區中,並成功執行工作!
後續步驟:請在環境中繼續使用匯總服務,或是按照步驟 4 中的清除操作說明刪除剛建立的雲端資源。
4. 4. 清除
如要刪除透過 Terraform 為匯總服務建立的資源,請在 adtech_setup
和 dev
(或其他環境) 資料夾中使用 destroy 指令:
$ cd <repository_root>/terraform/gcp/environments/adtech_setup
$ terraform destroy
$ cd <repository_root>/terraform/gcp/environments/dev
$ terraform destroy
如要刪除存放可匯總報表和摘要報表的 Cloud Storage 值區,請按照下列步驟操作:
$ gcloud storage buckets delete gs://my-bucket
您也可以選擇將 Chrome Cookie 設定從必要條件 1.2 還原為先前的狀態。
5. 5. 附錄
adtech_setup.auto.tfvars
檔案範例
/**
* Copyright 2023 Google LLC
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
project = "my-project-id"
# Required to generate identity token for access of Adtech Services API endpoints
service_account_token_creator_list = ["user:me@email.com"]
# Uncomment the below line if you like Terraform to create an Artifact registry repository
# for self-build container artifacts. "artifact_repo_location" defaults to "us".
artifact_repo_name = "my-ags-artifacts"
# Note: Either one of [1] or [2] must be uncommented.
# [1] Uncomment below lines if you like Terraform grant needed permissions to
# pre-existing service accounts
# deploy_service_account_email = "<YourDeployServiceAccountName>@<ProjectID>.iam.gserviceaccount.com"
# worker_service_account_email = "<YourWorkerServiceAccountName>@<ProjectID>.iam.gserviceaccount.com"
# [2] Uncomment below lines if you like Terraform to create service accounts
# and needed permissions granted e.g "deploy-sa" or "worker-sa"
deploy_service_account_name = "deploy-sa"
worker_service_account_name = "worker-sa"
# Uncomment the below line if you want Terraform to create the
# below bucket. "data_bucket_location" defaults to "us".
data_bucket_name = "my-ags-data"
# Uncomment the below lines if you want to specify service account customer role names
# deploy_sa_role_name = "<YourDeploySACustomRole>"
# worker_sa_role_name = "<YourWorkerSACustomRole>"
dev.auto.tfvars
檔案範例
/**
* Copyright 2022 Google LLC
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
# Example values required by job_service.tf
#
# These values should be modified for each of your environments.
region = "us-central1"
region_zone = "us-central1-c"
project_id = "my-project-id"
environment = "operator-demo-env"
# Co-locate your Cloud Spanner instance configuration with the region above.
# https://cloud.google.com/spanner/docs/instance-configurations#regional-configurations
spanner_instance_config = "regional-us-central1"
# Adjust this based on the job load you expect for your deployment.
# Monitor the spanner instance utilization to decide on scale out / scale in.
# https://console.cloud.google.com/spanner/instances
spanner_processing_units = 100
# Uncomment the line below at your own risk to disable Spanner database protection.
# This needs to be set to false and applied before destroying all resources is possible.
spanner_database_deletion_protection = false
instance_type = "n2d-standard-8" # 8 cores, 32GiB
# Container image location that packages the job service application
# If not set otherwise, uncomment and edit the line below:
#worker_image = "<location>/<project>/<repository>/<image>:<tag or digest>"
# Service account created and onboarded for worker
user_provided_worker_sa_email = "worker-sa@my-project-id.iam.gserviceaccount.com"
min_worker_instances = 1
max_worker_instances = 20