本頁面提供 Google Cloud 詞彙表。如要查看所有詞彙,請按這裡。
A
加速器晶片
這類專用硬體元件旨在執行深度學習演算法所需的重要運算。
與一般用途 CPU 相比,加速器晶片 (簡稱加速器) 可大幅提升訓練和推論工作的速度和效率。非常適合訓練神經網路,以及類似的運算密集型工作。
加速器晶片的例子包括:
- Google 的 Tensor Processing Unit (TPU),具備專用硬體,可進行深度學習。
- NVIDIA 的 GPU 最初是為圖形處理而設計,但可啟用平行處理,大幅提升處理速度。
B
批次推論
對分成較小子集 (「批次」) 的多個未標記範例進行推論預測的程序。
批次推論可運用加速器晶片的平行處理功能。也就是說,多個加速器可以同時對不同批次的未標記樣本推斷預測結果,大幅增加每秒的推斷次數。
詳情請參閱機器學習速成課程中的「正式版機器學習系統:靜態與動態推論」。
C
Cloud TPU
專門設計的硬體加速器,用於加快 Google Cloud 上的機器學習工作負載。
D
裝置
這個詞彙有兩種可能的定義:
- 可執行 TensorFlow 工作階段的硬體類別,包括 CPU、GPU 和 TPU。
- 在加速器晶片 (GPU 或 TPU) 上訓練機器學習模型時,系統中實際操控張量和嵌入的部分。裝置搭載加速器晶片,相較之下,主機通常在 CPU 上執行。
H
主機
在加速器晶片 (GPU 或 TPU) 上訓練 ML 模型時,系統中負責控制下列兩項作業的部分:
- 程式碼的整體流程。
- 輸入管道的擷取和轉換作業。
主機通常在 CPU 上執行,而不是在加速器晶片上執行;裝置會在加速器晶片上操控張量。
M
網格
在機器學習平行程式設計中,這個詞彙與將資料和模型指派給 TPU 晶片,以及定義這些值如何分片或複製有關。
「網格」一詞有多種含意,可能指下列任一項目:
- TPU 晶片的實體配置。
- 抽象邏輯建構體,用於將資料和模型對應至 TPU 晶片。
無論是哪種情況,網格都會指定為形狀。
日
資料分割
訓練集或模型的邏輯劃分。通常,某些程序會將範例或參數分成 (通常) 大小相等的區塊,藉此建立分片。然後將每個分片指派給不同的機器。
模型分割稱為「模型平行處理」;資料分割稱為「資料平行處理」。
T
Tensor Processing Unit (TPU)
特殊應用積體電路 (ASIC),可提升機器學習工作負載的效能。這些 ASIC 會以多個 TPU 晶片的形式部署在 TPU 裝置上。
TPU
TPU 晶片
可程式化線性代數加速器,搭載晶片內高頻寬記憶體,專為機器學習工作負載最佳化。TPU 裝置上部署了多個 TPU 晶片。
TPU 裝置
印刷電路板 (PCB),內含多個 TPU 晶片、高頻寬網路介面和系統冷卻硬體。
TPU 節點
Google Cloud 上的 TPU 資源,具有特定 TPU 類型。TPU 節點會從對等互連虛擬私有雲網路連線至虛擬私有雲網路。TPU 節點是 Cloud TPU API 中定義的資源。
TPU Pod
Google 資料中心內的TPU 裝置特定配置。TPU Pod 中的所有裝置都會透過專用高速網路互相連線。TPU Pod 是特定 TPU 版本可用的最大TPU 裝置配置。
TPU 資源
您在 Google Cloud 上建立、管理或使用的 TPU 實體。舉例來說,TPU 節點和 TPU 類型都是 TPU 資源。
TPU 配量
TPU 配量是 TPU Pod 中 TPU 裝置的一小部分。TPU 配量中的所有裝置都會透過專用高速網路互相連線。
TPU 類型
一或多個 TPU 裝置的設定,並搭配特定 TPU 硬體版本。在 Google Cloud 上建立 TPU 節點時,您會選取 TPU 類型。舉例來說,v2-8
TPU 類型是具有 8 個核心的單一 TPU v2 裝置。v3-2048
TPU 類型有 256 部聯網 TPU v3 裝置,總共有 2048 個核心。TPU 類型是Cloud TPU API 中定義的資源。
TPU 工作站
在主機上執行的程序,可在 TPU 裝置上執行機器學習程式。