本頁面提供 Google Cloud 專有名詞。如要查看所有詞彙表術語,請按這裡。
A
加速器晶片
一類專門的硬體元件,專門用於執行深度學習演算法所需的重要運算。
與通用 CPU 相比,加速器晶片 (或簡稱「加速器」) 可大幅提升訓練和推論工作速度和效率。非常適合訓練神經網路和類似的運算密集型工作。
加速器晶片的例子包括:
- Google 的 Tensor Processing Unit (TPU),內建專用深度學習硬體。
- NVIDIA 的 GPU 雖然最初是為了圖形處理而設計,但可支援平行處理,因此可大幅提升處理速度。
B
批次推論
針對多個未標示的範例進行預測,並將其分割成較小的子集 (「批次」),然後推論預測結果的程序。
批次推論可運用加速器晶片的平行處理功能。也就是說,多個加速器可以同時針對不同批次的未標註範例進行預測推論,大幅提高每秒推論次數。
如需更多資訊,請參閱機器學習速成課程中的「正式版 ML 系統:靜態與動態推論」。
C
Cloud TPU
專門的硬體加速器,旨在加快 Google Cloud 上的機器學習工作負載。
D
裝置
超載的字詞,可能有以下兩種定義:
- 可執行 TensorFlow 工作階段的硬體類別,包括 CPU、GPU 和 TPU。
- 在加速器晶片 (GPU 或 TPU) 上訓練機器學習模型時,系統會實際操作張量和嵌入。裝置會使用加速器晶片運作。相較之下,主機通常會在 CPU 上執行。
H
主機
在加速器晶片 (GPU 或 TPU) 上訓練 ML 模型時,系統會控制下列兩者:
- 程式碼的整體流程。
- 擷取及轉換輸入管道。
主機通常會在 CPU 上執行,而不是在加速器晶片上執行;裝置會在加速器晶片上操控張量。
M
網格
在機器學習並行程式設計中,這個術語與將資料和模型指派給 TPU 晶片有關,並定義這些值的分割或複製方式。
Mesh 是個超載的術語,可指下列任一項:
- TPU 晶片的實體配置。
- 用於將資料和模型對應至 TPU 晶片的抽象邏輯結構。
無論是哪種情況,都會將網格指定為 shape。
S
資料分割
訓練集或模型的邏輯區隔。通常,某些程序會透過將示例或參數劃分為 (通常) 大小相等的區塊,來建立分片。然後將每個分割區指派給不同的機器。
分割模型稱為「模型平行處理」;分割資料則稱為「資料平行處理」。
T
Tensor Processing Unit (TPU)
特殊應用積體電路 (ASIC),可最佳化機器學習工作負載的效能。這些 ASIC 會部署為 TPU 裝置上的多個 TPU 晶片。
TPU
TPU 晶片
可程式設計的線性代數加速器,內建高頻寬記憶體,可針對機器學習工作負載進行最佳化。多個 TPU 晶片會部署在 TPU 裝置上。
TPU 裝置
印刷電路板 (PCB),內含多個 TPU 晶片、高頻寬網路介面和系統散熱硬體。
TPU 主機
在主機上執行的中央協調程序,可將資料、結果、程式、效能和系統健康狀況資訊傳送至 TPU worker。TPU 主機也會管理 TPU 裝置的設定和關閉作業。
TPU 節點
Google Cloud 上的 TPU 資源,具有特定的 TPU 類型。TPU 節點會從對等互連網路連線至您的虛擬私有雲網路。TPU 節點是 Cloud TPU API 中定義的資源。
TPU Pod
Google 資料中心中 TPU 裝置的特定配置。TPU Pod 中的所有裝置都會透過專用高速網路互相連線。TPU Pod 是特定 TPU 版本可用的最大 TPU 裝置配置。
TPU 資源
您在 Google Cloud 上建立、管理或使用的 TPU 實體。舉例來說,TPU 節點和 TPU 類型都是 TPU 資源。
TPU 配量
TPU 配量是 TPU Pod 中 TPU 裝置的一部分。TPU 配量中的所有裝置都會透過專用高速網路互相連線。
TPU 類型
一或多部 TPU 裝置的配置,搭配特定 TPU 硬體版本。在 Google Cloud 上建立 TPU 節點時,您必須選取 TPU 類型。舉例來說,v2-8
TPU 類型是單一 TPU v2 裝置,具有 8 個核心。v3-2048
TPU 類型有 256 個網路連線 TPU v3 裝置,總共 2048 個核心。TPU 類型是 Cloud TPU API 中定義的資源。
TPU 工作站
在主機上執行的程序,並在 TPU 裝置上執行機器學習程式。