機器學習詞彙表:Google Cloud

本頁面提供 Google Cloud 專有名詞。如要查看所有詞彙表術語,請按這裡

A

加速器晶片

#GoogleCloud

一類專門的硬體元件,專門用於執行深度學習演算法所需的重要運算。

與通用 CPU 相比,加速器晶片 (或簡稱「加速器」) 可大幅提升訓練和推論工作速度和效率。非常適合訓練神經網路和類似的運算密集型工作。

加速器晶片的例子包括:

  • Google 的 Tensor Processing Unit (TPU),內建專用深度學習硬體。
  • NVIDIA 的 GPU 雖然最初是為了圖形處理而設計,但可支援平行處理,因此可大幅提升處理速度。

B

批次推論

#TensorFlow
#GoogleCloud

針對多個未標示的範例進行預測,並將其分割成較小的子集 (「批次」),然後推論預測結果的程序。

批次推論可運用加速器晶片的平行處理功能。也就是說,多個加速器可以同時針對不同批次的未標註範例進行預測推論,大幅提高每秒推論次數。

如需更多資訊,請參閱機器學習速成課程中的「正式版 ML 系統:靜態與動態推論」。

C

Cloud TPU

#TensorFlow
#GoogleCloud

專門的硬體加速器,旨在加快 Google Cloud 上的機器學習工作負載。

D

裝置

#TensorFlow
#GoogleCloud

超載的字詞,可能有以下兩種定義:

  1. 可執行 TensorFlow 工作階段的硬體類別,包括 CPU、GPU 和 TPU
  2. 加速器晶片 (GPU 或 TPU) 上訓練機器學習模型時,系統會實際操作張量嵌入。裝置會使用加速器晶片運作。相較之下,主機通常會在 CPU 上執行。

H

主機

#TensorFlow
#GoogleCloud

加速器晶片 (GPU 或 TPU) 上訓練 ML 模型時,系統會控制下列兩者:

  • 程式碼的整體流程。
  • 擷取及轉換輸入管道。

主機通常會在 CPU 上執行,而不是在加速器晶片上執行;裝置會在加速器晶片上操控張量

M

網格

#TensorFlow
#GoogleCloud

在機器學習並行程式設計中,這個術語與將資料和模型指派給 TPU 晶片有關,並定義這些值的分割或複製方式。

Mesh 是個超載的術語,可指下列任一項:

  • TPU 晶片的實體配置。
  • 用於將資料和模型對應至 TPU 晶片的抽象邏輯結構。

無論是哪種情況,都會將網格指定為 shape

S

資料分割

#TensorFlow
#GoogleCloud

訓練集模型的邏輯區隔。通常,某些程序會透過將示例參數劃分為 (通常) 大小相等的區塊,來建立分片。然後將每個分割區指派給不同的機器。

分割模型稱為「模型平行處理」;分割資料則稱為「資料平行處理」。

T

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

特殊應用積體電路 (ASIC),可最佳化機器學習工作負載的效能。這些 ASIC 會部署為 TPU 裝置上的多個 TPU 晶片

TPU

#TensorFlow
#GoogleCloud

Tensor Processing Unit 的縮寫。

TPU 晶片

#TensorFlow
#GoogleCloud

可程式設計的線性代數加速器,內建高頻寬記憶體,可針對機器學習工作負載進行最佳化。多個 TPU 晶片會部署在 TPU 裝置上。

TPU 裝置

#TensorFlow
#GoogleCloud

印刷電路板 (PCB),內含多個 TPU 晶片、高頻寬網路介面和系統散熱硬體。

TPU 主機

#TensorFlow
#GoogleCloud

在主機上執行的中央協調程序,可將資料、結果、程式、效能和系統健康狀況資訊傳送至 TPU worker。TPU 主機也會管理 TPU 裝置的設定和關閉作業。

TPU 節點

#TensorFlow
#GoogleCloud

Google Cloud 上的 TPU 資源,具有特定的 TPU 類型。TPU 節點會從對等互連網路連線至您的虛擬私有雲網路。TPU 節點是 Cloud TPU API 中定義的資源。

TPU Pod

#TensorFlow
#GoogleCloud

Google 資料中心中 TPU 裝置的特定配置。TPU Pod 中的所有裝置都會透過專用高速網路互相連線。TPU Pod 是特定 TPU 版本可用的最大 TPU 裝置配置。

TPU 資源

#TensorFlow
#GoogleCloud

您在 Google Cloud 上建立、管理或使用的 TPU 實體。舉例來說,TPU 節點TPU 類型都是 TPU 資源。

TPU 配量

#TensorFlow
#GoogleCloud

TPU 配量是 TPU PodTPU 裝置的一部分。TPU 配量中的所有裝置都會透過專用高速網路互相連線。

TPU 類型

#TensorFlow
#GoogleCloud

一或多部 TPU 裝置的配置,搭配特定 TPU 硬體版本。在 Google Cloud 上建立 TPU 節點時,您必須選取 TPU 類型。舉例來說,v2-8 TPU 類型是單一 TPU v2 裝置,具有 8 個核心。v3-2048 TPU 類型有 256 個網路連線 TPU v3 裝置,總共 2048 個核心。TPU 類型是 Cloud TPU API 中定義的資源。

TPU 工作站

#TensorFlow
#GoogleCloud

在主機上執行的程序,並在 TPU 裝置上執行機器學習程式。