本頁面列出 Google Cloud 詞彙表條款。如需所有詞彙表字詞,請按這裡。
A
加速器晶片
特殊硬體元件類別,用於執行深度學習演算法所需的關鍵運算。
相較於一般用途的 CPU,加速器晶片 (簡稱「加速器」) 可大幅提高訓練和推論工作的速度與效率。非常適合用於訓練類神經網路和類似的運算密集型工作。
加速器晶片範例包括:
- 搭載深度學習專用硬體的 Google Tensor Processing Unit (TPU)。
- NVIDIA 的 GPU 最初專為圖形處理設計,但專為平行處理而設計,可大幅提高處理速度。
B
批次推論
對多個未加上標籤的範例進行「推論」預測的程序,並分為較小的子集 (「批次」)。
批次推論功能可以使用加速器晶片的平行處理功能。也就是說,多個加速器可以同時針對不同批次的無標籤範例進行預測,從而大幅增加每秒的推論數量。
C
Cloud TPU
專門用於加快 Google Cloud 機器學習工作負載的硬體加速器
D
裝置
超載字詞,可能的定義有兩種:
- 可執行 TensorFlow 工作階段的硬體類別,包括 CPU、GPU 和 TPU。
- 在加速器晶片 (GPU 或 TPU) 上訓練機器學習模型時,系統是系統實際操控張量和嵌入的系統部分。裝置搭載加速器晶片。相反地,host 通常是在 CPU 上執行。
H
主辦方
在加速器晶片 (GPU 或 TPU) 上訓練機器學習模型時,系統是控制以下兩者的系統部分:
- 程式碼的整體流程。
- 輸入管道的擷取和轉換。
主機通常在 CPU 上執行,而非加速晶片;裝置會操控加速器晶片上的「張量」。
M
網格
在機器學習平行程式設計中,一個字詞與將資料和模型指派給 TPU 晶片,並定義這些值的資料分割或複製方式。
網格是一種超載字詞,可能代表以下任一種情況:
- TPU 晶片的實體版面配置。
- 用於將資料和模型對應至 TPU 晶片的抽象邏輯結構。
不論是哪一種情況,網格都會指定為形狀。
六
資料分割
訓練集或模型的邏輯劃分。一般而言,部分程序會透過將範例或參數分成 (通常) 大小相同的區塊來建立資料分割。然後將每個資料分割指派給不同的機器。
資料分割模型稱為「模型平行處理」;資料分割稱為「資料平行處理」。
T
Tensor Processing Unit (TPU)
應用程式專用的整合式電路 (ASIC),可將機器學習工作負載的效能最佳化。這些 ASIC 會在 TPU 裝置上部署為多個 TPU 晶片。
TPU
TPU 晶片
可程式線性代數加速器搭配晶片高頻寬記憶體,最適合機器學習工作負載。多個 TPU 晶片部署在 TPU 裝置上。
TPU 裝置
一台列印電路板 (PCB),具備多個 TPU 晶片、高頻寬網路介面和系統冷氣硬體。
TPU 主要執行個體
在主機上執行的中央協調程序,可傳送和接收資料、結果、計畫、效能和系統健康狀態資訊給 TPU 工作站。TPU 主要執行個體也會管理 TPU 裝置的設定和關閉作業。
TPU 節點
Google Cloud 中採用特定 TPU 類型的 TPU 資源。TPU 節點會從對等互連虛擬私有雲網路連線至虛擬私有雲網路。TPU 節點是 Cloud TPU API 中定義的資源。
TPU Pod
Google 資料中心內的 TPU 裝置特定設定。TPU Pod 中的所有裝置都會透過專屬的高速網路相互連線。TPU Pod 是適用於特定 TPU 版本的 TPU 裝置最大的配置。
TPU 資源
您在 Google Cloud 上建立、管理或使用的 TPU 實體。舉例來說,TPU 節點和 TPU 類型即為 TPU 資源。
TPU 配量
TPU 配量是 TPU Pod 中 TPU 裝置的一小部分。TPU 配量中的所有裝置都是透過專屬的高速網路相互連線。
TPU 類型
採用特定 TPU 硬體版本的一或多個 TPU 裝置設定。在 Google Cloud 中建立 TPU 節點時,您需要選取 TPU 類型。舉例來說,v2-8
TPU 類型就是具有 8 個核心的單一 TPU v2 裝置。一個 v3-2048
TPU 類型有 256 部連網 TPU v3 裝置,總共有 2,048 個核心。TPU 類型是在 Cloud TPU API 中定義的資源。
TPU 工作站
在主體機器上執行的程序,在 TPU 裝置上執行機器學習程式。