機器學習詞彙表:Google Cloud

本頁面提供 Google Cloud 詞彙表。如要查看所有詞彙,請按這裡

A

加速器晶片

#GoogleCloud

這類專用硬體元件旨在執行深度學習演算法所需的重要運算。

與一般用途 CPU 相比,加速器晶片 (簡稱加速器) 可大幅提升訓練和推論工作的速度和效率。非常適合訓練神經網路,以及類似的運算密集型工作。

加速器晶片的例子包括:

  • Google 的 Tensor Processing Unit (TPU),具備專用硬體,可進行深度學習。
  • NVIDIA 的 GPU 最初是為圖形處理而設計,但可啟用平行處理,大幅提升處理速度。

B

批次推論

#GoogleCloud

對分成較小子集 (「批次」) 的多個未標記範例進行推論預測的程序。

批次推論可運用加速器晶片的平行處理功能。也就是說,多個加速器可以同時對不同批次的未標記樣本推斷預測結果,大幅增加每秒的推斷次數。

詳情請參閱機器學習速成課程中的「正式版機器學習系統:靜態與動態推論」。

C

Cloud TPU

#TensorFlow
#GoogleCloud

專門設計的硬體加速器,用於加快 Google Cloud 上的機器學習工作負載。

D

裝置

#TensorFlow
#GoogleCloud

這個詞彙有兩種可能的定義:

  1. 可執行 TensorFlow 工作階段的硬體類別,包括 CPU、GPU 和 TPU
  2. 加速器晶片 (GPU 或 TPU) 上訓練機器學習模型時,系統中實際操控張量嵌入的部分。裝置搭載加速器晶片,相較之下,主機通常在 CPU 上執行。

H

主機

#TensorFlow
#GoogleCloud

加速器晶片 (GPU 或 TPU) 上訓練 ML 模型時,系統中負責控制下列兩項作業的部分:

  • 程式碼的整體流程。
  • 輸入管道的擷取和轉換作業。

主機通常在 CPU 上執行,而不是在加速器晶片上執行;裝置會在加速器晶片上操控張量

M

網格

#TensorFlow
#GoogleCloud

在機器學習平行程式設計中,這個詞彙與將資料和模型指派給 TPU 晶片,以及定義這些值如何分片或複製有關。

「網格」一詞有多種含意,可能指下列任一項目:

  • TPU 晶片的實體配置。
  • 抽象邏輯建構體,用於將資料和模型對應至 TPU 晶片。

無論是哪種情況,網格都會指定為形狀

資料分割

#TensorFlow
#GoogleCloud

訓練集模型的邏輯劃分。通常,某些程序會將範例參數分成 (通常) 大小相等的區塊,藉此建立分片。然後將每個分片指派給不同的機器。

模型分割稱為「模型平行處理」;資料分割稱為「資料平行處理」

T

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

特殊應用積體電路 (ASIC),可提升機器學習工作負載的效能。這些 ASIC 會以多個 TPU 晶片的形式部署在 TPU 裝置上。

TPU

#TensorFlow
#GoogleCloud

Tensor Processing Unit 的縮寫。

TPU 晶片

#TensorFlow
#GoogleCloud

可程式化線性代數加速器,搭載晶片內高頻寬記憶體,專為機器學習工作負載最佳化。TPU 裝置上部署了多個 TPU 晶片。

TPU 裝置

#TensorFlow
#GoogleCloud

印刷電路板 (PCB),內含多個 TPU 晶片、高頻寬網路介面和系統冷卻硬體。

TPU 節點

#TensorFlow
#GoogleCloud

Google Cloud 上的 TPU 資源,具有特定 TPU 類型。TPU 節點會從對等互連虛擬私有雲網路連線至虛擬私有雲網路。TPU 節點是 Cloud TPU API 中定義的資源。

TPU Pod

#TensorFlow
#GoogleCloud

Google 資料中心內的TPU 裝置特定配置。TPU Pod 中的所有裝置都會透過專用高速網路互相連線。TPU Pod 是特定 TPU 版本可用的最大TPU 裝置配置。

TPU 資源

#TensorFlow
#GoogleCloud

您在 Google Cloud 上建立、管理或使用的 TPU 實體。舉例來說,TPU 節點TPU 類型都是 TPU 資源。

TPU 配量

#TensorFlow
#GoogleCloud

TPU 配量是 TPU PodTPU 裝置的一小部分。TPU 配量中的所有裝置都會透過專用高速網路互相連線。

TPU 類型

#TensorFlow
#GoogleCloud

一或多個 TPU 裝置的設定,並搭配特定 TPU 硬體版本。在 Google Cloud 上建立 TPU 節點時,您會選取 TPU 類型。舉例來說,v2-8 TPU 類型是具有 8 個核心的單一 TPU v2 裝置。v3-2048 TPU 類型有 256 部聯網 TPU v3 裝置,總共有 2048 個核心。TPU 類型是Cloud TPU API 中定義的資源。

TPU 工作站

#TensorFlow
#GoogleCloud

在主機上執行的程序,可在 TPU 裝置上執行機器學習程式。

V

Vertex

#GoogleCloud
#generativeAI
Google Cloud 的 AI 和機器學習平台。Vertex 提供多種工具和基礎架構,可建構、部署及管理 AI 應用程式,包括存取 Gemini 模型。