本頁面包含 TensorFlow 詞彙表。如要查看所有詞彙表術語,請按這裡。
B
批次推論
針對多個未標示的範例進行預測,並將其分割成較小的子集 (「批次」),然後推論預測結果的程序。
批次推論可運用加速器晶片的平行處理功能。也就是說,多個加速器可以同時針對不同批次的未標註範例進行預測推論,大幅提高每秒推論次數。
如需更多資訊,請參閱機器學習速成課程中的「正式版 ML 系統:靜態與動態推論」。
C
Cloud TPU
專門的硬體加速器,旨在加快 Google Cloud 上的機器學習工作負載。
D
Dataset API (tf.data)
高階 TensorFlow API,可用於讀取資料,並將資料轉換為機器學習演算法所需的格式。tf.data.Dataset
物件代表一組元素,其中每個元素都包含一或多個 Tensor。tf.data.Iterator
物件可讓您存取 Dataset
的元素。
裝置
超載的字詞,可能有以下兩種定義:
- 可執行 TensorFlow 工作階段的硬體類別,包括 CPU、GPU 和 TPU。
- 在加速器晶片 (GPU 或 TPU) 上訓練機器學習模型時,系統會實際操作張量和嵌入。裝置會使用加速器晶片運作。相較之下,主機通常會在 CPU 上執行。
E
急切執行
在這個 TensorFlow 程式設計環境中,運算會立即執行。相反地,在圖執行中呼叫的作業必須經過明確評估後才會執行。急就執行是一種指示式介面,類似於大多數程式設計語言中的程式碼。一般來說,急切執行程式比圖表執行程式更容易偵錯。
Estimator
已淘汰的 TensorFlow API。請改用 tf.keras 而非 Estimator。
F
特徵工程
這項程序包含下列步驟:
- 判斷哪些特徵可能對訓練模型有所助益。
- 將資料集的原始資料轉換為這些特徵的效能版本。
舉例來說,您可能會判斷 temperature
可能是實用的功能。接著,您可以嘗試使用分桶,以便針對模型可從不同 temperature
範圍學習的內容進行最佳化。
如需更多資訊,請參閱機器學習速成課程中的「數值資料:模型如何使用特徵向量擷取資料」。
特徵規格
說明從 tf.Example 通訊協定緩衝區中擷取特徵資料所需的資訊。由於 tf.Example 通訊協定緩衝區只是資料容器,因此您必須指定下列項目:
- 要擷取的資料 (也就是功能的鍵)
- 資料類型 (例如 float 或 int)
- 長度 (固定或可變)
G
圖表
在 TensorFlow 中,為運算規格。圖中的節點代表作業。邊緣是指向的,代表將運算結果 (Tensor) 做為運算元傳遞至其他運算。使用 TensorBoard 將圖表視覺化。
圖表執行
TensorFlow 程式設計環境,其中程式會先建構圖表,然後執行該圖表的全部或部分。圖形執行是 TensorFlow 1.x 的預設執行模式。
請參閱提前執行。
H
主機
在加速器晶片 (GPU 或 TPU) 上訓練 ML 模型時,系統會控制下列兩者:
- 程式碼的整體流程。
- 擷取及轉換輸入管道。
主機通常會在 CPU 上執行,而不是在加速器晶片上執行;裝置會在加速器晶片上操控張量。
L
Layers API (tf.layers)
這個 TensorFlow API 可用於建構深度神經網路,並將其做為層的組合。您可以使用 Layers API 建構不同類型的圖層,例如:
tf.layers.Dense
適用於全連接層。tf.layers.Conv2D
代表卷積層。
Layers API 遵循 Keras 層 API 慣例。也就是說,除了前置字串不同之外,Layers API 中的所有函式都與 Keras Layers API 中的對應函式具有相同的名稱和簽章。
M
網格
在機器學習並行程式設計中,這個術語與將資料和模型指派給 TPU 晶片有關,並定義這些值的分割或複製方式。
Mesh 是個超載的術語,可指下列任一項:
- TPU 晶片的實體配置。
- 用於將資料和模型對應至 TPU 晶片的抽象邏輯結構。
無論是哪種情況,都會將網格指定為 shape。
指標
您重視的統計資料。
目標是機器學習系統嘗試最佳化的指標。
否
節點 (TensorFlow 圖形)
TensorFlow 圖形中的運算。
O
作業 (op)
在 TensorFlow 中,任何建立、操控或銷毀 Tensor 的程序。舉例來說,矩陣相乘是一種作業,會將兩個張量做為輸入,並產生一個張量做為輸出。
P
參數伺服器 (PS)
這項工作會在分散式設定中追蹤模型的參數。
Q
佇列
實作佇列資料結構的 TensorFlow 運算。通常用於 I/O。
R
秩 (張量)
Tensor中的維度數量。舉例來說,標量具有 0 個秩,向量具有 1 個秩,矩陣則具有 2 個秩。
請勿與排名 (序數)混淆。
根目錄
您指定用於代管多個模型的 TensorFlow 暫停點和事件檔案子目錄的目錄。
S
SavedModel
這是儲存及復原 TensorFlow 模型的建議格式。SavedModel 是一種語言中立且可復原的序列化格式,可讓高階系統和工具產生、使用及轉換 TensorFlow 模型。
如需完整詳細資料,請參閱 TensorFlow 程式設計師指南的「儲存和還原」一節。
平價
負責儲存模型檢查點的 TensorFlow 物件。
資料分割
訓練集或模型的邏輯區隔。通常,某些程序會透過將示例或參數劃分為 (通常) 大小相等的區塊,來建立分片。然後將每個分割區指派給不同的機器。
分割模型稱為「模型平行處理」;分割資料則稱為「資料平行處理」。
摘要
在 TensorFlow 中,在特定步驟計算的值或值集,通常用於在訓練期間追蹤模型指標。
T
Tensor
TensorFlow 程式中的主要資料結構。張量是 N 維 (N 可能非常大) 的資料結構,最常見的張量是標量、向量或矩陣。張量的元素可儲存整數、浮點或字串值。
TensorBoard
資訊主頁會顯示在執行一或多個 TensorFlow 程式期間儲存的摘要。
TensorFlow
大型分散式機器學習平台。這個詞也指 TensorFlow 堆疊中的基礎 API 層,可支援資料流圖上的一般運算。
雖然 TensorFlow 主要用於機器學習,但您也可以使用 TensorFlow 處理需要使用資料流圖進行數值運算的非機器學習工作。
TensorFlow Playground
這項程式可視覺化顯示不同的超參數如何影響模型 (主要是神經網路) 訓練。前往 http://playground.tensorflow.org 試用 TensorFlow Playground。
TensorFlow Serving
在實際工作環境中部署經過訓練的模型。
Tensor Processing Unit (TPU)
特殊應用積體電路 (ASIC),可最佳化機器學習工作負載的效能。這些 ASIC 會部署為 TPU 裝置上的多個 TPU 晶片。
張量的秩
請參閱秩 (張量)。
張量形狀
Tensor在不同維度中包含的元素數量。舉例來說,[5, 10]
張量的形狀是一維 5,另一維是 10。
張量大小
Tensor包含的標量總數。例如,[5, 10]
張量的大小為 50。
tf.Example
標準 通訊協定緩衝區,用於描述機器學習模型訓練或推論的輸入資料。
tf.keras
已整合至 TensorFlow 的 Keras 實作項目。
TPU
TPU 晶片
可程式設計的線性代數加速器,內建高頻寬記憶體,可針對機器學習工作負載進行最佳化。多個 TPU 晶片會部署在 TPU 裝置上。
TPU 裝置
印刷電路板 (PCB),內含多個 TPU 晶片、高頻寬網路介面和系統散熱硬體。
TPU 主機
在主機上執行的中央協調程序,可將資料、結果、程式、效能和系統健康狀況資訊傳送至 TPU worker。TPU 主機也會管理 TPU 裝置的設定和關閉作業。
TPU 節點
Google Cloud 上的 TPU 資源,具有特定的 TPU 類型。TPU 節點會從對等互連網路連線至您的虛擬私有雲網路。TPU 節點是 Cloud TPU API 中定義的資源。
TPU Pod
Google 資料中心中 TPU 裝置的特定配置。TPU Pod 中的所有裝置都會透過專用高速網路互相連線。TPU Pod 是特定 TPU 版本可用的最大 TPU 裝置配置。
TPU 資源
您在 Google Cloud 上建立、管理或使用的 TPU 實體。舉例來說,TPU 節點和 TPU 類型都是 TPU 資源。
TPU 配量
TPU 配量是 TPU Pod 中 TPU 裝置的一部分。TPU 配量中的所有裝置都會透過專用高速網路互相連線。
TPU 類型
一或多部 TPU 裝置的配置,搭配特定 TPU 硬體版本。在 Google Cloud 上建立 TPU 節點時,您必須選取 TPU 類型。舉例來說,v2-8
TPU 類型是單一 TPU v2 裝置,具有 8 個核心。v3-2048
TPU 類型有 256 個網路連線 TPU v3 裝置,總共 2048 個核心。TPU 類型是 Cloud TPU API 中定義的資源。
TPU 工作站
在主機上執行的程序,並在 TPU 裝置上執行機器學習程式。