機器學習詞彙表:TensorFlow

本頁面包含 TensorFlow 詞彙表。如要查看所有詞彙表術語,請按這裡

B

批次推論

#TensorFlow
#GoogleCloud

針對多個未標示的範例進行預測,並將其分割成較小的子集 (「批次」),然後推論預測結果的程序。

批次推論可運用加速器晶片的平行處理功能。也就是說,多個加速器可以同時針對不同批次的未標註範例進行預測推論,大幅提高每秒推論次數。

如需更多資訊,請參閱機器學習速成課程中的「正式版 ML 系統:靜態與動態推論」。

C

Cloud TPU

#TensorFlow
#GoogleCloud

專門的硬體加速器,旨在加快 Google Cloud 上的機器學習工作負載。

D

Dataset API (tf.data)

#TensorFlow

高階 TensorFlow API,可用於讀取資料,並將資料轉換為機器學習演算法所需的格式。tf.data.Dataset 物件代表一組元素,其中每個元素都包含一或多個 Tensortf.data.Iterator 物件可讓您存取 Dataset 的元素。

裝置

#TensorFlow
#GoogleCloud

超載的字詞,可能有以下兩種定義:

  1. 可執行 TensorFlow 工作階段的硬體類別,包括 CPU、GPU 和 TPU
  2. 加速器晶片 (GPU 或 TPU) 上訓練機器學習模型時,系統會實際操作張量嵌入。裝置會使用加速器晶片運作。相較之下,主機通常會在 CPU 上執行。

E

急切執行

#TensorFlow

在這個 TensorFlow 程式設計環境中,運算會立即執行。相反地,在圖執行中呼叫的作業必須經過明確評估後才會執行。急就執行是一種指示式介面,類似於大多數程式設計語言中的程式碼。一般來說,急切執行程式比圖表執行程式更容易偵錯。

Estimator

#TensorFlow

已淘汰的 TensorFlow API。請改用 tf.keras 而非 Estimator。

F

特徵工程

#fundamentals
#TensorFlow

這項程序包含下列步驟:

  1. 判斷哪些特徵可能對訓練模型有所助益。
  2. 將資料集的原始資料轉換為這些特徵的效能版本。

舉例來說,您可能會判斷 temperature 可能是實用的功能。接著,您可以嘗試使用分桶,以便針對模型可從不同 temperature 範圍學習的內容進行最佳化。

特徵工程有時也稱為特徵擷取特徵化

如需更多資訊,請參閱機器學習速成課程中的「數值資料:模型如何使用特徵向量擷取資料」。

特徵規格

#TensorFlow

說明從 tf.Example 通訊協定緩衝區中擷取特徵資料所需的資訊。由於 tf.Example 通訊協定緩衝區只是資料容器,因此您必須指定下列項目:

  • 要擷取的資料 (也就是功能的鍵)
  • 資料類型 (例如 float 或 int)
  • 長度 (固定或可變)

G

圖表

#TensorFlow

在 TensorFlow 中,為運算規格。圖中的節點代表作業。邊緣是指向的,代表將運算結果 (Tensor) 做為運算元傳遞至其他運算。使用 TensorBoard 將圖表視覺化。

圖表執行

#TensorFlow

TensorFlow 程式設計環境,其中程式會先建構圖表,然後執行該圖表的全部或部分。圖形執行是 TensorFlow 1.x 的預設執行模式。

請參閱提前執行

H

主機

#TensorFlow
#GoogleCloud

加速器晶片 (GPU 或 TPU) 上訓練 ML 模型時,系統會控制下列兩者:

  • 程式碼的整體流程。
  • 擷取及轉換輸入管道。

主機通常會在 CPU 上執行,而不是在加速器晶片上執行;裝置會在加速器晶片上操控張量

L

Layers API (tf.layers)

#TensorFlow

這個 TensorFlow API 可用於建構深度神經網路,並將其做為層的組合。您可以使用 Layers API 建構不同類型的圖層,例如:

  • tf.layers.Dense 適用於全連接層
  • tf.layers.Conv2D 代表卷積層。

Layers API 遵循 Keras 層 API 慣例。也就是說,除了前置字串不同之外,Layers API 中的所有函式都與 Keras Layers API 中的對應函式具有相同的名稱和簽章。

M

網格

#TensorFlow
#GoogleCloud

在機器學習並行程式設計中,這個術語與將資料和模型指派給 TPU 晶片有關,並定義這些值的分割或複製方式。

Mesh 是個超載的術語,可指下列任一項:

  • TPU 晶片的實體配置。
  • 用於將資料和模型對應至 TPU 晶片的抽象邏輯結構。

無論是哪種情況,都會將網格指定為 shape

指標

#TensorFlow

您重視的統計資料。

目標是機器學習系統嘗試最佳化的指標。

節點 (TensorFlow 圖形)

#TensorFlow

TensorFlow 圖形中的運算。

O

作業 (op)

#TensorFlow

在 TensorFlow 中,任何建立、操控或銷毀 Tensor 的程序。舉例來說,矩陣相乘是一種作業,會將兩個張量做為輸入,並產生一個張量做為輸出。

P

參數伺服器 (PS)

#TensorFlow

這項工作會在分散式設定中追蹤模型的參數

Q

佇列

#TensorFlow

實作佇列資料結構的 TensorFlow 運算。通常用於 I/O。

R

秩 (張量)

#TensorFlow

Tensor中的維度數量。舉例來說,標量具有 0 個秩,向量具有 1 個秩,矩陣則具有 2 個秩。

請勿與排名 (序數)混淆。

根目錄

#TensorFlow

您指定用於代管多個模型的 TensorFlow 暫停點和事件檔案子目錄的目錄。

S

SavedModel

#TensorFlow

這是儲存及復原 TensorFlow 模型的建議格式。SavedModel 是一種語言中立且可復原的序列化格式,可讓高階系統和工具產生、使用及轉換 TensorFlow 模型。

如需完整詳細資料,請參閱 TensorFlow 程式設計師指南的「儲存和還原」一節。

平價

#TensorFlow

負責儲存模型檢查點的 TensorFlow 物件

資料分割

#TensorFlow
#GoogleCloud

訓練集模型的邏輯區隔。通常,某些程序會透過將示例參數劃分為 (通常) 大小相等的區塊,來建立分片。然後將每個分割區指派給不同的機器。

分割模型稱為「模型平行處理」;分割資料則稱為「資料平行處理」。

摘要

#TensorFlow

在 TensorFlow 中,在特定步驟計算的值或值集,通常用於在訓練期間追蹤模型指標。

T

Tensor

#TensorFlow

TensorFlow 程式中的主要資料結構。張量是 N 維 (N 可能非常大) 的資料結構,最常見的張量是標量、向量或矩陣。張量的元素可儲存整數、浮點或字串值。

TensorBoard

#TensorFlow

資訊主頁會顯示在執行一或多個 TensorFlow 程式期間儲存的摘要。

TensorFlow

#TensorFlow

大型分散式機器學習平台。這個詞也指 TensorFlow 堆疊中的基礎 API 層,可支援資料流圖上的一般運算。

雖然 TensorFlow 主要用於機器學習,但您也可以使用 TensorFlow 處理需要使用資料流圖進行數值運算的非機器學習工作。

TensorFlow Playground

#TensorFlow

這項程式可視覺化顯示不同的超參數如何影響模型 (主要是神經網路) 訓練。前往 http://playground.tensorflow.org 試用 TensorFlow Playground。

TensorFlow Serving

#TensorFlow

在實際工作環境中部署經過訓練的模型。

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

特殊應用積體電路 (ASIC),可最佳化機器學習工作負載的效能。這些 ASIC 會部署為 TPU 裝置上的多個 TPU 晶片

張量的秩

#TensorFlow

請參閱秩 (張量)

張量形狀

#TensorFlow

Tensor在不同維度中包含的元素數量。舉例來說,[5, 10] 張量的形狀是一維 5,另一維是 10。

張量大小

#TensorFlow

Tensor包含的標量總數。例如,[5, 10] 張量的大小為 50。

tf.Example

#TensorFlow

標準 通訊協定緩衝區,用於描述機器學習模型訓練或推論的輸入資料。

tf.keras

#TensorFlow

已整合至 TensorFlowKeras 實作項目。

TPU

#TensorFlow
#GoogleCloud

Tensor Processing Unit 的縮寫。

TPU 晶片

#TensorFlow
#GoogleCloud

可程式設計的線性代數加速器,內建高頻寬記憶體,可針對機器學習工作負載進行最佳化。多個 TPU 晶片會部署在 TPU 裝置上。

TPU 裝置

#TensorFlow
#GoogleCloud

印刷電路板 (PCB),內含多個 TPU 晶片、高頻寬網路介面和系統散熱硬體。

TPU 主機

#TensorFlow
#GoogleCloud

在主機上執行的中央協調程序,可將資料、結果、程式、效能和系統健康狀況資訊傳送至 TPU worker。TPU 主機也會管理 TPU 裝置的設定和關閉作業。

TPU 節點

#TensorFlow
#GoogleCloud

Google Cloud 上的 TPU 資源,具有特定的 TPU 類型。TPU 節點會從對等互連網路連線至您的虛擬私有雲網路。TPU 節點是 Cloud TPU API 中定義的資源。

TPU Pod

#TensorFlow
#GoogleCloud

Google 資料中心中 TPU 裝置的特定配置。TPU Pod 中的所有裝置都會透過專用高速網路互相連線。TPU Pod 是特定 TPU 版本可用的最大 TPU 裝置配置。

TPU 資源

#TensorFlow
#GoogleCloud

您在 Google Cloud 上建立、管理或使用的 TPU 實體。舉例來說,TPU 節點TPU 類型都是 TPU 資源。

TPU 配量

#TensorFlow
#GoogleCloud

TPU 配量是 TPU PodTPU 裝置的一部分。TPU 配量中的所有裝置都會透過專用高速網路互相連線。

TPU 類型

#TensorFlow
#GoogleCloud

一或多部 TPU 裝置的配置,搭配特定 TPU 硬體版本。在 Google Cloud 上建立 TPU 節點時,您必須選取 TPU 類型。舉例來說,v2-8 TPU 類型是單一 TPU v2 裝置,具有 8 個核心。v3-2048 TPU 類型有 256 個網路連線 TPU v3 裝置,總共 2048 個核心。TPU 類型是 Cloud TPU API 中定義的資源。

TPU 工作站

#TensorFlow
#GoogleCloud

在主機上執行的程序,並在 TPU 裝置上執行機器學習程式。