机器学习术语表:TensorFlow

本页面包含 TensorFlow 术语表。如需了解所有术语表术语,请点击此处

B

批处理推断

#TensorFlow
#GoogleCloud

对多个无标签示例进行推断预测的过程分为多个较小的子集(“批次”)。

批量推断可以利用加速器芯片的并行功能。也就是说,多个加速器可以同时推断不同批次的无标签预测结果,从而显著提高每秒的推理次数。

C

Cloud TPU

#TensorFlow
#GoogleCloud

一种专用的硬件加速器,旨在加速 Google Cloud Platform 上的机器学习工作负载。

D

数据集 API (tf.data)

#TensorFlow

一种高层级 TensorFlow API,用于读取数据并将其转换为机器学习算法所需的形式。tf.data.Dataset 对象表示一系列元素,其中每个元素都包含一个或多个张量tf.data.Iterator 对象提供对 Dataset 元素的访问权限。

如需详细了解 Dataset API,请参阅 TensorFlow 编程人员指南中的 tf.data:构建 TensorFlow 输入流水线

设备

#TensorFlow
#GoogleCloud

一个重名术语,具有以下两个可能的定义:

  1. 一类可运行 TensorFlow 会话的硬件,包括 CPU、GPU 和 TPU
  2. 加速器芯片(GPU 或 TPU)上训练机器学习模型时,系统中实际操纵张量嵌入的部分。设备在加速器芯片上运行。而主机通常在 CPU 上运行。

E

即刻执行

#TensorFlow

一种 TensorFlow 编程环境,操作可在其中立即运行。相比之下,在执行图表中调用的操作在获得明确评估之前不会运行。Eager Execution 是命令式接口,就像大多数编程语言中的代码一样。急于执行的程序通常比图表执行程序更容易调试。

Estimator

#TensorFlow

一个已弃用的 TensorFlow API。使用 tf.keras,而不是 Estimator。

F

特征工程

#fundamentals
#TensorFlow

此过程涉及以下步骤:

  1. 确定哪些特征在训练模型时可能有用。
  2. 将数据集中的原始数据转换为这些功能的高效版本。

例如,您可能会认为 temperature 可能是一个实用功能。然后,您可以尝试使用分桶,以优化模型可以从不同 temperature 范围学习的内容。

特征工程有时称为特征提取

功能规格

#TensorFlow

描述从 tf.Example 协议缓冲区提取特征数据所需的信息。由于 tf.Example 协议缓冲区只是数据的容器,因此您必须指定以下内容:

  • 要提取的数据(即特征的键)
  • 数据类型(例如 float 或 int)
  • 长度(固定或可变)

G

图表

#TensorFlow

在 TensorFlow 中,这是一种计算规范。图中的节点表示操作。边缘具有方向,表示将一项操作的结果(一个 Tensor)作为运算数传递给另一个操作。使用 TensorBoard 直观呈现图表。

图表执行

#TensorFlow

一种 TensorFlow 编程环境,在该环境中,程序先构建一个,然后执行该图的全部或部分。图执行是 TensorFlow 1.x 中的默认执行模式。

即刻执行相对。

H

主播

#TensorFlow
#GoogleCloud

加速器芯片(GPU 或 TPU)上训练机器学习模型时,系统中控制这两个方面的部分:

  • 代码的总体流程。
  • 提取和转换输入流水线。

主机通常在 CPU(而非加速器芯片)上运行;设备操纵加速器芯片上的张量

L

Layers API (tf.layers)

#TensorFlow

一种 TensorFlow API,用于构建深度神经网络作为层的组合。利用 Layers API,您可以构建不同类型的,例如:

Layers API 遵循 Keras 层 API 惯例。 也就是说,除了前缀不同之外,Layers API 中的所有函数都与 Keras Layer API 中的对应函数具有相同的名称和签名。

M

网格

#TensorFlow
#GoogleCloud

在机器学习并行编程中,一个术语是将数据和模型分配给 TPU 芯片,以及定义如何分片或复制这些值。

网格是一个过载术语,可能表示以下两者之一:

  • TPU 芯片的物理布局。
  • 一种抽象逻辑结构,用于将数据和模型映射到 TPU 芯片。

无论是哪种情况,网格均指定为形状

指标

#TensorFlow

您所关注的统计信息。

目标是机器学习系统尝试优化的指标。

节点(TensorFlow 图)

#TensorFlow

TensorFlow 中的运算。

O

操作(操作)

#TensorFlow

在 TensorFlow 中,任何创建、操纵或销毁 Tensor 的过程。例如,矩阵乘法是一项将两个张量作为输入并生成一个张量作为输出的操作。

P

参数服务器 (PS)

#TensorFlow

一种作业,负责在分布式环境中跟踪模型的参数

Q

队列

#TensorFlow

一种实现队列数据结构的 TensorFlow 操作。通常用于 I/O。

(右)

排名 (Tensor)

#TensorFlow

张量中的维度数。例如,标量的排名为 0,矢量的排名为 1,矩阵的排名为 2。

请勿与排名(序数)混淆。

根目录

#TensorFlow

您指定的目录,用于托管多个模型的 TensorFlow 检查点和事件文件的子目录。

S

SavedModel

#TensorFlow

用于保存和恢复 TensorFlow 模型的推荐格式。SavedModel 是一种中性且可恢复的序列化格式,使较高级别的系统和工具可以生成、使用和转换 TensorFlow 模型。

如需了解完整详情,请参阅《TensorFlow 编程人员指南》中的保存和恢复一章。

实惠

#TensorFlow

一个 TensorFlow 对象,负责保存模型检查点。

分片

#TensorFlow
#GoogleCloud

训练集模型的逻辑除法。通常,某些进程通过将示例参数划分为(通常)大小相同的数据块来创建分片。然后将每个分片分配给不同的机器。

将模型分片称为模型并行处理;分片数据称为数据并行处理

摘要

#TensorFlow

在 TensorFlow 中,在特定步骤中计算的一个或多个值,通常用于在训练期间跟踪模型指标。

T

张量

#TensorFlow

TensorFlow 程序中的主要数据结构。张量是 N 维(其中 N 可能非常大)数据结构,最常见的是标量、矢量或矩阵。Tensor 的元素可以保存整数值、浮点值或字符串值。

TensorBoard

#TensorFlow

一个信息中心,显示执行一个或多个 TensorFlow 程序期间保存的摘要。

TensorFlow

#TensorFlow

一个大型分布式机器学习平台。该术语还指 TensorFlow 堆栈中的基本 API 层,该层支持对 Dataflow 图进行常规计算。

虽然 TensorFlow 主要用于机器学习,但您也可以针对需要通过数据流图进行数值计算的非机器学习任务使用 TensorFlow。

TensorFlow 园地

#TensorFlow

一款程序,用于直观呈现不同的超参数对模型(主要是神经网络)训练的影响。访问 http://playground.tensorflow.org 来测试 TensorFlow Playground。

TensorFlow Serving

#TensorFlow

一个平台,用于在生产环境中部署训练好的模型。

张量处理单元 (TPU)

#TensorFlow
#GoogleCloud

特定于应用的集成电路 (ASIC),用于优化机器学习工作负载的性能。这些 ASIC 部署为 TPU 设备上的多个 TPU 芯片

Tensor 排名

#TensorFlow

请参阅排名 (Tensor)

张量形状

#TensorFlow

Tensor 在各种维度中包含的元素数量。例如,[5, 10] 张量的形状在一个维度中是 5,在另一个维度中是 10。

张量大小

#TensorFlow

Tensor 包含的标量总数。例如,一个 [5, 10] 张量的大小为 50。

tf.Example

#TensorFlow

一种标准 协议缓冲区,用于描述机器学习模型训练或推断的输入数据。

tf.keras

#TensorFlow

集成到 TensorFlow 中的 Keras 实现。

TPU

#TensorFlow
#GoogleCloud

张量处理单元的缩写。

TPU 芯片

#TensorFlow
#GoogleCloud

具有针对计算机工作负载优化、具有高带宽内存的可编程线性代数加速器。 多个 TPU 芯片部署在 TPU 设备上。

TPU 设备

#TensorFlow
#GoogleCloud

具有多个 TPU 芯片的印刷电路板 (PCB)、高带宽网络接口和系统冷却硬件。

TPU 主实例

#TensorFlow
#GoogleCloud

在宿主机上运行的核心协调过程,用于向 TPU 工作器发送和接收数据、结果、程序、性能和系统运行状况信息。TPU 主实例还会管理 TPU 设备的设置和关停。

TPU 节点

#TensorFlow
#GoogleCloud

具有特定 TPU 类型的 Google Cloud Platform 上的 TPU 资源。TPU 节点从对等 VPC 网络连接到您的 VPC 网络。TPU 节点是在 Cloud TPU API 中定义的资源。

TPU Pod

#TensorFlow
#GoogleCloud

Google 数据中心内 TPU 设备的特定配置。TPU pod 中的所有设备通过专用的高速网络相互连接。TPU Pod 是特定 TPU 版本可用的 TPU 设备的最大配置。

TPU 资源

#TensorFlow
#GoogleCloud

您创建、管理或使用 Google Cloud Platform 上的 TPU 实体。例如,TPU 节点TPU 类型是 TPU 资源。

TPU 切片

#TensorFlow
#GoogleCloud

TPU 切片是 TPU Pod 中的 TPU 设备 的小数部分。TPU 切片中的所有设备通过专用高速网络相互连接。

TPU 类型

#TensorFlow
#GoogleCloud

一个或多个具有特定 TPU 硬件版本的 TPU 设备的配置。在 Google Cloud Platform 上创建 TPU 节点时,请选择 TPU 类型。例如,v2-8 TPU 类型是具有 8 个核心的单个 TPU v2 设备。一个 v3-2048 TPU 类型具有 256 个联网 TPU v3 设备以及总共 2048 个核心。TPU 类型是在 Cloud TPU API 中定义的资源。

TPU 工作器

#TensorFlow
#GoogleCloud

在宿主机上运行并在 TPU 设备上执行机器学习程序的进程。