本页包含 TensorFlow 术语表中的术语。如需查看所有术语,请点击此处。
C
Cloud TPU
一种专用硬件加速器,旨在加快 Google Cloud 上的机器学习工作负载的处理速度。
D
Dataset API (tf.data)
一种高阶 TensorFlow API,用于读取数据并将其转换为机器学习算法所需的格式。tf.data.Dataset
对象表示一系列元素,其中每个元素都包含一个或多个张量。tf.data.Iterator
对象可用于访问 Dataset
的元素。
设备
一个多含义术语,具有以下两种可能的定义:
- 一类可运行 TensorFlow 会话的硬件,包括 CPU、GPU 和 TPU。
- 在 加速器芯片(GPU 或 TPU)上训练机器学习模型时,实际操控张量和嵌入的系统部分。设备在加速器芯片上运行。相比之下,主机通常在 CPU 上运行。
E
即刻执行
一种 TensorFlow 编程环境,操作可在其中立即运行。相比之下,在图执行中调用的操作在得到明确评估之前不会运行。即刻执行是一种命令式接口,就像大多数编程语言中的代码一样。相比图执行程序,调试即刻执行程序通常要容易得多。
Estimator
已弃用的 TensorFlow API。使用 tf.keras 而不是 Estimator。
F
特征工程
一种流程,包括以下步骤:
- 确定哪些特征可能在训练模型方面非常有用。
- 将数据集中的原始数据转换为这些特征的高效版本。
例如,您可能会认为 temperature
是一项有用的功能。然后,您可以尝试使用分桶来优化模型从不同 temperature
范围中学习的内容。
如需了解详情,请参阅机器学习速成课程中的数值数据:模型如何使用特征向量提取数据。
特征规范
介绍从 tf.Example 协议缓冲区提取特征数据所需的信息。由于 tf.Example 协议缓冲区只是一个数据容器,因此您必须指定以下内容:
- 要提取的数据(即特征的键)
- 数据类型(例如,float 或 int)
- 长度(固定或可变)
G
图表
TensorFlow 中的一种计算规范。图中的节点表示操作。边缘具有方向,表示将某项操作的结果(一个Tensor)作为一个操作数传递给另一项操作。可以使用 TensorBoard 可视化图。
图执行
一种 TensorFlow 编程环境,在该环境中,图执行程序会先构造一个图,然后执行该图的所有部分或某些部分。图执行是 TensorFlow 1.x 中的默认执行模式。
与即刻执行相对。
H
主机
在加速器芯片(GPU 或 TPU)上训练机器学习模型时,控制以下两方面的系统部分:
- 代码的整体流程。
- 输入流水线的提取和转换。
主机通常在 CPU 上运行,而不是在加速器芯片上运行;设备在加速器芯片上处理张量。
L
Layers API (tf.layers)
一种 TensorFlow API,用于以层组合的方式构建深度神经网络。通过 Layers API,您可以构建不同类型的层,例如:
tf.layers.Dense
用于全连接层。tf.layers.Conv2D
,表示卷积层。
Layers API 遵循 Keras Layers API 规范。 也就是说,除了前缀不同之外,Layers API 中的所有函数都具有与 Keras 层 API 中对应的函数相同的名称和签名。
M
网格
在机器学习并行编程中,一个与将数据和模型分配给 TPU 芯片以及定义这些值将如何分片或复制相关的术语。
网格是一个多含义术语,可以理解为下列两种含义之一:
- TPU 芯片的物理布局。
- 一种用于将数据和模型映射到 TPU 芯片的抽象逻辑构造。
无论哪种情况,网格都被指定为形状。
指标
您关心的一项统计数据。
目标是机器学习系统尝试优化的指标。
否
节点(TensorFlow 图)
TensorFlow 图中的操作。
O
操作 (op)
在 TensorFlow 中,任何创建、操纵或销毁Tensor的过程都属于操作。例如,矩阵相乘运算会接受两个张量作为输入,并生成一个张量作为输出。
P
参数服务器 (PS)
一种作业,负责在分布式环境中跟踪模型参数。
Q
队列
一种实现队列数据结构的 TensorFlow 操作。通常用于 I/O。
R
秩(张量)(rank (Tensor))
Tensor中的维数。例如,标量的秩为 0,向量的秩为 1,矩阵的秩为 2。
请勿与排序(序数)混淆。
根目录
您指定的目录,用于托管多个模型的 TensorFlow 检查点和事件文件的子目录。
S
SavedModel
保存和恢复 TensorFlow 模型时建议使用的格式。SavedModel 是一种独立于语言且可恢复的序列化格式,使较高级别的系统和工具可以创建、使用和转换 TensorFlow 模型。
如需完整的详细信息,请参阅《TensorFlow 编程人员指南》中的保存和恢复部分。
实惠
一种 TensorFlow 对象,负责保存模型检查点。
分片
训练集或模型的逻辑划分。通常,某个进程会通过将示例或参数划分为(通常)大小相等的块来创建分片。然后,每个分片都会分配给不同的机器。
对模型进行分片称为模型并行处理;对数据进行分片称为数据并行处理。
摘要
在 TensorFlow 中的某一步计算出的一个值或一组值,通常用于在训练期间跟踪模型指标。
T
Tensor
TensorFlow 程序中的主要数据结构。张量是 N 维(其中 N 可能非常大)数据结构,最常见的是标量、向量或矩阵。张量的元素可以包含整数值、浮点值或字符串值。
TensorBoard
一个信息中心,用于显示在执行一个或多个 TensorFlow 程序期间保存的总结信息。
TensorFlow
一个大型的分布式机器学习平台。该术语还指 TensorFlow 堆栈中的基本 API 层,它支持对数据流图进行一般计算。
虽然 TensorFlow 主要用于机器学习,但您也可以将 TensorFlow 用于需要使用数据流图进行数值计算的非机器学习任务。
TensorFlow Playground
一款程序,用于可视化不同的超参数对模型(主要是神经网络)训练的影响。 如需试用 TensorFlow Playground,请前往 http://playground.tensorflow.org。
TensorFlow Serving
一个平台,用于将训练过的模型部署到生产环境。
张量处理单元 (TPU)
一种应用专用集成电路 (ASIC),用于优化机器学习工作负载的性能。这些 ASIC 作为 TPU 设备上的多个 TPU 芯片进行部署。
张量的阶
请参阅秩(张量)。
张量形状
Tensor在各种维度中包含的元素数。
例如,一个 [5, 10]
张量在一个维度上的形状为 5,在另一个维度上的形状为 10。
张量大小
Tensor包含的标量总数。例如,[5, 10]
张量的大小为 50。
tf.Example
一种标准 协议缓冲区,旨在描述用于机器学习模型训练或推断的输入数据。
tf.keras
集成到 TensorFlow 中的 Keras 实现。
TPU
张量处理单元的缩写。
TPU 芯片
一种可编程的线性代数加速器,具有片上高带宽内存,针对机器学习工作负载进行了优化。多个 TPU 芯片部署在 TPU 设备上。
TPU 设备
一种印刷电路板 (PCB),包含多个 TPU 芯片、高带宽网络接口和系统冷却硬件。
TPU 节点
Google Cloud 上具有特定 TPU 类型的 TPU 资源。TPU 节点通过对等 VPC 网络连接到您的 VPC 网络。TPU 节点是 Cloud TPU API 中定义的一种资源。
TPU Pod
Google 数据中心内 TPU 设备的特定配置。TPU Pod 中的所有设备都通过专用高速网络相互连接。TPU Pod 是特定 TPU 版本可用的最大 TPU 设备配置。
TPU 资源
您在 Google Cloud 上创建、管理或使用的 TPU 实体。例如,TPU 节点和 TPU 类型是 TPU 资源。
TPU 切片
TPU 切片是 TPU Pod 中 TPU 设备的一部分。TPU 切片中的所有设备都通过专用高速网络相互连接。
TPU 类型
一种配置,包含一个或多个具有特定 TPU 硬件版本的 TPU 设备。在 Google Cloud 上创建 TPU 节点时,您需要选择 TPU 类型。例如,v2-8
TPU 类型是具有 8 个核心的单个 TPU v2 设备。v3-2048
TPU 类型具有 256 个联网的 TPU v3 设备,总共有 2048 个核心。TPU 类型是 Cloud TPU API 中定义的资源。
TPU 工作进程
在主机上运行并在 TPU 设备上执行机器学习程序的进程。