Esta página contiene los términos del glosario de TensorFlow. Para ver todos los términos del glosario, haz clic aquí.
B
inferencia por lotes
Es el proceso de inferir predicciones en varios ejemplos sin etiquetar divididos en subconjuntos más pequeños ("lotes").
La inferencia por lotes puede aprovechar las funciones de paralelización de los chips de acelerador. Es decir, varios aceleradores pueden inferir predicciones de forma simultánea en diferentes lotes de ejemplos sin etiquetar, lo que aumenta de forma significativa la cantidad de inferencias por segundo.
Consulta Sistemas de aprendizaje automático de producción: Inferencia estática en comparación con la dinámica en el Curso intensivo de aprendizaje automático para obtener más información.
C
Cloud TPU
Un acelerador de hardware especializado diseñado para acelerar las cargas de trabajo de aprendizaje automático en Google Cloud.
D
API de Dataset (tf.data)
Una API de TensorFlow de alto nivel para leer datos y transformarlos en un formato que requiere un algoritmo de aprendizaje automático.
Un objeto tf.data.Dataset
representa una secuencia de elementos, en la que cada uno de ellos contiene uno o más tensores. Un objeto tf.data.Iterator
proporciona acceso a los elementos de un Dataset
.
dispositivo
Un término sobrecargado con las siguientes dos definiciones posibles:
- Categoría de hardware que puede ejecutar una sesión de TensorFlow, que incluye CPUs, GPUs y TPU.
- Cuando se entrena un modelo de AA en chips de acelerador (GPU o TPU), la parte del sistema que realmente manipula los tensores y las incorporaciones. El dispositivo se ejecuta en chips de acelerador. Por el contrario, el host suele ejecutarse en una CPU.
E
ejecución inmediata
Entorno de programación de TensorFlow en el que las operaciones se ejecutan de inmediato. Por el contrario, las operaciones llamadas en ejecución por grafos no se ejecutan hasta que no se evalúen explícitamente. La ejecución inmediata es una interfaz imperativa, al igual que el código en la mayoría de los lenguajes de programación. Los programas de ejecución inmediata son generalmente mucho más fáciles de depurar que los programas de ejecución por grafos.
Estimador
Una API de TensorFlow obsoleta. Usa tf.keras en lugar de estimadores.
F
ingeniería de atributos.
Un proceso que incluye los siguientes pasos:
- Determinar qué funciones podrían ser útiles para entrenar un modelo.
- Convertir los datos sin procesar del conjunto de datos en versiones eficientes de esos atributos
Por ejemplo, podrías determinar que temperature
podría ser una función útil. Luego, puedes experimentar con el agrupamiento para optimizar lo que el modelo puede aprender de diferentes rangos de temperature
.
En algunas ocasiones, la ingeniería de atributos se denomina extracción de atributos o creación de atributos.
Consulta Datos numéricos: Cómo un modelo transfiere datos con vectores de características en el Curso intensivo de aprendizaje automático para obtener más información.
especificación de atributos
Describe la información necesaria para extraer datos de features del búfer de protocolo tf.Example. Debido a que el buffer de protocolo de tf.Example es solo un contenedor de datos, debes especificar lo siguiente:
- Los datos que se extraerán (es decir, las claves de los atributos)
- El tipo de datos (por ejemplo, número de punto flotante o número entero)
- La longitud (fija o variable)
G
gráfico
En TensorFlow, es una especificación de cálculo. Los nodos del grafo representan operaciones. Las conexiones están orientadas y representan el paso del resultado de una operación (un Tensor) como un operando para otra operación. Usa TensorBoard para visualizar un grafo.
ejecución de grafos
Entorno de programación de TensorFlow en el cual el programa primero construye un grafo y, luego, ejecuta todo el grafo o una parte de este. La ejecución por grafos es el modo de ejecución predeterminado en TensorFlow 1.x.
Compara esto con la ejecución inmediata.
H
host
Cuando entrenas un modelo de AA en chips de acelerador (GPU o TPU), la parte del sistema que controla lo siguiente:
- El flujo general del código.
- La extracción y transformación de la canalización de entrada
Por lo general, el host se ejecuta en una CPU, no en un chip de acelerador. El dispositivo manipula tensores en los chips de acelerador.
L
API de Layers (tf.layers)
API de TensorFlow para construir una red neuronal profunda como una composición de capas. Permite desarrollar diferentes tipos de capas, como las siguientes:
tf.layers.Dense
para una capa completamente conectada.tf.layers.Conv2D
para una capa convolucional
La API de Layers sigue las convenciones de la API de capas de Keras. Esto significa que, aparte de un prefijo diferente, todas las funciones de la API de Layers tienen los mismos nombres y firmas que sus contrapartes en la API de Layers de Keras.
M
malla
En la programación en paralelo de AA, es un término asociado con la asignación de los datos y el modelo a los chips de TPU, y la definición de cómo se fragmentarán o replicarán estos valores.
Malla es un término sobrecargado que puede significar una de las siguientes opciones:
- Un diseño físico de los chips TPU.
- Es una construcción lógica abstracta para asignar los datos y el modelo a los chips de TPU.
En cualquier caso, una malla se especifica como una forma.
métrica
Una estadística importante para ti.
Un objetivo es una métrica que un sistema de aprendizaje automático intenta optimizar.
N
nodo (grafo de TensorFlow)
Una operación en un grafo de TensorFlow.
O
operación (op)
En TensorFlow, cualquier procedimiento que crea, manipula o destruye un Tensor. Por ejemplo, una multiplicación de matrices es una operación que toma dos tensores como entrada y genera un tensor como resultado.
P
Servidor de parámetros (PS)
Tarea que mantiene un registro de los parámetros de un modelo en una configuración distribuida.
P
cola
Una operación de TensorFlow que implementa una estructura de datos en cola. Por lo general, se usa en E/S.
R
rango (tensor) (rank ,Tensor)
Es la cantidad de dimensiones de un Tensor. Por ejemplo, un escalar tiene rango 0, un vector tiene rango 1 y una matriz tiene rango 2.
No debe confundirse con rango (ordinalidad).
directorio raíz
Es el directorio que especificas para alojar subdirectorios del punto de control de TensorFlow y archivos de eventos de varios modelos.
S
modelo guardado
El formato recomendado para guardar y recuperar modelos de TensorFlow. SavedModel es un formato de serialización recuperable y neutral con respecto al lenguaje que permite que las herramientas y los sistemas de nivel superior produzcan, consuman y transformen modelos de TensorFlow.
Para obtener más información, consulta la sección Cómo guardar y restablecer de la Guía para programadores de TensorFlow.
Económico
Un objeto de TensorFlow responsable de guardar controles del modelo.
fragmento
Es una división lógica del conjunto de entrenamiento o del modelo. Por lo general, algunos procesos crean fragmentos dividiendo los ejemplos o los parámetros en fragmentos (por lo general) de tamaño igual. Luego, cada fragmento se asigna a una máquina diferente.
La fragmentación de un modelo se denomina paralelismo de modelos; la fragmentación de datos se denomina paralelismo de datos.
resumen
En TensorFlow, un valor o conjunto de valores que se calcula en un paso determinado, que se suele usar para realizar un seguimiento de las métricas del modelo durante el entrenamiento.
T
Tensor
Es la estructura de datos principal en los programas de TensorFlow. Los tensores son estructuras de datos n-dimensionales (donde N podría ser muy grande), generalmente escalares, vectores o matrices. Los elementos de un tensor pueden tener valores enteros, de punto flotante o de una cadena de caracteres.
TensorBoard
Panel que muestra los resúmenes generados durante la ejecución de uno o más programas de TensorFlow.
TensorFlow
Una plataforma de aprendizaje automático distribuida a gran escala. El término también se refiere a la capa de API base en la pila de TensorFlow, que admite el procesamiento general en gráficos de flujo de datos.
Aunque TensorFlow se usa principalmente para el aprendizaje automático, también puedes usarlo para tareas que no sean de AA que requieran cálculos numéricos con grafos de flujo de datos.
TensorFlow Playground
Programa que visualiza cómo los diferentes hiperparámetros influyen en el entrenamiento del modelo (principalmente en las redes neuronales). Para probar TensorFlow Playground, visita http://playground.tensorflow.org.
TensorFlow Serving
Una plataforma para implementar modelos entrenados en producción.
Unidad de procesamiento tensorial (TPU)
Un circuito integrado específico de la aplicación (ASIC) que optimiza el rendimiento de las cargas de trabajo de aprendizaje automático. Estos ASIC se implementan como varios chips de TPU en un dispositivo TPU.
Rango de tensor
Consulta rango (tensor).
Forma del tensor
Cantidad de elementos que contiene un Tensor en varias dimensiones.
Por ejemplo, un tensor [5, 10]
tiene una forma de 5 en una dimensión y de 10 en la otra.
Tamaño del tensor
Cantidad total de escalares que contiene un Tensor. Por ejemplo, un tensor [5, 10]
tiene un tamaño de 50.
tf.Example
Búfer de protocolo estándar que se usa para describir datos de entrada para el entrenamiento o la inferencia de modelos de aprendizaje automático.
tf.keras
Una implementación de Keras integrada en TensorFlow.
TPU
Abreviatura de unidad de procesamiento tensorial.
Chip de TPU
Un acelerador de álgebra lineal programable con memoria de alto ancho de banda en chip que está optimizado para las cargas de trabajo de aprendizaje automático. Varios chips de TPU se implementan en un dispositivo de TPU.
Dispositivo de TPU
Una placa de circuito impreso (PCB) con varios chips de TPU, interfaces de red de alto ancho de banda y hardware de refrigeración del sistema.
TPU principal
Es el proceso de coordinación central que se ejecuta en una máquina host que envía y recibe datos, resultados, programas, rendimiento y estado del sistema a los trabajadores de TPU. El TPU principal también administra la configuración y el apagado de los dispositivos TPU.
Nodo TPU
Un recurso de TPU en Google Cloud con un tipo de TPU específico El nodo TPU se conecta a tu red de VPC desde una red de VPC de intercambio de tráfico. Los nodos TPU son un recurso definido en la API de Cloud TPU.
pod de TPU
Es una configuración específica de dispositivos de TPU en un centro de datos de Google. Todos los dispositivos de un pod de TPU se conectan entre sí a través de una red dedicada de alta velocidad. Un pod de TPU es la configuración más grande de dispositivos de TPU disponible para una versión específica de TPU.
Recurso de TPU
Es una entidad de TPU en Google Cloud que creas, administras o consumes. Por ejemplo, los nodos TPU y los tipos de TPU son recursos de TPU.
Porción de TPU
Una porción de TPU es una parte fraccionada de los dispositivos TPU en un pod de TPU. Todos los dispositivos de una porción de TPU se conectan entre sí en una red dedicada de alta velocidad.
Tipo de TPU
Es una configuración de uno o más dispositivos de TPU con una versión específica de hardware de TPU. Seleccionas un tipo de TPU cuando creas un nodo TPU en Google Cloud. Por ejemplo, un tipo de TPU v2-8
es un solo dispositivo TPU v2 con 8 núcleos. Un tipo de TPU v3-2048
tiene 256 dispositivos TPU v3 en red y un total de 2,048 núcleos. Los tipos de TPU son un recurso
definido en la
API de Cloud TPU.
Trabajador de TPU
Es un proceso que se ejecuta en una máquina host y ejecuta programas de aprendizaje automático en dispositivos TPU.