En esta página, se incluyen los términos del glosario de Google Cloud. Para ver todos los términos del glosario, haz clic aquí.
A
chip de acelerador
Es una categoría de componentes de hardware especializados diseñados para realizar cálculos clave necesarios para los algoritmos de aprendizaje profundo.
Los chips de acelerador (o simplemente aceleradores) pueden aumentar de forma significativa la velocidad y la eficiencia de las tareas de entrenamiento y de inferencia en comparación con una CPU de uso general. Son ideales para entrenar redes neuronales y tareas similares de procesamiento intensivo.
Estos son algunos ejemplos de chips aceleradores:
- Las unidades de procesamiento tensorial (TPU) de Google con hardware dedicado para el aprendizaje profundo
- Las GPUs de NVIDIA, que, aunque se diseñaron inicialmente para el procesamiento de gráficos, están diseñadas para permitir el procesamiento en paralelo, lo que puede aumentar significativamente la velocidad de procesamiento.
B
inferencia por lotes
Es el proceso de inferir predicciones en varios ejemplos sin etiquetar divididos en subconjuntos más pequeños ("lotes").
La inferencia por lotes puede aprovechar las funciones de paralelización de los chips de acelerador. Es decir, varios aceleradores pueden inferir predicciones de forma simultánea en diferentes lotes de ejemplos sin etiquetar, lo que aumenta de forma significativa la cantidad de inferencias por segundo.
Consulta Sistemas de aprendizaje automático de producción: Inferencia estática en comparación con la dinámica en el Curso intensivo de aprendizaje automático para obtener más información.
C
Cloud TPU
Un acelerador de hardware especializado diseñado para acelerar las cargas de trabajo de aprendizaje automático en Google Cloud.
D
dispositivo
Un término sobrecargado con las siguientes dos definiciones posibles:
- Categoría de hardware que puede ejecutar una sesión de TensorFlow, que incluye CPUs, GPUs y TPU.
- Cuando se entrena un modelo de AA en chips de acelerador (GPU o TPU), la parte del sistema que realmente manipula los tensores y las incorporaciones. El dispositivo se ejecuta en chips de acelerador. Por el contrario, el host suele ejecutarse en una CPU.
H
host
Cuando entrenas un modelo de AA en chips de acelerador (GPU o TPU), la parte del sistema que controla lo siguiente:
- El flujo general del código.
- La extracción y transformación de la canalización de entrada
Por lo general, el host se ejecuta en una CPU, no en un chip de acelerador. El dispositivo manipula tensores en los chips de acelerador.
M
malla
En la programación en paralelo de AA, es un término asociado con la asignación de los datos y el modelo a los chips de TPU, y la definición de cómo se fragmentarán o replicarán estos valores.
Malla es un término sobrecargado que puede significar una de las siguientes opciones:
- Un diseño físico de los chips TPU.
- Es una construcción lógica abstracta para asignar los datos y el modelo a los chips de TPU.
En cualquier caso, una malla se especifica como una forma.
S
fragmento
Es una división lógica del conjunto de entrenamiento o del modelo. Por lo general, algunos procesos crean fragmentos dividiendo los ejemplos o los parámetros en fragmentos (por lo general) de tamaño igual. Luego, cada fragmento se asigna a una máquina diferente.
La fragmentación de un modelo se denomina paralelismo de modelos; la fragmentación de datos se denomina paralelismo de datos.
T
Unidad de procesamiento tensorial (TPU)
Un circuito integrado específico de la aplicación (ASIC) que optimiza el rendimiento de las cargas de trabajo de aprendizaje automático. Estos ASIC se implementan como varios chips de TPU en un dispositivo TPU.
TPU
Abreviatura de unidad de procesamiento tensorial.
Chip de TPU
Un acelerador de álgebra lineal programable con memoria de alto ancho de banda en chip que está optimizado para las cargas de trabajo de aprendizaje automático. Varios chips de TPU se implementan en un dispositivo de TPU.
Dispositivo de TPU
Una placa de circuito impreso (PCB) con varios chips de TPU, interfaces de red de alto ancho de banda y hardware de refrigeración del sistema.
TPU principal
Es el proceso de coordinación central que se ejecuta en una máquina host que envía y recibe datos, resultados, programas, rendimiento y estado del sistema a los trabajadores de TPU. El TPU principal también administra la configuración y el apagado de los dispositivos TPU.
Nodo TPU
Un recurso de TPU en Google Cloud con un tipo de TPU específico El nodo TPU se conecta a tu red de VPC desde una red de VPC de intercambio de tráfico. Los nodos TPU son un recurso definido en la API de Cloud TPU.
pod de TPU
Es una configuración específica de dispositivos de TPU en un centro de datos de Google. Todos los dispositivos de un pod de TPU se conectan entre sí a través de una red dedicada de alta velocidad. Un pod de TPU es la configuración más grande de dispositivos de TPU disponible para una versión específica de TPU.
Recurso de TPU
Es una entidad de TPU en Google Cloud que creas, administras o consumes. Por ejemplo, los nodos TPU y los tipos de TPU son recursos de TPU.
Porción de TPU
Una porción de TPU es una parte fraccionada de los dispositivos TPU en un pod de TPU. Todos los dispositivos de una porción de TPU se conectan entre sí en una red dedicada de alta velocidad.
Tipo de TPU
Es una configuración de uno o más dispositivos de TPU con una versión específica de hardware de TPU. Seleccionas un tipo de TPU cuando creas un nodo TPU en Google Cloud. Por ejemplo, un tipo de TPU v2-8
es un solo dispositivo TPU v2 con 8 núcleos. Un tipo de TPU v3-2048
tiene 256 dispositivos TPU v3 en red y un total de 2,048 núcleos. Los tipos de TPU son un recurso
definido en la
API de Cloud TPU.
Trabajador de TPU
Es un proceso que se ejecuta en una máquina host y ejecuta programas de aprendizaje automático en dispositivos TPU.