Nesta página, você encontra os termos do glossário do Google Cloud. Para ver todos os termos do glossário, clique aqui.
A
chip do acelerador
Uma categoria de componentes de hardware especializados projetados para realizar cálculos importantes necessários para algoritmos de aprendizado profundo.
Os chips de aceleradores (ou apenas aceleradores, na sigla em inglês) podem aumentar significativamente a velocidade e a eficiência das tarefas de treinamento e inferência em comparação com uma CPU de uso geral. Elas são ideais para treinar redes neurais e tarefas semelhantes com uso intenso de computação.
Exemplos de ícones de acelerador incluem:
- Unidades de Processamento de Tensor do Google (TPUs) com hardware dedicado para aprendizado profundo.
- As GPUs da NVIDIA que, embora inicialmente projetadas para processamento gráfico, são projetadas para permitir o processamento paralelo, o que pode aumentar significativamente a velocidade de processamento.
B
inferência em lote
O processo de inferência de previsões em vários exemplos não rotulados divididos em subconjuntos menores ("lotes").
A inferência em lote pode aproveitar os recursos de carregamento em paralelo dos ícones de acelerador. Ou seja, vários aceleradores podem inferir previsões simultaneamente em diferentes lotes de exemplos não rotulados, aumentando drasticamente o número de inferências por segundo.
C
Cloud TPU
um acelerador de hardware especializado projetado para acelerar cargas de trabalho de machine learning no Google Cloud.
D
dispositivo
Um termo sobrecarregado com estas duas possíveis definições:
- Uma categoria de hardware capaz de executar uma sessão do TensorFlow, incluindo CPUs, GPUs e TPUs.
- Ao treinar um modelo de ML em ícones de acelerador (GPUs ou TPUs), a parte do sistema que realmente manipula tensores e embeddings. O dispositivo é executado em chips aceleradores. Por outro lado, o host geralmente é executado em uma CPU.
H
anfitrião
Ao treinar um modelo de ML em ícones de acelerador (GPUs ou TPUs), a parte do sistema que controla o seguinte:
- O fluxo geral do código.
- A extração e transformação do pipeline de entrada.
O host normalmente é executado em uma CPU, não em um chip acelerador. O dispositivo manipula tensores nos ícones do acelerador.
M
malha
Na programação paralela de ML, um termo associado à atribuição de dados e modelo a ícones de TPU e à definição de como esses valores serão fragmentados ou replicados.
Malha é um termo sobrecarregado que pode significar um dos seguintes:
- Um layout físico de chips de TPU.
- Uma construção lógica abstrata para mapear os dados e o modelo para os chips de TPU.
Em ambos os casos, a malha é especificada como uma shape.
S
fragmento
Uma divisão lógica do conjunto de treinamento ou do modelo. Normalmente, algum processo cria fragmentos dividindo os exemplos ou parâmetros em blocos com o mesmo tamanho. Cada fragmento é atribuído a uma máquina diferente.
A fragmentação de um modelo é chamada de paralelismo de modelos e a fragmentação de dados é chamada de paralelismo de dados.
T
Unidade de Processamento de Tensor (TPU)
Um circuito integrado específico de aplicativo (ASIC, na sigla em inglês) que otimiza o desempenho de cargas de trabalho de machine learning. Esses ASICs são implantados como vários chips de TPU em um dispositivo TPU.
TPU
Abreviação de Unidade de Processamento de Tensor.
Ícone de TPU
Um acelerador de álgebra linear programável com memória de alta largura de banda on-chip otimizado para cargas de trabalho de machine learning. Vários chips de TPU são implantados em um dispositivo TPU.
Dispositivo TPU
Uma placa de circuito impresso (PCB, na sigla em inglês) com vários chips de TPU, interfaces de rede de alta largura de banda e hardware de resfriamento do sistema.
Mestre da TPU
O processo de coordenação central executado em uma máquina host que envia e recebe dados, resultados, programas, desempenho e informações de integridade do sistema para os workers de TPU. O mestre da TPU também gerencia a configuração e o encerramento dos dispositivos TPU.
Nó da TPU
Um recurso de TPU no Google Cloud com um tipo de TPU específico. O nó da TPU se conecta à rede VPC por uma rede VPC com peering. Os nós da TPU são um recurso definido na API Cloud TPU.
Pod de TPU
Uma configuração específica de dispositivos TPU em um data center do Google. Todos os dispositivos em um Pod de TPU são conectados entre si por uma rede dedicada de alta velocidade. Um Pod de TPU é a maior configuração de dispositivos de TPU disponíveis para uma versão específica de TPU.
Recurso de TPU
Uma entidade de TPU no Google Cloud que você cria, gerencia ou consome. Por exemplo, nós da TPU e tipos de TPU são recursos de TPU.
Fração de TPU
Uma fração de TPU é uma parte fracionária dos dispositivos de TPU em um Pod de TPU. Todos os dispositivos em uma fração de TPU são conectados entre si por meio de uma rede dedicada de alta velocidade.
Tipo de TPU
Uma configuração de um ou mais dispositivos de TPU com uma versão específica de hardware de TPU. Você seleciona um tipo de TPU ao criar
um nó de TPU no Google Cloud. Por exemplo, um tipo de TPU v2-8
é um único dispositivo TPU v2 com 8 núcleos. Um tipo de TPU v3-2048
tem 256 dispositivos TPU v3 em rede e um total de 2.048 núcleos. Os tipos de TPU são um recurso definido na API Cloud TPU.
Worker da TPU
Um processo que é executado em uma máquina host e executa programas de machine learning em dispositivos TPU.