Glossário de machine learning: Google Cloud

Esta página contém termos do glossário do Google Cloud. Para conferir todos os termos do glossário, clique aqui.

A

ícone de atalho

#GoogleCloud

Uma categoria de componentes de hardware especializados projetados para realizar cálculos importantes necessários para algoritmos de aprendizado profundo.

Os chips aceleradores (ou apenas aceleradores) podem aumentar significativamente a velocidade e a eficiência das tarefas de treinamento e inferência em comparação com uma CPU de uso geral. Elas são ideais para treinar redes neurais e tarefas semelhantes que exigem muito poder de computação.

Exemplos de chips aceleradores:

  • Unidades de processamento de tensor (TPUs) do Google com hardware dedicado para aprendizado profundo.
  • As GPUs da NVIDIA, embora inicialmente projetadas para processamento gráfico, são projetadas para permitir o processamento paralelo, o que pode aumentar significativamente a velocidade de processamento.

B

inferência em lote

#GoogleCloud

O processo de inferir previsões em vários exemplos sem rótulo divididos em subconjuntos menores ("lotes").

A inferência em lote pode aproveitar os recursos de paralelização dos chips aceleradores. Ou seja, vários aceleradores podem inferir previsões simultaneamente em diferentes lotes de exemplos sem rótulo, aumentando muito o número de inferências por segundo.

Consulte Sistemas de ML de produção: inferência estática x dinâmica no Curso intensivo de machine learning para mais informações.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Um acelerador de hardware especializado projetado para acelerar cargas de trabalho de machine learning no Google Cloud.

D

dispositivo

#TensorFlow
#GoogleCloud

Um termo sobrecarregado com as duas definições possíveis a seguir:

  1. Uma categoria de hardware que pode executar uma sessão do TensorFlow, incluindo CPUs, GPUs e TPUs.
  2. Ao treinar um modelo de ML em chips aceleradores (GPUs ou TPUs), a parte do sistema que manipula tensores e incorporações. O dispositivo funciona com chips aceleradores. Por outro lado, o host normalmente é executado em uma CPU.

H

host

#TensorFlow
#GoogleCloud

Ao treinar um modelo de ML em chips aceleradores (GPUs ou TPUs), a parte do sistema que controla o seguinte:

  • O fluxo geral do código.
  • A extração e transformação do pipeline de entrada.

O host geralmente é executado em uma CPU, não em um chip acelerador. O dispositivo manipula tensores nos chips aceleradores.

M

malha

#TensorFlow
#GoogleCloud

Na programação paralela de ML, um termo associado à atribuição dos dados e do modelo aos chips de TPU e à definição de como esses valores serão fragmentados ou replicados.

Mesh é um termo sobrecarregado que pode significar qualquer uma das seguintes opções:

  • Um layout físico dos chips de TPU.
  • Uma construção lógica abstrata para mapear os dados e o modelo para os chips de TPU.

Em qualquer caso, uma malha é especificada como uma forma.

S

fragmento

#TensorFlow
#GoogleCloud

Uma divisão lógica do conjunto de treinamento ou do modelo. Normalmente, algum processo cria fragmentos dividindo os exemplos ou parâmetros em partes (geralmente) de tamanho igual. Cada fragmento é atribuído a uma máquina diferente.

A fragmentação de um modelo é chamada de paralelismo de modelos. Já a fragmentação de dados é chamada de paralelismo de dados.

T

Unidade de Processamento de Tensor (TPU)

#TensorFlow
#GoogleCloud

Um circuito integrado de aplicação específica (ASIC) que otimiza o desempenho das cargas de trabalho de machine learning. Esses ASICs são implantados como vários chips de TPU em um dispositivo de TPU.

TPU

#TensorFlow
#GoogleCloud

Abreviação de Unidade de Processamento de Tensor.

Chip de TPU

#TensorFlow
#GoogleCloud

Um acelerador de álgebra linear programável com memória de alta largura de banda no chip otimizado para cargas de trabalho de machine learning. Vários chips de TPU são implantados em um dispositivo de TPU.

Dispositivo TPU

#TensorFlow
#GoogleCloud

Uma placa de circuito impresso (PCB) com vários chips de TPU, interfaces de rede de alta largura de banda e hardware de resfriamento do sistema.

Nó da TPU

#TensorFlow
#GoogleCloud

Um recurso de TPU no Google Cloud com um tipo de TPU específico. O nó de TPU se conecta à sua rede VPC de uma rede VPC de peering. Os nós da TPU são um recurso definido na API Cloud TPU.

Pod de TPU

#TensorFlow
#GoogleCloud

Uma configuração específica de dispositivos de TPU em um data center do Google. Todos os dispositivos em um Pod de TPU são conectados entre si por uma rede dedicada de alta velocidade. Um Pod de TPU é a maior configuração de dispositivos de TPU disponível para uma versão específica de TPU.

Recurso da TPU

#TensorFlow
#GoogleCloud

Uma entidade de TPU no Google Cloud que você cria, gerencia ou consome. Por exemplo, nós de TPU e tipos de TPU são recursos de TPU.

Fração de TPU

#TensorFlow
#GoogleCloud

Uma fração da TPU é uma parte fracionária dos dispositivos de TPU em um pod de TPU. Todos os dispositivos em uma fração de TPU são conectados uns aos outros por uma rede dedicada de alta velocidade.

Tipo de TPU

#TensorFlow
#GoogleCloud

Uma configuração de um ou mais dispositivos de TPU com uma versão específica de hardware de TPU. Você seleciona um tipo de TPU ao criar um nó de TPU no Google Cloud. Por exemplo, um tipo de TPU v2-8 é um único dispositivo TPU v2 com 8 núcleos. Um tipo de TPU v3-2048 tem 256 dispositivos de TPU v3 em rede e um total de 2.048 núcleos. Os tipos de TPU são um recurso definido na API Cloud TPU.

worker da TPU

#TensorFlow
#GoogleCloud

Um processo executado em uma máquina host e que executa programas de aprendizado de máquina em dispositivos TPU.

V

Vertex

#GoogleCloud
#generativeAI
Plataforma do Google Cloud para IA e machine learning. A Vertex oferece ferramentas e infraestrutura para criar, implantar e gerenciar aplicativos de IA, incluindo acesso aos modelos do Gemini.