Esta página contém os termos do glossário do TensorFlow. Para conferir todos os termos do glossário, clique aqui.
B
inferência em lote
O processo de inferir previsões em vários exemplos não rotulados divididos em subconjuntos menores ("lotes").
A inferência em lote pode aproveitar os recursos de paralelização de chips de aceleração. Ou seja, vários aceleradores podem inferir previsões simultaneamente em diferentes lotes de exemplos não rotulados, aumentando drasticamente o número de inferências por segundo.
Consulte Sistemas de ML de produção: inferência estática versus dinâmica no Curso intensivo de machine learning para mais informações.
C
Cloud TPU
Um acelerador de hardware especializado projetado para acelerar cargas de trabalho de machine learning no Google Cloud.
D
API Dataset (tf.data)
Uma API TensorFlow de alto nível para ler dados e
transformá-los em um formato exigido por um algoritmo de machine learning.
Um objeto tf.data.Dataset
representa uma sequência de elementos, em que
cada elemento contém um ou mais Tensors. Um objeto tf.data.Iterator
oferece acesso aos elementos de um Dataset
.
dispositivo
Um termo sobrecarregado com as duas definições possíveis a seguir:
- Uma categoria de hardware que pode executar uma sessão do TensorFlow, incluindo CPUs, GPUs e TPUs.
- Ao treinar um modelo de ML em chips de aceleração (GPUs ou TPUs), a parte do sistema que manipula tensores e embeddings. O dispositivo funciona com chips de aceleração. Por outro lado, o host normalmente é executado em uma CPU.
E
execução rápida
Um ambiente de programação do TensorFlow em que as operações são executadas imediatamente. Por outro lado, as operações chamadas na execução de gráfico não são executadas até serem explicitamente avaliadas. A execução ansiosa é uma interface imperativa, muito semelhante ao código na maioria das linguagens de programação. Os programas de execução rápida geralmente são muito mais fáceis de depurar do que os programas de execução de gráficos.
Estimator
Uma API do TensorFlow descontinuada. Use tf.keras em vez de estimadores.
F
engenharia de atributos
Um processo que envolve as seguintes etapas:
- Determinar quais recursos podem ser úteis no treinamento de um modelo.
- Converter dados brutos do conjunto de dados em versões eficientes desses atributos.
Por exemplo, você pode determinar que temperature
pode ser um recurso
útil. Em seguida, teste o agrupamento
para otimizar o que o modelo pode aprender com diferentes intervalos de temperature
.
Às vezes, a engenharia de atributos é chamada de extração de atributos ou featurização.
Consulte Dados numéricos: como um modelo ingere dados usando vetores de características no Curso intensivo de aprendizado de máquina para mais informações.
especificação de atributos
Descreve as informações necessárias para extrair dados de features do buffer de protocolo tf.Example. Como o buffer de protocolo tf.Example é apenas um contêiner de dados, é necessário especificar o seguinte:
- Os dados a serem extraídos (ou seja, as chaves dos recursos)
- O tipo de dados (por exemplo, float ou int)
- A duração (fixa ou variável)
G
gráfico
No TensorFlow, uma especificação de computação. Os nós no gráfico representam operações. As bordas são direcionadas e representam a transmissão do resultado de uma operação (um Tensor) como um operando para outra operação. Use o TensorBoard para visualizar um gráfico.
execução de gráfico
Um ambiente de programação do TensorFlow em que o programa primeiro constrói um gráfico e depois executa todo ou parte dele. A execução de gráficos é o modo de execução padrão no TensorFlow 1.x.
Compare com a execução imediata.
H
host
Ao treinar um modelo de ML em chips de aceleração (GPUs ou TPUs), a parte do sistema que controla o seguinte:
- O fluxo geral do código.
- A extração e transformação do pipeline de entrada.
O host geralmente é executado em uma CPU, não em um chip de aceleração. O dispositivo manipula tensores nos chips de aceleração.
L
API Layers (tf.layers)
Uma API do TensorFlow para criar uma rede neural profunda como uma composição de camadas. A API Layers permite criar diferentes tipos de camadas, como:
tf.layers.Dense
para uma camada totalmente conectada.tf.layers.Conv2D
para uma camada convolucional.
A API Layers segue as convenções da API de camadas do Keras. Ou seja, além de um prefixo diferente, todas as funções na API Layers têm os mesmos nomes e assinaturas que as correspondentes na API Keras layers.
M
malha
Na programação paralela de ML, um termo associado à atribuição dos dados e do modelo a chips TPU e à definição de como esses valores serão divididos ou replicados.
"Mesh" é um termo sobrecarregado que pode significar uma das seguintes opções:
- Um layout físico de chips de TPU.
- Um construto lógico abstrato para mapear os dados e o modelo para os chips TPU.
Em ambos os casos, uma malha é especificada como uma forma.
métrica
Uma estatística importante para você.
Um objetivo é uma métrica que um sistema de aprendizado de máquina tenta otimizar.
N
nó (gráfico do TensorFlow)
Uma operação em um gráfico do TensorFlow.
O
operação (op)
No TensorFlow, qualquer procedimento que crie, manipula ou destrua um Tensor. Por exemplo, uma multiplicação de matriz é uma operação que usa dois Tensors como entrada e gera um Tensor como saída.
P
Servidor de parâmetros (PS, na sigla em inglês)
Um job que rastreia os parâmetros de um modelo em uma configuração distribuída.
P
fila
Uma operação do TensorFlow que implementa uma estrutura de dados de fila. Normalmente usado em E/S.
R
rank (Tensor)
O número de dimensões em um Tensor. Por exemplo, um escalar tem classificação 0, um vetor tem classificação 1 e uma matriz tem classificação 2.
Não confunda com rank (ordinalidade).
diretório raiz
O diretório que você especifica para hospedar subdiretórios do ponto de verificação do TensorFlow e arquivos de eventos de vários modelos.
S
SavedModel
O formato recomendado para salvar e recuperar modelos do TensorFlow. O SavedModel é um formato de serialização recuperável e neutro em relação ao idioma, que permite que sistemas e ferramentas de nível superior produzam, consumam e transformem modelos do TensorFlow.
Consulte a seção "Salvar e restaurar" do guia para programadores do TensorFlow e confira todos os detalhes.
Econômico
Um objeto do TensorFlow responsável por salvar pontos de verificação do modelo.
fragmento
Uma divisão lógica do conjunto de treinamento ou do modelo. Normalmente, alguns processos criam fragmentos dividindo os exemplos ou parâmetros em (geralmente) partes de tamanho igual. Cada fragmento é atribuído a uma máquina diferente.
A fragmentação de um modelo é chamada de paralelismo de modelos. A fragmentação de dados é chamada de paralelismo de dados.
resumo
No TensorFlow, um valor ou conjunto de valores calculados em um passo específico, geralmente usado para rastrear métricas de modelo durante o treinamento.
T
Rank 4
A estrutura de dados principal nos programas do TensorFlow. Tensores são estruturas de dados N-dimensionais (em que N pode ser muito grande), geralmente escalares, vetores ou matrizes. Os elementos de um tensor podem conter valores inteiros, de ponto flutuante ou de string.
TensorBoard
O painel que mostra os resumos salvos durante a execução de um ou mais programas do TensorFlow.
TensorFlow
Uma plataforma de machine learning distribuída em grande escala. O termo também se refere à camada de API de base na pilha do TensorFlow, que oferece suporte à computação geral em gráficos de fluxo de dados.
Embora o TensorFlow seja usado principalmente para machine learning, você também pode usá-lo para tarefas que não são de ML que exigem computação numérica usando gráficos de fluxo de dados.
TensorFlow Playground
Um programa que mostra como diferentes hiperparâmetros influenciam o treinamento do modelo (principalmente de rede neural). Acesse http://playground.tensorflow.org para testar o TensorFlow Playground.
TensorFlow Serving
Uma plataforma para implantar modelos treinados em produção.
Unidade de Processamento de Tensor (TPU)
Um circuito integrado específico para aplicativos (ASIC) que otimiza o desempenho das cargas de trabalho de machine learning. Esses ASICs são implantados como vários chips de TPU em um dispositivo TPU.
Cardinalidade do tensor
Consulte rank (Tensor).
Forma do tensor
O número de elementos que um Tensor contém em várias dimensões.
Por exemplo, um tensor [5, 10]
tem uma forma de 5 em uma dimensão e 10
em outra.
Tamanho do tensor
O número total de escalares que um Tensor contém. Por exemplo, um
tensor [5, 10]
tem um tamanho de 50.
tf.Example
Um buffer de protocolo padrão para descrever dados de entrada para treinamento ou inferência de modelos de aprendizado de máquina.
tf.keras
Uma implementação de Keras integrada ao TensorFlow.
TPU
Abreviação de Unidade de Processamento de Tensor.
Chip TPU
Um acelerador de álgebra linear programável com memória de alta largura de banda no chip otimizada para cargas de trabalho de machine learning. Vários chips de TPU são implantados em um dispositivo TPU.
Dispositivo TPU
Uma placa de circuito impresso (PCB) com vários chips de TPU, interfaces de rede de alta largura de banda e hardware de resfriamento do sistema.
TPU mestre
O processo de coordenação central em execução em uma máquina host que envia e recebe dados, resultados, programas, desempenho e informações de integridade do sistema para os workers do TPU. O mestre da TPU também gerencia a configuração e o desligamento de dispositivos TPU.
Nó da TPU
Um recurso da TPU no Google Cloud com um tipo de TPU específico. O nó de TPU se conecta à sua rede VPC de uma rede VPC peer. Os nós da TPU são um recurso definido na API Cloud TPU.
Pod de TPU
Uma configuração específica de dispositivos TPU em um data center do Google. Todos os dispositivos em um pod de TPU são conectados entre si por uma rede dedicada de alta velocidade. Um Pod de TPU é a maior configuração de dispositivos de TPU disponível para uma versão específica de TPU.
Recurso da TPU
Uma entidade TPU no Google Cloud que você cria, gerencia ou consome. Por exemplo, nós de TPU e tipos de TPU são recursos de TPU.
Fração de TPU
Uma fração da TPU é uma parte fracionária dos dispositivos de TPU em um pod de TPU. Todos os dispositivos em uma fração de TPU são conectados uns aos outros em uma rede dedicada de alta velocidade.
Tipo de TPU
Uma configuração de um ou mais dispositivos TPU com uma versão
específica de hardware de TPU. Você seleciona um tipo de TPU ao criar
um nó de TPU no Google Cloud. Por exemplo, um tipo de TPU v2-8
é um único dispositivo TPU v2 com 8 núcleos. Um tipo de TPU v3-2048
tem 256
dispositivos de TPU v3 em rede e um total de 2.048 núcleos. Os tipos de TPU são um recurso
definido na
API Cloud TPU.
Worker da TPU
Um processo que é executado em uma máquina host e executa programas de aprendizado de máquina em dispositivos TPU.