Glossaire sur le machine learning: Google Cloud

Cette page contient les termes du glossaire Google Cloud. Pour connaître tous les termes du glossaire, cliquez ici.

A

chip d'accélération

#GoogleCloud

Catégorie de composants matériels spécialisés conçus pour effectuer les calculs clés nécessaires aux algorithmes de deep learning.

Les puces d'accélérateur (ou simplement accélérateurs, pour faire court) peuvent considérablement augmenter la vitesse et l'efficacité des tâches d'entraînement et d'inférence par rapport à un processeur à usage général. Ils sont idéaux pour l'entraînement de réseaux de neurones et des tâches similaires intensives en calcul.

Voici quelques exemples de puces d'accélération:

  • Les TPU (Tensor Processing Units) de Google avec du matériel dédié pour l'apprentissage profond.
  • Les GPU NVIDIA, bien que conçus initialement pour le traitement graphique, sont conçus pour permettre le traitement parallèle, ce qui peut considérablement augmenter la vitesse de traitement.

B

inférence par lot

#TensorFlow
#GoogleCloud

Processus d'inférence de prédictions sur plusieurs exemples non annotés divisés en sous-ensembles plus petits ("lots").

L'inférence par lot peut exploiter les fonctionnalités de parallélisation des puces d'accélérateur. Autrement dit, plusieurs accélérateurs peuvent simultanément inférer des prédictions sur différents lots d'exemples non annotés, ce qui augmente considérablement le nombre d'inférences par seconde.

Pour en savoir plus, consultez la section Systèmes de ML en production: inférence statique ou dynamique dans le cours d'initiation au machine learning.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud.

D

appareil

#TensorFlow
#GoogleCloud

Terme complexe ayant deux définitions possibles:

  1. Catégorie de matériel pouvant exécuter une session TensorFlow, y compris les CPU, les GPU et les TPU.
  2. Lors de l'entraînement d'un modèle de ML sur des chips d'accélérateur (GPU ou TPU), partie du système qui manipule réellement les tensors et les embeddings. L'appareil fonctionne sur des puces d'accélération. En revanche, l'hôte s'exécute généralement sur un processeur.

H

hôte

#TensorFlow
#GoogleCloud

Lors de l'entraînement d'un modèle de ML sur des chips d'accélérateur (GPU ou TPU), la partie du système qui contrôle les deux éléments suivants:

  • Flux global du code.
  • Extraction et transformation du pipeline d'entrée.

L'hôte s'exécute généralement sur un processeur, et non sur une puce d'accélérateur. L'appareil manipule les tensors sur les puces d'accélérateur.

M

Grille

#TensorFlow
#GoogleCloud

En programmation parallèle ML, terme associé à l'attribution des données et du modèle aux puces TPU, et à la définition de la manière dont ces valeurs seront fractionnées ou répliquées.

Le terme "masque" est un terme complexe qui peut désigner l'un des concepts suivants:

  • Disposition physique des puces TPU.
  • Construction logique abstraite permettant de mapper les données et le modèle sur les puces TPU.

Dans les deux cas, un maillage est spécifié en tant que forme.

S

segment

#TensorFlow
#GoogleCloud

Division logique de l'ensemble d'entraînement ou du modèle. En règle générale, un processus crée des fragments en divisant les exemples ou les paramètres en fragments (généralement) de taille égale. Chaque fragment est ensuite attribué à une machine différente.

Le partitionnement d'un modèle est appelé parallélisme de modèle, tandis que le partitionnement de données est appelé parallélisme de données.

T

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Circuit intégré spécifique à une application (ASIC) qui optimise les performances des charges de travail de machine learning. Ces ASIC sont déployés sous forme de plusieurs puces TPU sur un appareil TPU.

TPU

#TensorFlow
#GoogleCloud

Abréviation de Tensor Processing Unit.

Puce TPU

#TensorFlow
#GoogleCloud

Accélérateur d'algèbre linéaire programmable avec une mémoire à bande passante élevée sur puce optimisée pour les charges de travail de machine learning. Plusieurs puces TPU sont déployées sur un appareil TPU.

Appareil TPU

#TensorFlow
#GoogleCloud

Carte de circuit imprimé (PCB) avec plusieurs puces TPU, des interfaces réseau à bande passante élevée et du matériel de refroidissement du système.

maître TPU

#TensorFlow
#GoogleCloud

Processus de coordination central exécuté sur une machine hôte qui échange (envoie et reçoit) des données, des résultats, des programmes, des performances et des informations sur l'état du système avec les workers TPU. Le maître TPU gère également la configuration et l'arrêt des appareils TPU.

Nœud TPU

#TensorFlow
#GoogleCloud

Ressource TPU sur Google Cloud avec un type de TPU spécifique. Le nœud TPU se connecte à votre réseau VPC à partir d'un réseau VPC homologue. Les nœuds TPU sont une ressource définie dans l'API Cloud TPU.

Pod TPU

#TensorFlow
#GoogleCloud

Configuration spécifique des appareils TPU dans un centre de données Google. Tous les appareils d'un pod TPU sont interconnectés sur un réseau haut débit dédié. Un pod TPU est la plus grande configuration d'appareils TPU disponible pour une version de TPU spécifique.

Ressource TPU

#TensorFlow
#GoogleCloud

Entité TPU sur Google Cloud que vous créez, gérez ou consommez. Par exemple, les nœuds TPU et les types de TPU sont des ressources TPU.

Tranche TPU

#TensorFlow
#GoogleCloud

Une tranche TPU est une partie fractionnaire des appareils TPU d'un pod TPU. Tous les appareils d'une tranche TPU sont interconnectés sur un réseau haut débit dédié.

Type de TPU

#TensorFlow
#GoogleCloud

Configuration d'un ou de plusieurs appareils TPU avec une version matérielle TPU spécifique. Vous sélectionnez un type de TPU lorsque vous créez un nœud TPU sur Google Cloud. Par exemple, un type de TPU v2-8 correspond à un seul appareil TPU v2 avec huit cœurs. Un type de TPU v3-2048 comporte 256 appareils TPU v3 en réseau et un total de 2 048 cœurs. Les types de TPU sont une ressource définie dans l'API Cloud TPU.

Nœud de calcul TPU

#TensorFlow
#GoogleCloud

Processus qui s'exécute sur une machine hôte et exécute des programmes de machine learning sur des appareils TPU.