Cette page contient les termes du glossaire Google Cloud. Pour consulter tous les termes du glossaire, cliquez ici.
A
chip d'accélérateur
Catégorie de composants matériels spécialisés conçus pour effectuer les calculs clés nécessaires aux algorithmes de deep learning.
Les chips d'accélérateur (ou simplement des accélérateurs, pour faire court), peuvent augmenter considérablement la vitesse et l'efficacité des tâches d'entraînement et d'inférence par rapport à un processeur à usage général. Ils sont parfaits pour l'entraînement de réseaux de neurones et les tâches similaires qui utilisent beaucoup de ressources de calcul.
Exemples de chips d'accélérateur:
- Unités de traitement Google Tensor (TPU) avec matériel dédié pour le deep learning
- Les GPU NVIDIA, bien que conçus initialement pour le traitement graphique, soient conçus pour permettre le traitement en parallèle, ce qui peut augmenter considérablement la vitesse de traitement.
B
inférence par lot
Processus d'inférence des prédictions sur plusieurs exemples sans étiquette divisé en sous-ensembles plus petits ("lots").
L'inférence par lot peut exploiter les fonctionnalités de parallélisation des chips d'accélérateur. Autrement dit, plusieurs accélérateurs peuvent déduire simultanément des prédictions sur différents lots d'exemples sans étiquette, ce qui augmente considérablement le nombre d'inférences par seconde.
C
Cloud TPU
Accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud Platform.
D.
appareil
Un terme surchargé ayant les deux définitions suivantes:
- Catégorie de matériel pouvant exécuter une session TensorFlow, y compris les processeurs, les GPU et les TPU.
- Lors de l'entraînement d'un modèle de ML sur des puces d'accélérateur (GPU ou TPU), la partie du système qui manipule réellement les tenseurs et les représentations vectorielles continues L'appareil s'exécute sur les puces de l'accélérateur. En revanche, l'hôte s'exécute généralement sur un processeur.
H
hôte
Lors de l'entraînement d'un modèle de ML sur des puces d'accélérateur (GPU ou TPU), la partie du système qui contrôle les deux éléments suivants:
- Flux global du code.
- Extraction et transformation du pipeline d'entrée.
L'hôte s'exécute généralement sur un processeur et non sur un chip d'accélérateur. L'appareil manipule les tenseurs sur ces chips.
M
Grille
Dans la programmation parallèle en ML, un terme associé à l'attribution des données et du modèle aux puces TPU et à la définition de la segmentation ou de la réplication de ces valeurs.
Un réseau maillé est un terme surchargé qui peut signifier l'un des éléments suivants:
- Mise en page physique des puces TPU.
- Conception logique abstraite pour mapper les données et le modèle avec les puces TPU
Dans les deux cas, un réseau maillé est spécifié en tant que forme.
S
partition
Division logique de l'ensemble d'entraînement ou du modèle. En général, un processus crée des segments en divisant les exemples ou les paramètres en fragments de taille égale (généralement). Chaque segment est ensuite attribué à un ordinateur différent.
La segmentation d'un modèle est appelée parallélisme des modèles. Le partitionnement des données est appelé parallélisme des données.
M
Tensor Processing Unit (TPU)
Un circuit intégré spécifique à l'application (ASIC) qui optimise les performances des charges de travail de machine learning Ces ASIC sont déployés sous la forme de plusieurs chips TPU sur un appareil TPU.
TPU
Abréviation de Tensor Processing Unit.
Puce TPU
Un accélérateur d'algèbre linéaire programmable avec une mémoire à haut débit sur puce optimisée pour les charges de travail de machine learning. Plusieurs puces TPU sont déployées sur un appareil TPU.
Appareil TPU
Une carte de circuit imprimé (PCB) avec plusieurs puces TPU, des interfaces réseau à bande passante élevée et du matériel de refroidissement du système.
TPU maître
Processus de coordination central exécuté sur une machine hôte qui envoie et reçoit des données, des résultats, des programmes, des performances et des informations sur l'état du système auprès des nœuds de calcul TPU. Le TPU maître gère également la configuration et l'arrêt des appareils TPU.
Nœud TPU
Une ressource TPU sur Google Cloud Platform avec un type TPU spécifique. Le nœud TPU se connecte à votre réseau VPC à partir d'un réseau VPC pair. Les nœuds TPU sont une ressource définie dans l'API Cloud TPU.
pod TPU
Configuration spécifique d'appareils TPU dans un centre de données Google. Tous les appareils d'un pod TPU sont connectés les uns aux autres via un réseau haut débit dédié. Un pod TPU est la plus grande configuration d'appareils TPU disponible pour une version de TPU donnée.
Ressource TPU
Une entité TPU sur Google Cloud Platform que vous créez, gérez ou utilisez Par exemple, les nœuds TPU et les types TPU sont des ressources TPU.
Segment de TPU
Une tranche TPU est une portion fractionnée des appareils TPU d'un pod TPU. Tous les appareils d'une tranche TPU sont connectés les uns aux autres via un réseau haut débit dédié.
Type de TPU
Configuration d'un ou plusieurs appareils TPU avec une version matérielle spécifique. Vous sélectionnez un type de TPU lorsque vous créez un nœud TPU sur Google Cloud Platform. Par exemple, un type de TPU v2-8
est un appareil TPU v2 doté de huit cœurs. Un type de TPU v3-2048
dispose de 256 appareils TPU v3 en réseau et d'un total de 2 048 cœurs. Les types de TPU sont une ressource définie dans l'API Cloud TPU.
Travailleur TPU
Processus qui s'exécute sur une machine hôte et exécute des programmes de machine learning sur des appareils TPU.