Cette page contient les termes du glossaire TensorFlow. Pour consulter tous les termes du glossaire, cliquez ici.
C
Cloud TPU
Accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud.
D
API Dataset (tf.data)
API TensorFlow de haut niveau pour la lecture des données et leur transformation en une forme requise par un algorithme de machine learning.
Un objet tf.data.Dataset
représente une séquence d'éléments dans laquelle chaque élément contient un ou plusieurs Tensors. Un objet tf.data.Iterator
permet d'accéder aux éléments d'un Dataset
.
appareil
Terme complexe ayant deux définitions possibles :
- Catégorie de matériel pouvant exécuter une session TensorFlow, y compris les CPU, les GPU et les TPU.
- Lors de l'entraînement d'un modèle de ML sur des puces d'accélérateur (GPU ou TPU), il s'agit de la partie du système qui manipule réellement les tenseurs et les embeddings. L'appareil fonctionne avec des puces d'accélération. En revanche, l'hôte s'exécute généralement sur un processeur.
E
exécution eager
Environnement de programmation TensorFlow dans lequel les opérations s'exécutent immédiatement. En revanche, les opérations appelées dans l'exécution de graphe ne sont exécutées que lorsqu'elles sont explicitement évaluées. L'exécution eager est une interface impérative, à l'instar du code de la plupart des langages de programmation. Les programmes d'exécution eager sont généralement bien plus faciles à déboguer que les programmes d'exécution de graphe.
Estimator
API TensorFlow obsolète. Utilisez plutôt tf.keras que les Estimators.
F
l'ingénierie des caractéristiques.
Processus comprenant les étapes suivantes :
- Déterminer les caractéristiques susceptibles d'être utiles pour entraîner un modèle.
- Convertir les données brutes de l'ensemble de données en versions efficaces de ces caractéristiques.
Par exemple, vous pouvez déterminer que temperature
peut être une fonctionnalité utile. Vous pouvez ensuite tester le bucketing pour optimiser ce que le modèle peut apprendre à partir de différentes plages de temperature
.
L'ingénierie des caractéristiques est parfois appelée extraction de caractéristiques ou caractérisation.
Pour en savoir plus, consultez Données numériques : comment un modèle ingère des données à l'aide de vecteurs de caractéristiques dans le cours intensif sur le machine learning.
spécification des caractéristiques
Décrit les informations requises pour extraire les données des features du tampon de protocole tf.Example. Étant donné que le tampon de protocole tf.Example n'est qu'un conteneur de données, vous devez spécifier les éléments suivants :
- Données à extraire (c'est-à-dire les clés des caractéristiques)
- Type de données (par exemple, float ou int)
- Longueur (fixe ou variable)
G
graphique
Dans TensorFlow, les spécifications du calcul. Les nœuds du graphique représentent des opérations. Les bords sont orientés et représentent le passage du résultat d'une opération (un Tensor) en tant qu'opérande vers une autre opération. Pour visualiser un graphique, utilisez TensorBoard.
exécution de graphe
Environnement de programmation TensorFlow dans lequel le programme commence par construire un graphe, puis exécute tout ou partie de ce graphe. L'exécution de graphe est le mode d'exécution par défaut dans TensorFlow 1.x.
À comparer à l'exécution eager.
H
hôte
Lors de l'entraînement d'un modèle de ML sur des puces d'accélérateur (GPU ou TPU), la partie du système qui contrôle les deux éléments suivants :
- Le flux global du code.
- Extraction et transformation du pipeline d'entrée.
L'hôte s'exécute généralement sur un processeur, et non sur une puce d'accélération. L'appareil manipule les Tensors sur les puces d'accélération.
L
API Layers (tf.layers)
API TensorFlow pour la construction d'un réseau de neurones profond à partir de plusieurs couches. L'API Layers permet de créer différents types de couches, comme les suivants :
tf.layers.Dense
pour une couche entièrement connectée.tf.layers.Conv2D
pour une couche convolutive
L'API Layers respecte les conventions de l'API Keras concernant les couches. Autrement dit, à l'exception d'un préfixe différent, toutes les fonctions de l'API Layers ont les mêmes noms et signatures que leurs homologues dans l'API Keras Layers.
M
Grille
En programmation parallèle ML, terme associé à l'attribution des données et du modèle aux puces TPU, et à la définition de la manière dont ces valeurs seront fragmentées ou répliquées.
Le terme "mesh" est complexe et peut désigner l'un des deux concepts suivants :
- Disposition physique des puces TPU.
- Construction logique abstraite permettant de mapper les données et le modèle aux puces TPU.
Dans les deux cas, un maillage est spécifié en tant que forme.
metric
Statistique qui vous intéresse.
Un objectif est une métrique qu'un système de machine learning tente d'optimiser.
N
nœud (graphe TensorFlow)
Opération dans un graphe TensorFlow.
O
opération (op)
Dans TensorFlow, toute procédure qui crée, manipule ou détruit un Tensor. Par exemple, une multiplication matricielle est une opération qui prend deux Tensors en entrée et génère un Tensor en sortie.
P
Serveur de paramètres (PS)
Tâche qui effectue le suivi des paramètres d'un modèle dans une configuration distribuée.
Q
q
Opération TensorFlow qui implémente une structure de données de file d'attente. Généralement utilisé dans les E/S.
R
rang (Tensor)
Nombre de dimensions d'un Tensor. Par exemple, une grandeur scalaire a un rang de 0, un vecteur un rang de 1 et une matrice un rang de 2.
À ne pas confondre avec le rang (ordinalité).
répertoire racine
Répertoire que vous spécifiez pour l'enregistrement des sous-répertoires du point de contrôle TensorFlow et des fichiers d'événements de plusieurs modèles.
S
SavedModel
Format recommandé pour enregistrer et récupérer des modèles TensorFlow. SavedModel est un format de sérialisation récupérable, de langage neutre, qui permet aux systèmes et aux outils de plus haut niveau de produire, consommer et transformer des modèles TensorFlow.
Pour en savoir plus, consultez la section Enregistrer et récupérer du guide du programmeur TensorFlow.
Économique
Objet TensorFlow responsable de l'enregistrement des points de contrôle du modèle.
segment
Division logique de l'ensemble d'entraînement ou du modèle. En règle générale, un processus crée des partitions en divisant les exemples ou les paramètres en blocs de taille (généralement) égale. Chaque partition est ensuite attribuée à une machine différente.
Le partitionnement d'un modèle est appelé parallélisme des modèles, tandis que le partitionnement des données est appelé parallélisme des données.
résumé
Dans TensorFlow, valeur ou ensemble de valeurs calculées à un pas donné, généralement utilisé pour effectuer le suivi des métriques du modèle pendant l'entraînement.
T
Tensor
Structure de données principale des programmes TensorFlow. Les Tensors sont des structures de données à N dimensions (où N peut être très grand), le plus souvent des scalaires, des vecteurs ou des matrices. Les éléments d'un Tensor peuvent contenir des valeurs de type entier, à virgule flottante ou chaîne.
TensorBoard
Tableau de bord qui affiche les résumés enregistrés lors de l'exécution d'un ou de plusieurs programmes TensorFlow.
TensorFlow
Plate-forme de machine learning distribuée à grande échelle. Le terme fait également référence à la couche d'API de base de la pile TensorFlow, qui prend en charge le calcul général sur les graphiques de flux de données.
Bien que TensorFlow soit principalement utilisé pour le machine learning, vous pouvez également l'utiliser pour des tâches non liées au ML qui nécessitent un calcul numérique à l'aide de graphiques de flux de données.
TensorFlow Playground
Programme qui visualise l'influence de différents hyperparamètres sur l'entraînement d'un modèle (principalement un réseau de neurones). Pour découvrir TensorFlow Playground, rendez-vous sur http://playground.tensorflow.org.
TensorFlow Serving
Plate-forme permettant de déployer des modèles entraînés en production.
Tensor Processing Unit (TPU)
Un circuit intégré propre à une application (ASIC) qui optimise les performances des charges de travail de machine learning. Ces ASIC sont déployés sous la forme de plusieurs puces TPU sur un appareil TPU.
Rang de Tensor
Voir rang (Tensor).
Forme du Tensor
Nombre d'éléments d'un Tensor dans différentes dimensions.
Par exemple, un Tensor [5, 10]
a une forme de 5 dans une dimension et de 10 dans une autre.
Taille du Tensor
Nombre total de grandeurs scalaires d'un Tensor. Par exemple, la taille d'un Tensor [5, 10]
est de 50.
tf.Example
Protocol Buffer standard pour la description des données d'entrée, pour l'inférence ou l'entraînement d'un modèle de machine learning.
tf.keras
Implémentation de Keras intégrée à TensorFlow.
TPU
Abréviation de Tensor Processing Unit.
Puce TPU
Accélérateur d'algèbre linéaire programmable avec mémoire à haute bande passante sur puce, optimisé pour les charges de travail de machine learning. Plusieurs puces TPU sont déployées sur un appareil TPU.
Appareil TPU
Carte de circuit imprimé (PCB) avec plusieurs puces TPU, des interfaces réseau à bande passante élevée et du matériel de refroidissement du système.
Nœud TPU
Ressource TPU sur Google Cloud avec un type de TPU spécifique. Le nœud TPU se connecte à votre réseau VPC à partir d'un réseau VPC pair. Les nœuds TPU sont une ressource définie dans l'API Cloud TPU.
Pod TPU
Configuration spécifique d'appareils TPU dans un centre de données Google. Tous les appareils d'un pod TPU sont interconnectés sur un réseau haut débit dédié. Un pod TPU est la plus grande configuration d'appareils TPU disponible pour une version de TPU spécifique.
Ressource TPU
Entité TPU sur Google Cloud que vous créez, gérez ou utilisez. Par exemple, les nœuds TPU et les types de TPU sont des ressources TPU.
Tranche TPU
Une tranche de TPU est une fraction des appareils TPU d'un pod TPU. Tous les appareils d'une tranche TPU sont interconnectés sur un réseau haut débit dédié.
Type de TPU
Configuration d'un ou plusieurs appareils TPU avec une version matérielle TPU spécifique. Vous sélectionnez un type de TPU lorsque vous créez un nœud TPU sur Google Cloud. Par exemple, un type de TPU v2-8
est un appareil TPU v2 unique avec huit cœurs. Un type de TPU v3-2048
comporte 256 appareils TPU v3 en réseau et un total de 2 048 cœurs. Les types de TPU sont des ressources définies dans l'API Cloud TPU.
Nœud de calcul TPU
Processus qui s'exécute sur une machine hôte et exécute des programmes de machine learning sur des appareils TPU.