Cette page contient les termes du glossaire TensorFlow. Pour consulter tous les termes du glossaire, cliquez ici.
B
inférence par lot
Processus d'inférence des prédictions sur plusieurs exemples sans étiquette divisé en sous-ensembles plus petits ("lots").
L'inférence par lot peut exploiter les fonctionnalités de parallélisation des puces accélérateurs. Autrement dit, plusieurs accélérateurs peuvent déduire simultanément des prédictions sur différents lots d'exemples non étiquetés, ce qui augmente considérablement le nombre d'inférences par seconde.
C
Cloud TPU
Accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud.
D
API Dataset (tf.data)
API TensorFlow de haut niveau permettant de lire les données et de les transformer en un format requis par un algorithme de machine learning.
Un objet tf.data.Dataset
représente une séquence d'éléments, dans laquelle chaque élément contient un ou plusieurs Tensors. Un objet tf.data.Iterator
permet d'accéder aux éléments d'un Dataset
.
Pour plus d'informations sur l'API Dataset, consultez la page tf.data: Créer des pipelines d'entrée TensorFlow dans le guide du programmeur TensorFlow.
appareil
Terme surchargé dont les deux définitions possibles sont les suivantes:
- Catégorie de matériel pouvant exécuter une session TensorFlow, y compris les CPU, les GPU et les TPU.
- Lors de l'entraînement d'un modèle de ML sur des puces accélérateurs (GPU ou TPU), il s'agit de la partie du système qui manipule les Tensors et les représentations vectorielles continues. L'appareil s'exécute sur des puces d'accélérateur. En revanche, l'hôte s'exécute généralement sur un processeur.
E
exécution eager
Environnement de programmation TensorFlow dans lequel les operations s'exécutent immédiatement. En revanche, les opérations appelées dans l'exécution de graphe ne sont exécutées que lorsqu'elles sont explicitement évaluées. L'exécution eager est une interface impérative, tout comme le code de la plupart des langages de programmation. Les programmes d'exécution eager sont généralement beaucoup plus faciles à déboguer que les programmes d'exécution de graphe.
Estimator
API TensorFlow obsolète. Utilisez tf.keras au lieu d'Estimators.
F
l'ingénierie des caractéristiques.
Un processus comprenant les étapes suivantes:
- Déterminer les caractéristiques qui pourraient s'avérer utiles pour entraîner un modèle
- Convertir les données brutes de l'ensemble de données en versions efficaces de ces caractéristiques
Par exemple, vous pouvez déterminer que temperature
peut être une fonctionnalité utile. Vous pouvez ensuite expérimenter le binning pour optimiser ce que le modèle peut apprendre à partir de différentes plages temperature
.
L'extraction de caractéristiques est parfois appelée extraction de caractéristiques ou fonctionnalité.
spécification des caractéristiques
Décrit les informations requises pour extraire les données de caractéristiques du tampon de protocole tf.Example. Étant donné que le tampon de protocole tf.Example n'est qu'un conteneur de données, vous devez spécifier les éléments suivants:
- Données à extraire (c'est-à-dire, les clés des caractéristiques)
- Type de données (par exemple, flottant ou entier)
- La longueur (fixe ou variable)
G
graphique
Dans TensorFlow, une spécification de calcul. Les nœuds du graphe représentent des opérations. Les bords sont orientés et représentent le passage du résultat d'une opération (un Tensor) en tant qu'opérande vers une autre opération. Utilisez TensorBoard pour visualiser un graphe.
exécution de graphe
Environnement de programmation TensorFlow dans lequel le programme commence par construire un graphe, puis exécute tout ou partie de ce graphe. L'exécution de graphe est le mode d'exécution par défaut dans TensorFlow 1.x.
À comparer à l'exécution eager.
H
hôte
Lors de l'entraînement d'un modèle de ML sur des puces accélérateurs (GPU ou TPU), la partie du système qui contrôle les deux éléments suivants:
- Flux global du code.
- Extraction et transformation du pipeline d'entrée
L'hôte s'exécute généralement sur un processeur et non sur une puce d'accélérateur. L'appareil manipule les Tensors sur les puces d'accélérateur.
L
API Layers (tf.layers)
API TensorFlow pour construire un réseau de neurones profond à partir d'une composition de couches. L'API Layers vous permet de créer différents types de couches, par exemple:
tf.layers.Dense
pour une couche entièrement connectée.tf.layers.Conv2D
pour une couche convolutive.
L'API Layers respecte les conventions de l'API Keras concernant les couches. Autrement dit, à part un préfixe différent, toutes les fonctions de l'API Layers ont des noms et des signatures identiques à ceux de leurs homologues dans l'API Keras.
Lu
Grille
En programmation parallèle de ML, terme associé à l'attribution des données et du modèle aux puces TPU, et à la définition de la segmentation ou de la réplication de ces valeurs.
Le terme "maillage" est un concept complexe qui peut désigner l'un des éléments suivants:
- Disposition physique de puces TPU.
- Construction logique abstraite permettant de mapper les données et le modèle aux puces TPU.
Dans les deux cas, un maillage est spécifié en tant que shape.
metric
Une statistique qui vous tient à cœur.
Un objectif est une métrique qu'un système de machine learning tente d'optimiser.
N
nœud (graphe TensorFlow)
Opération dans un graphe TensorFlow.
O
opération (opération)
Dans TensorFlow, toute procédure qui crée, manipule ou détruit un Tensor. Par exemple, une multiplication matricielle est une opération qui prend deux Tensors en entrée et qui génère un Tensor en sortie.
P
Serveur de paramètres
Tâche qui effectue le suivi des paramètres d'un modèle dans un environnement distribué.
Q
q
Opération TensorFlow qui implémente une structure de données de file d'attente. Généralement utilisé dans les E/S.
R
Rank (Tensor)
Nombre de dimensions d'un Tensor. Par exemple, une valeur scalaire a un rang de 0, un vecteur un rang de 1 et une matrice un rang de 2.
À ne pas confondre avec le rang (ordinalité).
répertoire racine
Répertoire que vous spécifiez pour héberger les sous-répertoires du point de contrôle TensorFlow et les fichiers d'événements de plusieurs modèles.
S
SavedModel
Format recommandé pour enregistrer et récupérer des modèles TensorFlow. SavedModel est un format de sérialisation récupérable et indépendant du langage, qui permet aux systèmes et aux outils de niveau supérieur de produire, d'utiliser et de transformer des modèles TensorFlow.
Pour plus d'informations, consultez l'article Enregistrer et récupérer du guide du programmeur TensorFlow.
Économique
Objet TensorFlow responsable de l'enregistrement des points de contrôle du modèle.
segment
Division logique de l'ensemble d'entraînement ou du modèle. En règle générale, certains processus créent des segments en divisant les exemples ou les paramètres en fragments (généralement) de taille égale. Chaque segment est ensuite attribué à une machine différente.
La segmentation d'un modèle est appelée parallélisme de modèle, tandis que la segmentation des données est appelée parallélisme des données.
résumé
Dans TensorFlow, valeur ou ensemble de valeurs calculées à une étape particulière, généralement utilisée pour suivre les métriques du modèle pendant l'entraînement.
T
Tensor
Structure de données principale des programmes TensorFlow. Les Tensors sont des structures de données à N dimensions (N pouvant être très volumineuses), le plus souvent scalaires, vecteurs ou matrices. Les éléments d'un Tensor peuvent contenir des valeurs de type entier, à virgule flottante ou chaîne.
TensorBoard
Tableau de bord qui affiche les résumés enregistrés lors de l'exécution d'un ou de plusieurs programmes TensorFlow.
TensorFlow
Plate-forme distribuée de machine learning à grande échelle Ce terme fait également référence à la couche API de base de la pile TensorFlow, qui permet d'effectuer des calculs généraux sur les graphes Dataflow.
Bien que TensorFlow soit principalement utilisé pour le machine learning, vous pouvez également l'utiliser pour des tâches non liées au ML qui nécessitent des calculs numériques à l'aide de graphes Dataflow.
TensorFlow Playground
Programme qui visualise l'impact de différents hyperparamètres sur l'entraînement du modèle (principalement un réseau de neurones). Pour découvrir TensorFlow Playground, rendez-vous sur le site http://playground.tensorflow.org.
TensorFlow Serving
Plate-forme permettant de déployer des modèles entraînés en production
Tensor Processing Unit (TPU)
Circuit intégré spécifique à l'application (ASIC) qui optimise les performances des charges de travail de machine learning. Ces ASIC sont déployés sous la forme de plusieurs puces TPU sur un appareil TPU.
rang de Tensor
Voir rang (Tensor).
forme de Tensor
Nombre d'éléments d'un Tensor dans différentes dimensions.
Par exemple, un Tensor [5, 10]
a la forme 5 dans une dimension et 10 dans une autre.
Taille de Tensor
Nombre total de scalaires d'un Tensor. Par exemple, un Tensor [5, 10]
a une taille de 50.
tf.Example
Protocol Buffer standard pour la description des données d'entrée, pour l'inférence ou l'entraînement d'un modèle de machine learning.
tf.keras
Mise en œuvre de Keras intégrée à TensorFlow.
TPU
Abréviation de Tensor Processing Unit.
puce TPU
Accélérateur d'algèbre linéaire programmable doté d'une mémoire à bande passante élevée sur puce qui est optimisée pour les charges de travail de machine learning. Plusieurs puces TPU sont déployées sur un appareil TPU.
Appareil TPU
Un circuit imprimé (PCB) avec plusieurs puces TPU, des interfaces réseau à bande passante élevée et du matériel de refroidissement du système.
maître TPU
Processus de coordination central s'exécutant sur une machine hôte qui envoie et reçoit des données, des résultats, des programmes, des performances et des informations sur l'état du système aux nœuds de calcul TPU. Le maître TPU gère également la configuration et l'arrêt des appareils TPU.
Nœud TPU
Une ressource TPU sur Google Cloud avec un type de TPU spécifique. Le nœud TPU se connecte à votre réseau VPC à partir d'un réseau VPC appairé. Les nœuds TPU sont une ressource définie dans l'API Cloud TPU.
pod TPU
Une configuration spécifique d'appareils TPU dans un centre de données Google. Tous les appareils d'un pod TPU sont connectés les uns aux autres via un réseau haut débit dédié. Un pod TPU est la plus grande configuration d'appareils TPU disponible pour une version de TPU spécifique.
ressource TPU
Entité TPU sur Google Cloud que vous créez, gérez ou utilisez. Par exemple, les nœuds TPU et les types TPU sont des ressources TPU.
Tranche TPU
Une tranche TPU représente une partie fractionnaire des appareils TPU dans un pod TPU. Tous les appareils d'une tranche TPU sont connectés les uns aux autres via un réseau haut débit dédié.
Type de TPU
Configuration d'un ou de plusieurs appareils TPU avec une version de matériel TPU spécifique. Vous sélectionnez un type de TPU lorsque vous créez un nœud TPU sur Google Cloud. Par exemple, un type de TPU v2-8
est un appareil TPU v2 unique doté de huit cœurs. Un type de TPU v3-2048
comporte 256 appareils TPU v3 en réseau et un total de 2 048 cœurs. Les types de TPU sont des ressources définies dans l'API Cloud TPU.
travailleur TPU
Processus qui s'exécute sur une machine hôte et exécute des programmes de machine learning sur des appareils TPU.