Questa pagina contiene i termini del glossario di TensorFlow. Per tutti i termini del glossario, fai clic qui.
B
inferenza batch
Il processo di deduzione di previsioni su più esempi non etichettati suddivisi in sottoinsiemi più piccoli ("lotti").
L'inferenza batch può sfruttare le funzionalità di parallellizzazione dei chip di acceleratore. In altre parole, più acceleratori possono dedurre contemporaneamente le previsioni su diversi batch di esempi non etichettati, aumentando notevolmente il numero di deduzioni al secondo.
Per ulteriori informazioni, consulta Sistemi di ML di produzione: inferenza statica e dinamica nel corso introduttivo al machine learning.
C
Cloud TPU
Un acceleratore hardware specializzato progettato per accelerare i carichi di lavoro di machine learning su Google Cloud.
D
API Dataset (tf.data)
Un'API TensorFlow di alto livello per leggere i dati e
trasformarli in una forma richiesta da un algoritmo di machine learning.
Un oggetto tf.data.Dataset
rappresenta una sequenza di elementi, in cui ogni elemento contiene uno o più Tensori. Un oggetto tf.data.Iterator
fornisce accesso agli elementi di un Dataset
.
dispositivo
Un termine sovraccaricato con le seguenti due possibili definizioni:
- Una categoria di hardware che può eseguire una sessione TensorFlow, tra cui CPU, GPU e TPU.
- Quando si addestra un modello ML su chip di acceleratore (GPU o TPU), la parte del sistema che manipola effettivamente tensori ed embedding. Il dispositivo funziona su chip acceleratori. Al contrario, l'host tipicamente viene eseguito su una CPU.
E
esecuzione eager
Un ambiente di programmazione TensorFlow in cui le operazioni vengono eseguite immediatamente. Al contrario, le operazioni chiamate nell'esecuzione del grafo non vengono eseguite finché non vengono valutate esplicitamente. L'esecuzione anticipata è un'interfaccia imperativa, molto simile al codice della maggior parte dei linguaggi di programmazione. I programmi di esecuzione eager sono generalmente molto più facili da eseguire il debug rispetto ai programmi di esecuzione del grafico.
Estimator
Un'API TensorFlow deprecata. Utilizza tf.keras anziché gli estimatori.
F
e applicazione del feature engineering.
Un processo che prevede i seguenti passaggi:
- Determinare quali caratteristiche potrebbero essere utili per l'addestramento di un modello.
- Convertire i dati non elaborati del set di dati in versioni efficienti di queste funzionalità.
Ad esempio, potresti stabilire che temperature
potrebbe essere una funzionalità utile. Dopodiché, puoi sperimentare il bucketing per ottimizzare ciò che il modello può apprendere da diversi intervalli temperature
.
Il feature engineering è a volte chiamato estrazione di funzionalità o caratterizzazione.
Per saperne di più, consulta la sezione Dati numerici: come un modello acquisisce i dati utilizzando vettori di funzionalità nel corso introduttivo al machine learning.
specifiche della funzionalità
Descrive le informazioni necessarie per estrarre i dati delle caratteristiche dal buffer di protocollo tf.Example. Poiché il buffer di protocollo tf.Example è solo un contenitore per i dati, devi specificare quanto segue:
- I dati da estrarre (ovvero le chiavi per le funzionalità)
- Il tipo di dati (ad es. float o int)
- La lunghezza (fissa o variabile)
G
grafico
In TensorFlow, una specifica di calcolo. I nodi nel grafico rappresentano le operazioni. Gli archi sono diretti e rappresentano il passaggio del risultato di un'operazione (un Tensor) come operando a un'altra operazione. Utilizza TensorBoard per visualizzare un grafico.
esecuzione del grafo
Un ambiente di programmazione TensorFlow in cui il programma costruisce prima un grafo e poi lo esegue tutto o in parte. L'esecuzione del grafo è la modalità di esecuzione predefinita in TensorFlow 1.x.
È il contrario dell'esecuzione anticipata.
H
host
Quando addestrini un modello di ML su chip acceleratore (GPU o TPU), la parte del sistema che controlla entrambi i seguenti elementi:
- Il flusso complessivo del codice.
- L'estrazione e la trasformazione della pipeline di input.
In genere, l'host viene eseguito su una CPU, non su un chip di accelerazione. Il dispositivo manipola i tensori sui chip di accelerazione.
L
API Layers (tf.layers)
Un'API TensorFlow per la costruzione di una rete neurale profonda come composizione di strati. L'API Layers consente di creare diversi tipi di strati, ad esempio:
tf.layers.Dense
per uno strato completamente connesso.tf.layers.Conv2D
per un livello convolzionale.
L'API Layers segue le convenzioni dell'API dei livelli Keras. Ciò significa che, a parte un prefisso diverso, tutte le funzioni dell'API Layers hanno gli stessi nomi e le stesse firme delle relative controparti nell'API di Keras.
M
mesh
Nella programmazione parallela ML, un termine associato all'assegnazione dei dati e del modello ai chip TPU e alla definizione di come questi valori verranno suddivisi o replicati.
Mesh è un termine sovraccaricato che può significare uno dei seguenti:
- Un layout fisico dei chip TPU.
- Un costrutto logico astratto per mappare i dati e il modello ai chip TPU.
In entrambi i casi, un mesh viene specificato come forma.
metrica
Una statistica che ti interessa.
Un obiettivo è una metrica che un sistema di machine learning tenta di ottimizzare.
No
Nodo (grafico TensorFlow)
Un'operazione in un grafo TensorFlow.
O
operazione (op)
In TensorFlow, qualsiasi procedura che crei, manipolare o distrugga un Tensor. Ad esempio, una moltiplicazione matriciale è un'operazione che prende due tensori come input e genera un tensore come output.
P
Server dei parametri (PS)
Un job che tiene traccia dei parametri di un modello in un'impostazione distribuita.
Q
coda
Un'operazione TensorFlow che implementa una struttura di dati della coda. Generalmente utilizzato in I/O.
R
rank (Tensor)
Il numero di dimensioni in un Tensor. Ad esempio, un scalare ha rango 0, un vettore ha rango 1 e una matrice ha rango 2.
Da non confondere con il ranking (ordinalità).
directory principale
La directory specificata per l'hosting di sottodirectory dei file di checkpoint e eventi di TensorFlow di più modelli.
S
SavedModel
Il formato consigliato per salvare e recuperare i modelli TensorFlow. SavedModel è un formato di serializzazione recuperabile e indipendente dal linguaggio che consente a sistemi e strumenti di livello superiore di produrre, consumare e trasformare i modelli TensorFlow.
Per informazioni dettagliate, consulta la sezione Salvataggio e ripristino della Guida per programmatori di TensorFlow.
Economico
Un oggetto TensorFlow responsabile del salvataggio dei checkpoint del modello.
frammento
Una suddivisione logica del set di addestramento o del modello. In genere, alcuni processi creano frammenti dividendo gli esempi o i parametri in (di solito) blocchi di dimensioni uguali. Ogni shard viene quindi assegnato a una macchina diversa.
Lo sharding di un modello è chiamato parallismo dei modelli; lo sharding dei dati è chiamato parallismo dei dati.
riepilogo
In TensorFlow, un valore o un insieme di valori calcolati in un determinato passaggio, in genere utilizzato per monitorare le metriche del modello durante l'addestramento.
T
Tensore
La struttura di dati principale nei programmi TensorFlow. I tensori sono strutture di dati N-dimensionali (dove N può essere molto grande), in genere scalari, vettori o matrici. Gli elementi di un tensore possono contenere valori interi, con virgola mobile o stringa.
TensorBoard
La dashboard che mostra i riepiloghi salvati durante l'esecuzione di uno o più programmi TensorFlow.
TensorFlow
Una piattaforma di machine learning distribuita e su larga scala. Il termine si riferisce anche al livello API di base nello stack TensorFlow, che supporta i calcoli generali sui grafici di flusso di dati.
Anche se TensorFlow viene utilizzato principalmente per il machine learning, puoi utilizzarlo anche per attività non ML che richiedono calcoli numerici utilizzando i grafici di flusso di dati.
TensorFlow Playground
Un programma che mostra in che modo diversi iperparametri influiscono sull'addestramento del modello (principalmente rete neurale). Vai a http://playground.tensorflow.org per fare esperimenti con TensorFlow Playground.
TensorFlow Serving
Una piattaforma per il deployment dei modelli addestrati in produzione.
Tensor Processing Unit (TPU)
Un circuito integrato specifico per applicazioni (ASIC) che ottimizza le prestazioni dei carichi di lavoro di machine learning. Questi ASIC vengono implementati come più chip TPU su un dispositivo TPU.
Rango del tensore
Vedi rank (Tensor).
Forma del tensore
Il numero di elementi contenuti in un Tensor in varie dimensioni.
Ad esempio, un tensore [5, 10]
ha una forma di 5 in una dimensione e 10 in un'altra.
Dimensioni del tensore
Il numero totale di scalari contenuti in un Tensor. Ad esempio, un
[5, 10]
tensore ha una dimensione di 50.
tf.Example
Un buffer di protocollo standard per descrivere i dati di input per l'addestramento o l'inferenza del modello di machine learning.
tf.keras
Un'implementazione di Keras integrata in TensorFlow.
TPU
Abbreviazione di Tensor Processing Unit.
Chip TPU
Un acceleratore di algebra lineare programmabile con memoria on-chip ad alta larghezza di banda ottimizzata per i carichi di lavoro di machine learning. Più chip TPU vengono implementati su un dispositivo TPU.
Dispositivo TPU
Una scheda per circuiti stampati (PCB) con più chip TPU, interfacce di rete ad alta larghezza di banda e hardware di raffreddamento del sistema.
TPU master
Il processo di coordinamento centrale in esecuzione su una macchina host che invia e riceve dati, risultati, programmi, prestazioni e informazioni sullo stato del sistema ai worker TPU. Il master TPU gestisce anche la configurazione e l'arresto dei dispositivi TPU.
Nodo TPU
Una risorsa TPU su Google Cloud con un tipo di TPU specifico. Il nodo TPU si connette alla tua rete VPC da una rete VPC peer. I nodi TPU sono una risorsa definita nell'API Cloud TPU.
pod di TPU
Una configurazione specifica di dispositivi TPU in un data center di Google. Tutti i dispositivi di un pod TPU sono collegati tra loro tramite una rete ad alta velocità dedicata. Un pod TPU è la configurazione più grande di dispositivi TPU disponibile per una versione TPU specifica.
Risorsa TPU
Un'entità TPU su Google Cloud che crei, gestisci o utilizzi. Ad esempio, i nodi TPU e i tipi di TPU sono risorse TPU.
Sezione TPU
Una sezione TPU è una parte frazionaria dei dispositivi TPU in un pod TPU. Tutti i dispositivi di una sezione TPU sono collegati tra loro tramite una rete ad alta velocità dedicata.
Tipo di TPU
Una configurazione di uno o più dispositivi TPU con una versione hardware TPU specifica. Seleziona un tipo di TPU quando crei un nodo TPU su Google Cloud. Ad esempio, un tipo di TPU v2-8
è un singolo dispositivo TPU v2 con 8 core. Un tipo di TPU v3-2048
ha 256
dispositivi TPU v3 in rete e un totale di 2048 core. I tipi di TPU sono una risorsa
definita nell'API Cloud TPU.
Nodo di lavoro TPU
Un processo che viene eseguito su una macchina host ed esegue programmi di machine learning su dispositivi TPU.