Questa pagina contiene i termini del glossario di Google Cloud. Per tutti i termini del glossario, fai clic qui.
A
chip dell'acceleratore
Una categoria di componenti hardware specializzati progettati per eseguire i calcoli chiave necessari per gli algoritmi di deep learning.
I chip acceleratore (o semplicemente acceleratori) possono aumentare notevolmente la velocità e l'efficienza delle attività di addestramento e inferenza rispetto a una CPU generica. Sono ideali per l'addestramento delle reti neurali e di attività simili ad alta intensità di calcolo.
Ecco alcuni esempi di chip acceleratori:
- Le Tensor Processing Unit (TPU) di Google con hardware dedicato per il deep learning.
- Le GPU di NVIDIA, sebbene inizialmente progettate per l'elaborazione grafica, sono progettate per abilitare l'elaborazione in parallelo, che può aumentare notevolmente la velocità di elaborazione.
B
inferenza batch
Il processo di deduzione di previsioni su più esempi non etichettati suddivisi in sottoinsiemi più piccoli ("lotti").
L'inferenza batch può sfruttare le funzionalità di parallellizzazione dei chip di acceleratore. In altre parole, più acceleratori possono dedurre contemporaneamente le previsioni su diversi batch di esempi non etichettati, aumentando notevolmente il numero di deduzioni al secondo.
Per ulteriori informazioni, consulta Sistemi di ML di produzione: inferenza statica e dinamica nel corso introduttivo al machine learning.
C
Cloud TPU
Un acceleratore hardware specializzato progettato per accelerare i carichi di lavoro di machine learning su Google Cloud.
D
dispositivo
Un termine sovraccaricato con le seguenti due possibili definizioni:
- Una categoria di hardware che può eseguire una sessione TensorFlow, tra cui CPU, GPU e TPU.
- Quando si addestra un modello ML su chip di acceleratore (GPU o TPU), la parte del sistema che manipola effettivamente tensori ed embedding. Il dispositivo funziona su chip acceleratori. Al contrario, l'host tipicamente viene eseguito su una CPU.
H
host
Quando addestrini un modello di ML su chip acceleratore (GPU o TPU), la parte del sistema che controlla entrambi i seguenti elementi:
- Il flusso complessivo del codice.
- L'estrazione e la trasformazione della pipeline di input.
In genere, l'host viene eseguito su una CPU, non su un chip di accelerazione. Il dispositivo manipola i tensori sui chip di accelerazione.
M
mesh
Nella programmazione parallela ML, un termine associato all'assegnazione dei dati e del modello ai chip TPU e alla definizione di come questi valori verranno suddivisi o replicati.
Mesh è un termine sovraccaricato che può significare uno dei seguenti:
- Un layout fisico dei chip TPU.
- Un costrutto logico astratto per mappare i dati e il modello ai chip TPU.
In entrambi i casi, un mesh viene specificato come forma.
S
frammento
Una suddivisione logica del set di addestramento o del modello. In genere, alcuni processi creano frammenti dividendo gli esempi o i parametri in (di solito) blocchi di dimensioni uguali. Ogni shard viene quindi assegnato a una macchina diversa.
Lo sharding di un modello è chiamato parallismo dei modelli; lo sharding dei dati è chiamato parallismo dei dati.
T
Tensor Processing Unit (TPU)
Un circuito integrato specifico per applicazioni (ASIC) che ottimizza le prestazioni dei carichi di lavoro di machine learning. Questi ASIC vengono implementati come più chip TPU su un dispositivo TPU.
TPU
Abbreviazione di Tensor Processing Unit.
Chip TPU
Un acceleratore di algebra lineare programmabile con memoria on-chip ad alta larghezza di banda ottimizzata per i carichi di lavoro di machine learning. Più chip TPU vengono implementati su un dispositivo TPU.
Dispositivo TPU
Una scheda per circuiti stampati (PCB) con più chip TPU, interfacce di rete ad alta larghezza di banda e hardware di raffreddamento del sistema.
TPU master
Il processo di coordinamento centrale in esecuzione su una macchina host che invia e riceve dati, risultati, programmi, prestazioni e informazioni sullo stato del sistema ai worker TPU. Il master TPU gestisce anche la configurazione e l'arresto dei dispositivi TPU.
Nodo TPU
Una risorsa TPU su Google Cloud con un tipo di TPU specifico. Il nodo TPU si connette alla tua rete VPC da una rete VPC peer. I nodi TPU sono una risorsa definita nell'API Cloud TPU.
pod di TPU
Una configurazione specifica di dispositivi TPU in un data center di Google. Tutti i dispositivi di un pod TPU sono collegati tra loro tramite una rete ad alta velocità dedicata. Un pod TPU è la configurazione più grande di dispositivi TPU disponibile per una versione TPU specifica.
Risorsa TPU
Un'entità TPU su Google Cloud che crei, gestisci o utilizzi. Ad esempio, i nodi TPU e i tipi di TPU sono risorse TPU.
Sezione TPU
Una sezione TPU è una parte frazionaria dei dispositivi TPU in un pod TPU. Tutti i dispositivi di una sezione TPU sono collegati tra loro tramite una rete ad alta velocità dedicata.
Tipo di TPU
Una configurazione di uno o più dispositivi TPU con una versione hardware TPU specifica. Seleziona un tipo di TPU quando crei un nodo TPU su Google Cloud. Ad esempio, un tipo di TPU v2-8
è un singolo dispositivo TPU v2 con 8 core. Un tipo di TPU v3-2048
ha 256
dispositivi TPU v3 in rete e un totale di 2048 core. I tipi di TPU sono una risorsa
definita nell'API Cloud TPU.
Nodo di lavoro TPU
Un processo che viene eseguito su una macchina host ed esegue programmi di machine learning su dispositivi TPU.