Halaman ini berisi istilah glosarium Google Cloud. Untuk semua istilah glosarium, klik di sini.
A
chip akselerator
Kategori komponen hardware khusus yang dirancang untuk melakukan komputasi utama yang diperlukan untuk algoritma deep learning.
Chip akselerator (atau disingkat akselerator) dapat meningkatkan kecepatan dan efisiensi tugas pelatihan dan inferensi secara signifikan dibandingkan dengan CPU serbaguna. GPU ini ideal untuk melatih neural network dan tugas intensif komputasi serupa.
Contoh chip akselerator meliputi:
- Tensor Processing Unit (TPU) Google dengan hardware khusus untuk deep learning.
- GPU NVIDIA yang, meskipun awalnya dirancang untuk pemrosesan grafis, dirancang untuk memungkinkan pemrosesan paralel, yang dapat meningkatkan kecepatan pemrosesan secara signifikan.
B
inferensi batch
Proses menyimpulkan prediksi pada beberapa contoh yang tidak berlabel yang dibagi menjadi subkumpulan yang lebih kecil ("batch").
Inferensi batch dapat memanfaatkan fitur paralelisasi chip akselerator. Artinya, beberapa akselerator dapat secara bersamaan menyimpulkan prediksi pada berbagai batch contoh tanpa label, sehingga meningkatkan jumlah inferensi per detik secara drastis.
Lihat Sistem ML produksi: Inferensi statis versus dinamis di Kursus Singkat Machine Learning untuk mengetahui informasi selengkapnya.
C
Cloud TPU
Akselerator hardware khusus yang dirancang untuk mempercepat beban kerja machine learning di Google Cloud.
D
perangkat
Istilah yang memiliki lebih dari satu makna dengan dua kemungkinan definisi berikut:
- Kategori hardware yang dapat menjalankan sesi TensorFlow, yang meliputi CPU, GPU, dan TPU.
- Saat melatih model ML di chip akselerator (GPU atau TPU), bagian sistem yang benar-benar memanipulasi tensor dan embedding. Perangkat berjalan pada chip akselerator. Sebaliknya, host biasanya berjalan di CPU.
H
host
Saat melatih model ML di chip akselerator (GPU atau TPU), bagian sistem yang mengontrol kedua hal berikut:
- Alur keseluruhan kode.
- Ekstraksi dan transformasi pipeline input.
Host biasanya berjalan di CPU, bukan di chip akselerator; perangkat memanipulasi tensor di chip akselerator.
M
mesh
Dalam pemrograman paralel ML, istilah yang terkait dengan penetapan data dan model ke chip TPU, serta menentukan cara nilai ini akan di-shard atau direplikasi.
Mesh adalah istilah yang memiliki lebih dari satu makna yang dapat berarti salah satu dari hal berikut:
- Tata letak fisik TPU chip.
- Konstruksi logis abstrak untuk memetakan data dan model ke chip TPU.
Dalam kedua kasus tersebut, mesh ditentukan sebagai shape.
S
shard
Pembagian logis dari set pelatihan atau model. Biasanya, beberapa proses membuat shard dengan membagi contoh atau parameter menjadi (biasanya) bagian berukuran sama. Setiap shard kemudian ditetapkan ke mesin yang berbeda.
Pembagian model disebut paralelisme model; pembagian data disebut paralelisme data.
S
Tensor Processing Unit (TPU)
Application-specific integrated circuit (ASIC) yang mengoptimalkan performa workload machine learning. ASIC ini di-deploy sebagai beberapa chip TPU di perangkat TPU.
TPU
Singkatan dari Tensor Processing Unit.
Chip TPU
Akselerator aljabar linear yang dapat diprogram dengan memori bandwidth tinggi di chip yang dioptimalkan untuk beban kerja machine learning. Beberapa chip TPU di-deploy di perangkat TPU.
Perangkat TPU
Printed circuit board (PCB) dengan beberapa chip TPU, antarmuka jaringan bandwidth tinggi, dan hardware pendingin sistem.
TPU master
Proses koordinasi pusat yang berjalan di mesin host yang mengirim dan menerima data, hasil, program, performa, dan informasi kesehatan sistem ke pekerja TPU. TPU master juga mengelola penyiapan dan penonaktifan perangkat TPU.
Node TPU
Resource TPU di Google Cloud dengan jenis TPU tertentu. Node TPU terhubung ke Jaringan VPC Anda dari jaringan VPC peer. Node TPU adalah resource yang ditentukan di Cloud TPU API.
Pod TPU
Konfigurasi spesifik perangkat TPU di pusat data Google. Semua perangkat dalam Pod TPU terhubung satu sama lain melalui jaringan khusus berkecepatan tinggi. Pod TPU adalah konfigurasi terbesar dari perangkat TPU yang tersedia untuk versi TPU tertentu.
Resource TPU
Entity TPU di Google Cloud yang Anda buat, kelola, atau gunakan. Misalnya, node TPU dan jenis TPU adalah resource TPU.
Slice TPU
Slice TPU adalah bagian pecahan dari perangkat TPU dalam Pod TPU. Semua perangkat dalam slice TPU terhubung satu sama lain melalui jaringan khusus berkecepatan tinggi.
Jenis TPU
Konfigurasi satu atau beberapa perangkat TPU dengan versi hardware TPU tertentu. Anda memilih jenis TPU saat membuat
node TPU di Google Cloud. Misalnya, jenis TPU v2-8
adalah satu perangkat TPU v2 dengan 8 core. Jenis TPU v3-2048
memiliki 256
perangkat TPU v3 yang terhubung ke jaringan dan total 2048 core. Jenis TPU adalah resource yang ditentukan di Cloud TPU API.
TPU worker
Proses yang berjalan di mesin host dan menjalankan program machine learning di perangkat TPU.