Glosarium Machine Learning: Google Cloud

Halaman ini berisi istilah glosarium Google Cloud. Untuk semua istilah glosarium, klik di sini.

A

chip akselerator

#GoogleCloud

Kategori komponen hardware khusus yang dirancang untuk melakukan komputasi utama yang diperlukan untuk algoritme deep learning.

Chip akselerator (atau disingkat akselerator) dapat meningkatkan kecepatan dan efisiensi tugas pelatihan dan inferensi secara signifikan dibandingkan dengan CPU tujuan umum. Jenis ini cocok untuk melatih jaringan neural dan tugas komputasi intensif yang serupa.

Contoh chip akselerator meliputi:

  • Tensor Processing Unit Google (TPU) dengan hardware khusus untuk deep learning.
  • GPU NVIDIA yang, meskipun awalnya dirancang untuk pemrosesan grafis, dirancang untuk mengaktifkan pemrosesan paralel, yang dapat meningkatkan kecepatan pemrosesan secara signifikan.

B

inferensi batch

#TensorFlow
#GoogleCloud

Proses prediksi inferensi pada beberapa contoh tak berlabel dibagi menjadi subkumpulan yang lebih kecil ("batch").

Inferensi batch dapat memanfaatkan fitur paralelisasi chip akselerator. Artinya, beberapa akselerator dapat secara bersamaan menyimpulkan prediksi pada berbagai batch contoh yang tidak berlabel, yang secara drastis meningkatkan jumlah inferensi per detik.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Akselerator hardware khusus yang dirancang untuk mempercepat beban kerja machine learning di Google Cloud Platform.

D

perangkat

#TensorFlow
#GoogleCloud

Istilah yang kelebihan muatan dengan dua kemungkinan definisi berikut:

  1. Kategori hardware yang dapat menjalankan sesi TensorFlow, termasuk CPU, GPU, dan TPU.
  2. Saat melatih model ML di chip akselerator (GPU atau TPU), bagian dari sistem yang benar-benar memanipulasi tensor dan embeddings. Perangkat berjalan pada chip akselerator. Sebaliknya, host biasanya berjalan di CPU.

H

host

#TensorFlow
#GoogleCloud

Saat melatih model ML di chip akselerator (GPU atau TPU), bagian sistem yang mengontrol kedua hal berikut:

  • Alur kode secara keseluruhan.
  • Ekstraksi dan transformasi pipeline input.

Host biasanya berjalan di CPU, bukan di chip akselerator; perangkat memanipulasi tensor pada chip akselerator.

S

mesh

#TensorFlow
#GoogleCloud

Dalam pemrograman paralel ML, istilah yang terkait dengan penetapan data dan model ke chip TPU, dan cara menentukan nilai ini yang akan di-sharding atau direplikasi.

Mesh adalah istilah kelebihan muatan yang dapat berarti salah satu dari hal berikut:

  • Tata letak fisik chip TPU.
  • Konstruksi logis abstrak untuk memetakan data dan model ke chip TPU.

Dalam kedua kasus tersebut, mesh ditentukan sebagai bentuk.

M

shard

#TensorFlow
#GoogleCloud

Pembagian logis dari set pelatihan atau model. Biasanya, beberapa proses membuat shard dengan membagi contoh atau parameter menjadi potongan yang biasanya berukuran sama. Setiap shard kemudian ditetapkan ke mesin yang berbeda.

Sharding model disebut paralelisme model; sharding data disebut paralelisme data.

T

Unit Pemrosesan Tensor (TPU)

#TensorFlow
#GoogleCloud

Sirkuit terintegrasi khusus aplikasi (ASIC) yang mengoptimalkan performa beban kerja machine learning. ASIC ini di-deploy sebagai beberapa chip TPU di perangkat TPU.

TPU

#TensorFlow
#GoogleCloud

Singkatan untuk Tensor Processing Unit.

Chip TPU

#TensorFlow
#GoogleCloud

Akselerator aljabar linear yang dapat diprogram dengan memori bandwidth tinggi pada chip yang dioptimalkan untuk beban kerja machine learning. Beberapa chip TPU di-deploy di perangkat TPU.

Perangkat TPU

#TensorFlow
#GoogleCloud

Papan sirkuit cetak (PCB) dengan beberapa chip TPU, antarmuka jaringan bandwidth tinggi, dan hardware pendingin sistem.

Master TPU

#TensorFlow
#GoogleCloud

Proses koordinasi pusat yang berjalan pada mesin host yang mengirim dan menerima data, hasil, program, performa, dan informasi kesehatan sistem ke pekerja TPU. Master TPU juga mengelola penyiapan dan penonaktifan perangkat TPU.

Node TPU

#TensorFlow
#GoogleCloud

Resource TPU di Google Cloud Platform dengan jenis TPU tertentu. Node TPU terhubung ke Jaringan VPC Anda dari jaringan VPC peer. Node TPU adalah resource yang ditentukan dalam Cloud TPU API.

Pod TPU

#TensorFlow
#GoogleCloud

Konfigurasi spesifik dari perangkat TPU di pusat data Google. Semua perangkat dalam pod TPU terhubung satu sama lain melalui jaringan khusus berkecepatan tinggi. TPU Pod adalah konfigurasi terbesar dari perangkat TPU yang tersedia untuk versi TPU tertentu.

Resource TPU

#TensorFlow
#GoogleCloud

Entitas TPU di Google Cloud Platform yang Anda buat, kelola, atau gunakan. Misalnya, Node TPU dan jenis TPU adalah resource TPU.

Potongan TPU

#TensorFlow
#GoogleCloud

Slice TPU adalah bagian pecahan dari perangkat TPU dalam Pod TPU. Semua perangkat dalam bagian TPU terhubung satu sama lain melalui jaringan khusus berkecepatan tinggi.

Jenis TPU

#TensorFlow
#GoogleCloud

Konfigurasi satu atau beberapa perangkat TPU dengan versi hardware TPU tertentu. Anda memilih jenis TPU saat membuat node TPU di Google Cloud Platform. Misalnya, jenis TPU v2-8 adalah perangkat TPU v2 tunggal dengan 8 core. Jenis TPU v3-2048 memiliki 256 perangkat TPU v3 berjaringan dan total 2048 core. Jenis TPU adalah resource yang ditetapkan dalam Cloud TPU API.

Pekerja TPU

#TensorFlow
#GoogleCloud

Proses yang berjalan di mesin host dan menjalankan program machine learning di perangkat TPU.