Halaman ini berisi istilah glosarium TensorFlow. Untuk semua istilah glosarium, klik di sini.
B
inferensi batch
Proses menyimpulkan prediksi pada beberapa contoh yang tidak berlabel yang dibagi menjadi subkumpulan yang lebih kecil ("batch").
Inferensi batch dapat memanfaatkan fitur paralelisasi chip akselerator. Artinya, beberapa akselerator dapat secara bersamaan menyimpulkan prediksi pada berbagai batch contoh tanpa label, sehingga meningkatkan jumlah inferensi per detik secara drastis.
Lihat Sistem ML produksi: Inferensi statis versus dinamis di Kursus Singkat Machine Learning untuk mengetahui informasi selengkapnya.
C
Cloud TPU
Akselerator hardware khusus yang dirancang untuk mempercepat beban kerja machine learning di Google Cloud.
D
Dataset API (tf.data)
TensorFlow API tingkat tinggi untuk membaca data dan
mengubahnya menjadi bentuk yang diperlukan algoritma machine learning.
Objek tf.data.Dataset
mewakili urutan elemen, yang mana setiap elemen berisi satu atau beberapa Tensor. Objek tf.data.Iterator
memberikan akses ke elemen Dataset
.
perangkat
Istilah yang memiliki lebih dari satu makna dengan dua kemungkinan definisi berikut:
- Kategori hardware yang dapat menjalankan sesi TensorFlow, yang meliputi CPU, GPU, dan TPU.
- Saat melatih model ML di chip akselerator (GPU atau TPU), bagian sistem yang benar-benar memanipulasi tensor dan embedding. Perangkat berjalan pada chip akselerator. Sebaliknya, host biasanya berjalan di CPU.
E
eksekusi segera
Lingkungan pemrograman TensorFlow yang mana operasi dijalankan secara langsung. Sebaliknya, operasi yang disebut dengan eksekusi grafik tidak akan dijalankan sampai dievaluasi secara eksplisit. Eksekusi segera adalah antarmuka imperatif, seperti kode dalam sebagian besar bahasa pemrograman. Program eksekusi segera umumnya jauh lebih mudah untuk dilakukan debug daripada program eksekusi grafik.
Estimator
TensorFlow API yang tidak digunakan lagi. Gunakan tf.keras, bukan Estimator.
F
rekayasa fitur
Proses yang melibatkan langkah-langkah berikut:
- Menentukan fitur mana yang mungkin berguna dalam melatih model.
- Mengonversi data mentah dari set data menjadi versi yang efisien dari fitur tersebut.
Misalnya, Anda mungkin menentukan bahwa temperature
mungkin merupakan fitur
yang berguna. Kemudian, Anda dapat bereksperimen dengan bucketing
untuk mengoptimalkan hal yang dapat dipelajari model dari berbagai rentang temperature
.
Rekayasa fitur terkadang disebut ekstraksi fitur atau featurisasi.
Lihat Data numerik: Cara model menyerap data menggunakan vektor fitur di Kursus Singkat Machine Learning untuk mengetahui informasi selengkapnya.
spesifikasi fitur
Menjelaskan informasi yang diperlukan untuk mengekstrak data features dari buffering protokol tf.Example. Karena buffering protokol tf.Example hanyalah penampung data, Anda harus menentukan hal berikut:
- Data yang akan diekstrak (yaitu, kunci untuk fitur)
- Jenis data (misalnya, float atau int)
- Panjang (tetap atau variabel)
G
grafik
Di TensorFlow, spesifikasi komputasi. Node dalam grafik mewakili operasi. Edge diarahkan dan merepresentasikan penerusan hasil operasi (Tensor) sebagai operand ke operasi lain. Gunakan TensorBoard untuk memvisualisasikan grafik.
eksekusi grafik
Lingkungan pemrograman TensorFlow yang mana program mengonstruksi grafik terlebih dahulu, kemudian mengeksekusi semua atau sebagian grafik tersebut. Eksekusi grafik adalah mode eksekusi default di TensorFlow 1.x.
Berbeda dengan eksekusi segera.
H
host
Saat melatih model ML di chip akselerator (GPU atau TPU), bagian sistem yang mengontrol kedua hal berikut:
- Alur keseluruhan kode.
- Ekstraksi dan transformasi pipeline input.
Host biasanya berjalan di CPU, bukan di chip akselerator; perangkat memanipulasi tensor di chip akselerator.
L
Layers API (tf.layers)
TensorFlow API untuk membuat jaringan neural dalam sebagai komposisi lapisan. Layers API memungkinkan Anda membuat berbagai jenis lapisan, seperti:
tf.layers.Dense
untuk lapisan terhubung seluruhnya.tf.layers.Conv2D
untuk lapisan konvolusi.
Layers API mengikuti konvensi API lapisan Keras. Artinya, selain awalan yang berbeda, semua fungsi di Layers API memiliki nama dan tanda tangan yang sama dengan fungsi yang setara di Keras layers API.
M
mesh
Dalam pemrograman paralel ML, istilah yang terkait dengan penetapan data dan model ke chip TPU, serta menentukan cara nilai ini akan di-shard atau direplikasi.
Mesh adalah istilah yang memiliki lebih dari satu makna yang dapat berarti salah satu dari hal berikut:
- Tata letak fisik TPU chip.
- Konstruksi logis abstrak untuk memetakan data dan model ke chip TPU.
Dalam kedua kasus tersebut, mesh ditentukan sebagai shape.
metrik
Statistik yang Anda minati.
Tujuan adalah metrik yang coba dioptimalkan oleh sistem machine learning.
T
node (grafik TensorFlow) (node (TensorFlow graph))
Operasi dalam grafik TensorFlow.
O
operasi (op)
Di TensorFlow, prosedur apa pun yang membuat, memanipulasi, atau menghancurkan Tensor. Misalnya, perkalian matriks adalah operasi yang menggunakan dua Tensor sebagai input dan menghasilkan satu Tensor sebagai output.
P
Server Parameter (PS)
Tugas yang melacak parameter model dalam setelan terdistribusi.
T
antrean
Operasi TensorFlow yang menerapkan struktur data antrean. Biasanya digunakan di I/O.
R
rank (Tensor)
Jumlah dimensi dalam Tensor. Misalnya, skalar memiliki peringkat 0, vektor memiliki peringkat 1, dan matriks memiliki peringkat 2.
Jangan sampai tertukar dengan urutan (ordinalitas).
direktori root
Direktori yang Anda tentukan untuk menghosting subdirektori file peristiwa dan titik kontrol TensorFlow dari beberapa model.
S
SavedModel
Format yang direkomendasikan untuk menyimpan dan memulihkan model TensorFlow. SavedModel adalah format serialisasi yang dapat dipulihkan dengan bahasa netral, yang memungkinkan sistem dan fitur berlevel tinggi untuk memproduksi, mengonsumsi, dan mengubah model TensorFlow.
Lihat bagian Menyimpan dan Memulihkan di Panduan Pemrogram TensorFlow untuk mengetahui detail selengkapnya.
Hemat
Objek TensorFlow yang bertanggung jawab untuk menyimpan titik pemeriksaan model.
shard
Pembagian logis dari set pelatihan atau model. Biasanya, beberapa proses membuat shard dengan membagi contoh atau parameter menjadi (biasanya) bagian berukuran sama. Setiap shard kemudian ditetapkan ke mesin yang berbeda.
Pembagian model disebut paralelisme model; pembagian data disebut paralelisme data.
ringkasan
Di TensorFlow, nilai atau kumpulan nilai yang dihitung pada langkah tertentu, biasanya digunakan untuk melacak metrik model selama pelatihan.
S
Tensor
Struktur data utama dalam program TensorFlow. Tensor adalah struktur data berdimensi N (dengan N dapat sangat besar), yang paling umum adalah skalar, vektor, atau matriks. Elemen Tensor dapat menyimpan nilai bilangan bulat, floating point, atau string.
TensorBoard
Dasbor yang menampilkan ringkasan yang disimpan selama eksekusi satu atau beberapa program TensorFlow.
TensorFlow
Platform machine learning terdistribusi berskala besar. Istilah ini juga mengacu pada lapisan API dasar dalam stack TensorFlow, yang mendukung komputasi umum pada grafik alur data.
Meskipun TensorFlow terutama digunakan untuk machine learning, Anda juga dapat menggunakan TensorFlow untuk tugas non-ML yang memerlukan komputasi numerik menggunakan grafik alur data.
TensorFlow Playground
Program yang memvisualisasikan pengaruh hyperparameter yang berbeda terhadap pelatihan (terutama jaringan neural) model. Buka http://playground.tensorflow.org untuk melakukan eksperimen dengan TensorFlow Playground.
TensorFlow Serving
Platform untuk men-deploy model terlatih dalam produksi.
Tensor Processing Unit (TPU)
Application-specific integrated circuit (ASIC) yang mengoptimalkan performa workload machine learning. ASIC ini di-deploy sebagai beberapa chip TPU di perangkat TPU.
Urutan tensor
Lihat urutan (Tensor).
Bentuk tensor
Jumlah elemen yang dimiliki oleh Tensor dalam berbagai dimensi.
Misalnya, Tensor [5, 10]
memiliki bentuk 5 dalam satu dimensi dan 10
dalam dimensi lainnya.
Ukuran tensor
Jumlah total skalar yang dimiliki oleh Tensor. Misalnya, Tensor [5, 10]
memiliki ukuran 50.
tf.Example
Buffer protokol standar yang digunakan untuk mendeskripsikan data input untuk pelatihan atau inferensi model machine learning.
tf.keras
Implementasi Keras yang terintegrasi ke dalam TensorFlow.
TPU
Singkatan dari Tensor Processing Unit.
Chip TPU
Akselerator aljabar linear yang dapat diprogram dengan memori bandwidth tinggi di chip yang dioptimalkan untuk beban kerja machine learning. Beberapa chip TPU di-deploy di perangkat TPU.
Perangkat TPU
Printed circuit board (PCB) dengan beberapa chip TPU, antarmuka jaringan bandwidth tinggi, dan hardware pendingin sistem.
TPU master
Proses koordinasi pusat yang berjalan di mesin host yang mengirim dan menerima data, hasil, program, performa, dan informasi kesehatan sistem ke pekerja TPU. TPU master juga mengelola penyiapan dan penonaktifan perangkat TPU.
Node TPU
Resource TPU di Google Cloud dengan jenis TPU tertentu. Node TPU terhubung ke Jaringan VPC Anda dari jaringan VPC peer. Node TPU adalah resource yang ditentukan di Cloud TPU API.
Pod TPU
Konfigurasi spesifik perangkat TPU di pusat data Google. Semua perangkat dalam Pod TPU terhubung satu sama lain melalui jaringan khusus berkecepatan tinggi. Pod TPU adalah konfigurasi terbesar dari perangkat TPU yang tersedia untuk versi TPU tertentu.
Resource TPU
Entity TPU di Google Cloud yang Anda buat, kelola, atau gunakan. Misalnya, node TPU dan jenis TPU adalah resource TPU.
Slice TPU
Slice TPU adalah bagian pecahan dari perangkat TPU dalam Pod TPU. Semua perangkat dalam slice TPU terhubung satu sama lain melalui jaringan khusus berkecepatan tinggi.
Jenis TPU
Konfigurasi satu atau beberapa perangkat TPU dengan versi hardware TPU tertentu. Anda memilih jenis TPU saat membuat
node TPU di Google Cloud. Misalnya, jenis TPU v2-8
adalah satu perangkat TPU v2 dengan 8 core. Jenis TPU v3-2048
memiliki 256
perangkat TPU v3 yang terhubung ke jaringan dan total 2048 core. Jenis TPU adalah resource yang ditentukan di Cloud TPU API.
TPU worker
Proses yang berjalan di mesin host dan menjalankan program machine learning di perangkat TPU.