Bu sayfada Google Cloud sözlüğündeki terimler yer almaktadır. Tüm terimler için burayı tıklayın.
A
hızlandırıcı çipi
Derin öğrenme algoritmaları için gereken temel hesaplamaları gerçekleştirmek üzere tasarlanmış özel donanım bileşenleri kategorisi.
Hızlandırıcı çipler (veya kısaca hızlandırıcılar), genel amaçlı bir CPU'ya kıyasla eğitim ve çıkarım görevlerinin hızını ve verimliliğini önemli ölçüde artırabilir. Bu makineler, sinir ağlarını eğitmek ve işlemsel açıdan yoğun benzer görevler için idealdir.
Hızlandırıcı çiplere örnek olarak aşağıdakiler verilebilir:
- Derin öğrenmeye özel donanıma sahip Google Tensor İşleme Birimleri (TPU'lar).
- NVIDIA'nın GPU'ları, başlangıçta grafik işleme için tasarlanmış olsa da paralel işleme olanağı sunmak üzere tasarlanmıştır. Bu da işleme hızını önemli ölçüde artırabilir.
B
toplu çıkarım
Daha küçük alt kümelere ("gruplar") bölünmüş birden fazla etiketlenmemiş örnek için tahminleri tahmin etme işlemi.
Toplu çıkarım, hızlandırıcı çiplerin paralelleştirme özelliklerinden yararlanabilir. Yani birden fazla hızlandırıcı, etiketlenmemiş farklı örnek grupları için aynı anda tahminler yürütebilir. Bu da saniye başına çıkarım sayısını önemli ölçüde artırır.
Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Üretim ML sistemleri: Statik ve dinamik çıkarım bölümüne bakın.
C
Cloud TPU
Google Cloud'daki makine öğrenimi iş yüklerini hızlandırmak için tasarlanmış özel bir donanım hızlandırıcı.
D
cihaz
Aşağıdaki iki olası tanımı olan aşırı yüklenmiş bir terim:
- CPU'lar, GPU'lar ve TPU'lar dahil olmak üzere TensorFlow oturumu çalıştırabilen bir donanım kategorisi.
- Hızlandırıcı çiplerde (GPU'lar veya TPU'lar) bir ML modeli eğitirken tenzorları ve yerleşimlerini gerçekten işleyen sistem bölümü. Cihaz, hızlandırıcı çiplerle çalışır. Buna karşılık, ana makine genellikle bir CPU'da çalışır.
H
düzenleyen
Hızlandırıcı çiplerde (GPU'lar veya TPU'lar) bir makine öğrenimi modeli eğitilirken sistemin aşağıdakilerin ikisini de kontrol eden kısmı:
- Kodun genel akışı.
- Giriş ardışık düzeninin ayıklanması ve dönüştürülmesi.
Ana makine genellikle hızlandırıcı çipte değil, CPU'da çalışır. Cihaz, hızlandırıcı çiplerdeki tenzorları işler.
M
örgü
ML paralel programlamasında, verileri ve modeli TPU çiplerine atama ve bu değerlerin nasıl bölüneceğini veya çoğaltılacağını tanımlamayla ilişkili bir terimdir.
Örgü, aşağıdakilerden biri anlamına gelebilecek aşırı yüklenmiş bir terimdir:
- TPU çiplerinin fiziksel düzeni.
- Verileri ve modeli TPU çipleriyle eşlemek için soyut mantıksal yapı.
Her iki durumda da ağ, şekil olarak belirtilir.
S
kırık
Eğitim kümesinin veya modelin mantıksal bir bölümü. Genellikle bazı işlemler, örnekleri veya parametreleri (genellikle) eşit boyutlu parçalara ayırarak parçalar oluşturur. Ardından her bir parça farklı bir makineye atanır.
Bir modeli bölme işlemine model paralelliği, verileri bölme işlemine ise veri paralelliği denir.
T
Tensor İşleme Birimi (TPU)
Makine öğrenimi iş yüklerinin performansını optimize eden, uygulamaya özel entegre devre (ASIC). Bu ASIC'ler, TPU cihazında birden fazla TPU çipi olarak dağıtılır.
TPU
Tensor İşleme Birimi kısaltması.
TPU çipi
Makine öğrenimi iş yükleri için optimize edilmiş, çip üzerinde yüksek bant genişliğine sahip belleğe sahip programlanabilir bir doğrusal cebir hızlandırıcı. TPU cihazına birden fazla TPU çipi dağıtılır.
TPU cihazı
Birden fazla TPU çipi, yüksek bant genişliğine sahip ağ arayüzleri ve sistem soğutma donanımına sahip bir baskılı devre kartı (PCB).
TPU ana makine
Ana makinede çalışan ve TPU çalışanlarına veri, sonuç, program, performans ve sistem sağlığı bilgileri gönderip alan merkezi koordinasyon süreci. TPU ana makinesi, TPU cihazlarının kurulumunu ve kapatılmasını da yönetir.
TPU düğümü
Google Cloud'da belirli bir TPU türüne sahip bir TPU kaynağı. TPU düğümü, eş VPC ağındaki VPC ağınıza bağlanır. TPU düğümleri, Cloud TPU API'de tanımlanan bir kaynaktır.
TPU Kapsülü
Google veri merkezindeki TPU cihazlarının belirli bir yapılandırması. Bir TPU kapsülünde bulunan tüm cihazlar özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır. TPU kapsülü, belirli bir TPU sürümü için kullanılabilen en büyük TPU cihazı yapılandırmasıdır.
TPU kaynağı
Google Cloud'da oluşturduğunuz, yönettiğiniz veya kullandığınız bir TPU öğesi. Örneğin, TPU düğümleri ve TPU türleri TPU kaynaklarıdır.
TPU dilimi
TPU dilimi, TPU kapsülünde bulunan TPU cihazlarının kesirli bir bölümüdür. Bir TPU dilimindeki tüm cihazlar özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır.
TPU türü
Belirli bir TPU donanım sürümüne sahip bir veya daha fazla TPU cihazından oluşan yapılandırma. Google Cloud'da TPU düğümü oluştururken bir TPU türü seçersiniz. Örneğin, v2-8
TPU türü, 8 çekirdeğe sahip tek bir TPU v2 cihazıdır. v3-2048
TPU türünde 256 ağ bağlantılı TPU v3 cihazı ve toplam 2.048 çekirdek bulunur. TPU türleri, Cloud TPU API'de tanımlanan bir kaynaktır.
TPU çalışanı
Ana makinede çalışan ve TPU cihazlarında makine öğrenimi programlarını yürüten bir işlemdir.