Makine Öğrenimi Sözlüğü: Google Cloud

Bu sayfada Google Cloud sözlüğündeki terimler yer almaktadır. Tüm terimler için burayı tıklayın.

A

hızlandırıcı çipi

#GoogleCloud

Derin öğrenme algoritmaları için gereken temel hesaplamaları gerçekleştirmek üzere tasarlanmış özel donanım bileşenleri kategorisi.

Hızlandırıcı çipler (veya kısaca hızlandırıcılar), genel amaçlı bir CPU'ya kıyasla eğitim ve çıkarım görevlerinin hızını ve verimliliğini önemli ölçüde artırabilir. Bu makineler, sinir ağlarını eğitmek ve işlemsel açıdan yoğun benzer görevler için idealdir.

Hızlandırıcı çiplere örnek olarak aşağıdakiler verilebilir:

  • Derin öğrenmeye özel donanıma sahip Google Tensor İşleme Birimleri (TPU'lar).
  • NVIDIA'nın GPU'ları, başlangıçta grafik işleme için tasarlanmış olsa da paralel işleme olanağı sunmak üzere tasarlanmıştır. Bu da işleme hızını önemli ölçüde artırabilir.

B

toplu çıkarım

#TensorFlow
#GoogleCloud

Daha küçük alt kümelere ("gruplar") bölünmüş birden fazla etiketlenmemiş örnek için tahminleri tahmin etme işlemi.

Toplu çıkarım, hızlandırıcı çiplerin paralelleştirme özelliklerinden yararlanabilir. Yani birden fazla hızlandırıcı, etiketlenmemiş farklı örnek grupları için aynı anda tahminler yürütebilir. Bu da saniye başına çıkarım sayısını önemli ölçüde artırır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Üretim ML sistemleri: Statik ve dinamik çıkarım bölümüne bakın.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud'daki makine öğrenimi iş yüklerini hızlandırmak için tasarlanmış özel bir donanım hızlandırıcı.

D

cihaz

#TensorFlow
#GoogleCloud

Aşağıdaki iki olası tanımı olan aşırı yüklenmiş bir terim:

  1. CPU'lar, GPU'lar ve TPU'lar dahil olmak üzere TensorFlow oturumu çalıştırabilen bir donanım kategorisi.
  2. Hızlandırıcı çiplerde (GPU'lar veya TPU'lar) bir ML modeli eğitirken tenzorları ve yerleşimlerini gerçekten işleyen sistem bölümü. Cihaz, hızlandırıcı çiplerle çalışır. Buna karşılık, ana makine genellikle bir CPU'da çalışır.

H

düzenleyen

#TensorFlow
#GoogleCloud

Hızlandırıcı çiplerde (GPU'lar veya TPU'lar) bir makine öğrenimi modeli eğitilirken sistemin aşağıdakilerin ikisini de kontrol eden kısmı:

  • Kodun genel akışı.
  • Giriş ardışık düzeninin ayıklanması ve dönüştürülmesi.

Ana makine genellikle hızlandırıcı çipte değil, CPU'da çalışır. Cihaz, hızlandırıcı çiplerdeki tenzorları işler.

M

örgü

#TensorFlow
#GoogleCloud

ML paralel programlamasında, verileri ve modeli TPU çiplerine atama ve bu değerlerin nasıl bölüneceğini veya çoğaltılacağını tanımlamayla ilişkili bir terimdir.

Örgü, aşağıdakilerden biri anlamına gelebilecek aşırı yüklenmiş bir terimdir:

  • TPU çiplerinin fiziksel düzeni.
  • Verileri ve modeli TPU çipleriyle eşlemek için soyut mantıksal yapı.

Her iki durumda da ağ, şekil olarak belirtilir.

S

kırık

#TensorFlow
#GoogleCloud

Eğitim kümesinin veya modelin mantıksal bir bölümü. Genellikle bazı işlemler, örnekleri veya parametreleri (genellikle) eşit boyutlu parçalara ayırarak parçalar oluşturur. Ardından her bir parça farklı bir makineye atanır.

Bir modeli bölme işlemine model paralelliği, verileri bölme işlemine ise veri paralelliği denir.

T

Tensor İşleme Birimi (TPU)

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yüklerinin performansını optimize eden, uygulamaya özel entegre devre (ASIC). Bu ASIC'ler, TPU cihazında birden fazla TPU çipi olarak dağıtılır.

TPU

#TensorFlow
#GoogleCloud

Tensor İşleme Birimi kısaltması.

TPU çipi

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yükleri için optimize edilmiş, çip üzerinde yüksek bant genişliğine sahip belleğe sahip programlanabilir bir doğrusal cebir hızlandırıcı. TPU cihazına birden fazla TPU çipi dağıtılır.

TPU cihazı

#TensorFlow
#GoogleCloud

Birden fazla TPU çipi, yüksek bant genişliğine sahip ağ arayüzleri ve sistem soğutma donanımına sahip bir baskılı devre kartı (PCB).

TPU ana makine

#TensorFlow
#GoogleCloud

Ana makinede çalışan ve TPU çalışanlarına veri, sonuç, program, performans ve sistem sağlığı bilgileri gönderip alan merkezi koordinasyon süreci. TPU ana makinesi, TPU cihazlarının kurulumunu ve kapatılmasını da yönetir.

TPU düğümü

#TensorFlow
#GoogleCloud

Google Cloud'da belirli bir TPU türüne sahip bir TPU kaynağı. TPU düğümü, eş VPC ağındaki VPC ağınıza bağlanır. TPU düğümleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU Kapsülü

#TensorFlow
#GoogleCloud

Google veri merkezindeki TPU cihazlarının belirli bir yapılandırması. Bir TPU kapsülünde bulunan tüm cihazlar özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır. TPU kapsülü, belirli bir TPU sürümü için kullanılabilen en büyük TPU cihazı yapılandırmasıdır.

TPU kaynağı

#TensorFlow
#GoogleCloud

Google Cloud'da oluşturduğunuz, yönettiğiniz veya kullandığınız bir TPU öğesi. Örneğin, TPU düğümleri ve TPU türleri TPU kaynaklarıdır.

TPU dilimi

#TensorFlow
#GoogleCloud

TPU dilimi, TPU kapsülünde bulunan TPU cihazlarının kesirli bir bölümüdür. Bir TPU dilimindeki tüm cihazlar özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır.

TPU türü

#TensorFlow
#GoogleCloud

Belirli bir TPU donanım sürümüne sahip bir veya daha fazla TPU cihazından oluşan yapılandırma. Google Cloud'da TPU düğümü oluştururken bir TPU türü seçersiniz. Örneğin, v2-8 TPU türü, 8 çekirdeğe sahip tek bir TPU v2 cihazıdır. v3-2048 TPU türünde 256 ağ bağlantılı TPU v3 cihazı ve toplam 2.048 çekirdek bulunur. TPU türleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU çalışanı

#TensorFlow
#GoogleCloud

Ana makinede çalışan ve TPU cihazlarında makine öğrenimi programlarını yürüten bir işlemdir.