Makine Öğrenimi Sözlüğü: Google Cloud

Bu sayfa, Google Cloud sözlüğündeki terimleri içerir. Tüm sözlük terimleri için burayı tıklayın.

CEVAP

hızlandırıcı çipi

#GoogleCloud

Derin öğrenme algoritmaları için gereken anahtar hesaplamalarını yapmak üzere tasarlanmış özel donanım bileşenleri kategorisi.

Hızlandırıcı çipler (veya kısaca hızlandırıcılar), genel amaçlı bir CPU'ya kıyasla eğitim ve çıkarım görevlerinin hızını ve verimliliğini önemli ölçüde artırabilir. Nöral ağları ve benzer işlem odaklı görevleri eğitmek için idealdir.

Hızlandırıcı çiplerine örnek olarak aşağıdakiler verilebilir:

  • Google'ın derin öğrenmeye yönelik özel donanıma sahip Tensor İşlem Birimleri (TPU'lar).
  • NVIDIA'nın GPU'ları, başlangıçta grafik işleme için tasarlanmış olsa da işlem hızını önemli ölçüde artırabilecek paralel işlemeyi mümkün kılacak şekilde tasarlanmıştır.

B

toplu çıkarım

#TensorFlow
#GoogleCloud

Daha küçük alt kümelere ("gruplar") bölünmüş birden fazla etiketlenmemiş örnekte tahminleri çıkarma işlemi.

Toplu çıkarım, hızlandırıcı çiplerinin paralelleştirme özelliklerinden yararlanabilir. Yani birden fazla hızlandırıcı, etiketlenmemiş farklı örnek gruplarıyla ilgili tahminleri aynı anda tahmin edebilir. Bu da saniyedeki çıkarım sayısını önemli ölçüde artırır.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud'da makine öğrenimi iş yüklerini hızlandırmak için tasarlanmış özel bir donanım hızlandırıcı.

D

cihaz

#TensorFlow
#GoogleCloud

Aşağıdaki iki olası tanımı içeren aşırı yüklenmiş bir terim:

  1. CPU'lar, GPU'lar ve TPU'lar dahil olmak üzere TensorFlow oturumu çalıştırabilen bir donanım kategorisi.
  2. Bir ML modelini hızlandırıcı çipler (GPU'lar veya TPU'lar) üzerinde eğitirken sistemin tensörleri ve yerleştirmeleri gerçekten değiştiren kısmıdır. Cihaz hızlandırıcı çiplerle çalışır. Buna karşılık, ana makine genellikle bir CPU üzerinde çalışır.

VR

düzenleyen

#TensorFlow
#GoogleCloud

Hızlandırıcı çiplerinde (GPU'lar veya TPU'lar) ML modeli eğitilirken, sistemin aşağıdakilerden ikisini de kontrol eden bölümü:

  • Kodun genel akışı.
  • Giriş ardışık düzeninin ayıklanması ve dönüştürülmesi.

Ana makine genellikle hızlandırıcı çip üzerinde değil, CPU üzerinde çalışır. Cihaz, hızlandırıcı çipleri üzerindeki tensörleri manipüle eder.

M

örgü

#TensorFlow
#GoogleCloud

ML paralel programlamasında, TPU çiplerine veri ve model atama ve bu değerlerin nasıl kırılacağını veya çoğaltılacağını tanımlamayla ilişkili bir terimdir.

Örgü, aşağıdakilerden biri anlamına gelebilecek aşırı yüklenmiş bir terimdir:

  • TPU çiplerinin fiziksel düzeni.
  • Verileri ve modeli TPU çipleriyle eşlemek için soyut bir mantıksal yapı.

Her iki durumda da bir ağ, şekil olarak belirtilir.

S

parça

#TensorFlow
#GoogleCloud

Eğitim kümesinin veya modelin mantıksal bir bölümüdür. Genellikle bazı işlemler örnekleri veya parametreleri (genellikle) eşit boyutlu parçalara bölerek parça oluşturur. Böylece her kırık farklı bir makineye atanır.

Bir modeli parçalamaya model paralelliği, verilerin parçalanmasına ise veri paralelliği denir.

T

Tensor İşleme Birimi (TPU)

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yüklerinin performansını optimize eden, uygulamaya özel bir entegre devre (ASIC). Bu ASIC'ler, TPU cihazda birden fazla TPU çipi olarak dağıtılır.

TPU

#TensorFlow
#GoogleCloud

Tensor Processing Unit (Tensor İşleme Birimi) kısaltması.

TPU çipi

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yükleri için optimize edilmiş, çip üzerinde yüksek bant genişliğine sahip programlanabilir doğrusal cebir hızlandırıcısı. TPU cihaza birden fazla TPU çipi dağıtılır.

TPU cihazı

#TensorFlow
#GoogleCloud

Birden fazla TPU çipine, yüksek bant genişliğine sahip ağ arayüzlerine ve sistem soğutma donanımına sahip bir basılı devre kartı (PCB).

TPU ana sistemi

#TensorFlow
#GoogleCloud

Verileri, sonuçları, programları, performansı ve sistem sağlık bilgilerini TPU çalışanlarına gönderip alan bir ana makine üzerinde çalışan merkezi koordinasyon süreci. TPU ana hesabı, TPU cihazların kurulum ve kapatma işlemlerini de yönetir.

TPU düğümü

#TensorFlow
#GoogleCloud

Google Cloud'da belirli bir TPU türüne sahip TPU kaynağı. TPU düğümü, VPC Ağınıza bir eş VPC ağından bağlanır. TPU düğümleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU Kapsülü

#TensorFlow
#GoogleCloud

Bir Google veri merkezindeki TPU cihazların belirli bir yapılandırması. TPU Kapsülündeki tüm cihazlar özel yüksek hızlı ağ üzerinden birbirine bağlıdır. TPU Kapsül, belirli bir TPU sürümü için kullanılabilen en büyük TPU cihaz yapılandırmasıdır.

TPU kaynağı

#TensorFlow
#GoogleCloud

Google Cloud'da oluşturduğunuz, yönettiğiniz veya tükettiğiniz bir TPU varlığıdır. Örneğin, TPU düğümleri ve TPU türleri TPU kaynaklarıdır.

TPU dilimi

#TensorFlow
#GoogleCloud

TPU dilimi, TPU Kapsülü'ndeki TPU cihazlarının kısmi bir parçasıdır. TPU diliminin içerdiği tüm cihazlar, özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır.

TPU türü

#TensorFlow
#GoogleCloud

Belirli bir TPU donanım sürümüne sahip bir veya daha fazla TPU cihazının yapılandırması. Google Cloud'da TPU düğümü oluştururken bir TPU türü seçersiniz. Örneğin, v2-8 TPU türü, 8 çekirdekli tek bir TPU v2 cihazıdır. v3-2048 TPU türünde 256 ağa bağlı TPU v3 cihaz ve toplam 2.048 çekirdek bulunur. TPU türleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU çalışanı

#TensorFlow
#GoogleCloud

Bir ana makinede çalışan ve TPU cihazlarda makine öğrenimi programları yürüten bir süreçtir.