Makine Öğrenimi Sözlüğü: Google Cloud

Bu sayfada Google Cloud sözlüğü terimleri bulunmaktadır. Tüm sözlük terimleri için burayı tıklayın.

A

hızlandırıcı çipi

#GoogleCloud

Derin öğrenme algoritmaları için gerekli olan temel hesaplamaları yapmak üzere tasarlanmış bir özel donanım bileşenleri kategorisi.

Hızlandırıcı çipleri (veya kısaca hızlandırıcılar), genel amaçlı bir CPU'ya kıyasla eğitim ve çıkarım görevlerinin hızını ve verimliliğini önemli ölçüde artırabilir. Nöral ağların ve benzer şekilde bilişimsel yoğun görevlerin eğitimi için idealdir.

Hızlandırıcı çiplerine örnek olarak aşağıdakiler verilebilir:

  • Google'ın derin öğrenme için özel donanıma sahip Tensor İşleme Birimleri (TPU'lar).
  • NVIDIA'nın GPU'ları başlangıçta grafik işleme için tasarlanmış olsa da paralel işlemeyi etkinleştirmek için tasarlanmıştır. Bu da işlem hızını önemli ölçüde artırabilir.

B

toplu çıkarım

#TensorFlow
#GoogleCloud

Birden fazla etiketlenmemiş örnekte tahminleri çıkarmak işlemi daha küçük alt gruplara ("gruplar") ayrılır.

Toplu çıkarım, hızlandırıcı çiplerinin paralelleştirme özelliklerinden yararlanabilir. Yani birden fazla hızlandırıcı, aynı şekilde etiketlenmemiş farklı örnek grupları üzerinde tahminde bulunarak saniye başına çıkarım sayısını önemli ölçüde artırır.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud Platform'daki makine öğrenimi iş yüklerini hızlandırmak için tasarlanmış özel bir donanım hızlandırıcı.

D

cihaz

#TensorFlow
#GoogleCloud

Aşağıdaki iki olası tanımı içeren aşırı yüklü bir terim:

  1. CPU, GPU ve TPU dahil olmak üzere TensorFlow oturumu çalıştırabilen bir donanım kategorisi.
  2. Hızlandırıcı çiplerinde (GPU'lar veya TPU'lar) bir ML modelini eğitirken sistemin tensörleri ve yerleştirmeleri manipüle eden kısmıdır. Cihaz hızlandırıcı çiplerinde çalışır. Buna karşılık, ana makine genellikle bir CPU üzerinde çalışır.

H

düzenleyen : canlı yayın sahibi : sunucu

#TensorFlow
#GoogleCloud

Bir makine öğrenimi modelini hızlandırıcı çiplerinde (GPU'lar veya TPU'lar) eğitirken sistemin aşağıdakilerin ikisini de kontrol eden kısmıdır:

  • Kodun genel akışı.
  • Giriş ardışık düzeninin ayıklanması ve dönüştürülmesi.

Ana makine genellikle hızlandırıcı çipinde değil, CPU'da çalışır. Cihaz, hızlandırıcı çiplerindeki tensörleri kullanır.

M

örgü

#TensorFlow
#GoogleCloud

ML paralel programında, verileri ve modeli TPU çiplerine atama ve bu değerlerin nasıl parçalanacağını veya çoğaltılacağını ifade eden bir terim.

Mesh, aşağıdakilerden biri anlamına gelebilecek aşırı yüklenmiş bir terimdir:

  • TPU çiplerinin fiziksel düzeni.
  • Verileri ve modeli TPU çiplerine eşlemek için soyut bir mantıksal yapı.

İki durumda da bağlantılı ağ şekil olarak belirtilir.

C

parça

#TensorFlow
#GoogleCloud

Eğitim grubunun veya modelin mantıksal bölümü. Genellikle bazı işlemler örnekleri veya parametreleri (genellikle) eşit boyutlu parçalara bölerek parça oluşturur. Ardından her kırık, farklı bir makineye atanır.

Bir modeli parçalama, model paralelliği olarak adlandırılır. Verileri parçalama, veri paralelliğine denir.

T

Tensor İşleme Birimi (TPU)

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yüklerinin performansını optimize eden, uygulamaya özel entegre bir devre (ASIC). Bu ASIC'ler, bir TPU cihazında birden fazla TPU çipi olarak dağıtılır.

TPU

#TensorFlow
#GoogleCloud

Tensor İşleme Birimi'nin kısaltması.

TPU çipi

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yükleri için optimize edilmiş, çip üzerinde yüksek bant genişliğine sahip, programlanabilir bir doğrusal cebir hızlandırıcı. TPU cihazlarında birden fazla TPU çipi dağıtılır.

TPU cihazı

#TensorFlow
#GoogleCloud

Birden çok TPU çipine, yüksek bant genişliğine sahip ağ arayüzlerine ve sistem soğutma donanımına sahip basılı devre kartı (PCB).

Ana TPU

#TensorFlow
#GoogleCloud

Verileri, sonuçları, programları, performansı ve sistem sağlığı bilgilerini TPU çalışanlarına gönderen ve alan ana makinede çalışan merkezi koordinasyon süreci. TPU ana sayfası, TPU cihazlarının kurulumunu ve kapatılmasını da yönetir.

TPU düğümü

#TensorFlow
#GoogleCloud

Google Cloud Platform'da belirli bir TPU türüne sahip olan bir TPU kaynağı. TPU düğümü eş VPC VPC'den VPC Ağınıza bağlanır. TPU düğümleri, Cloud TPU API'de tanımlanan kaynaklardır.

TPU Kapsülü

#TensorFlow
#GoogleCloud

Bir Google veri merkezindeki TPU cihazlarının belirli bir yapılandırması. TPU kapsülündeki tüm cihazlar özel bir yüksek hızlı ağ üzerinden birbirine bağlanır. TPU Kapsül, belirli bir TPU sürümü için kullanılabilen en büyük TPU cihazlarının yapılandırmasıdır.

TPU kaynağı

#TensorFlow
#GoogleCloud

Google Cloud Platform'da oluşturduğunuz, yönettiğiniz veya tükettiğiniz bir TPU varlığı. Örneğin, TPU düğümleri ve TPU türleri TPU kaynaklarıdır.

TPU dilimi

#TensorFlow
#GoogleCloud

TPU dilim, TPU Kapsülünde TPU cihazlarının kesirli bir kısmıdır. TPU dilimindeki tüm cihazlar, özel bir yüksek hızlı ağ üzerinden birbirine bağlanır.

TPU türü

#TensorFlow
#GoogleCloud

Belirli bir TPU donanımı sürümüne sahip bir veya daha fazla TPU cihazı. Google Cloud Platform'da TPU düğümü oluştururken TPU türü seçersiniz. Örneğin v2-8 TPU türü, 8 çekirdekli tek bir TPU v2 cihazıdır. v3-2048 TPU türünde 256 adet bağlı TPU v3 cihaz ve toplam 2.048 çekirdek vardır. TPU türleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU çalışanı

#TensorFlow
#GoogleCloud

TPU cihazlarda ana makine üzerinde çalışan ve makine öğrenimi programları yürüten bir işlemdir.