Makine Öğrenimi Sözlüğü: Google Cloud

Bu sayfada Google Cloud terimleri sözlüğü yer alır. Tüm sözlük terimleri için burayı tıklayın.

A

hızlandırıcı çip

#GoogleCloud

Derin öğrenme algoritmaları için gereken temel hesaplamaları yapmak üzere tasarlanmış özel donanım bileşenleri kategorisi.

Hızlandırıcı çipleri (kısaca hızlandırıcılar), genel amaçlı bir CPU'ya kıyasla eğitim ve çıkarım görevlerinin hızını ve verimliliğini önemli ölçüde artırabilir. Nöral ağları eğitmek ve benzeri yoğun işlem gerektiren görevler için idealdir.

Hızlandırıcı çiplere örnek olarak aşağıdakiler verilebilir:

  • Derin öğrenme için özel donanım içeren Google'ın Tensor İşleme Birimleri (TPU'lar).
  • Başlangıçta grafik işleme için tasarlanmış olsa da NVIDIA'nın GPU'ları, işlem hızını önemli ölçüde artırabilen paralel işlemeyi etkinleştirmek üzere tasarlanmıştır.

B

toplu çıkarım

#GoogleCloud

Daha küçük alt kümeler ("gruplar") halinde bölünmüş birden fazla etiketlenmemiş örnek üzerinde tahmin çıkarma süreci.

Toplu çıkarım, hızlandırıcı çiplerin paralelleştirme özelliklerinden yararlanabilir. Yani birden fazla hızlandırıcı, aynı anda farklı gruplardaki etiketlenmemiş örnekler üzerinde çıkarım yapabilir ve saniyedeki çıkarım sayısını önemli ölçüde artırabilir.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Üretim ML sistemleri: Statik ve dinamik çıkarım bölümüne bakın.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud'daki makine öğrenimi iş yüklerini hızlandırmak için tasarlanmış özel bir donanım hızlandırıcıdır.

D

cihaz

#TensorFlow
#GoogleCloud

Aşağıdaki iki olası tanıma sahip, aşırı yüklenmiş bir terim:

  1. CPU'lar, GPU'lar ve TPU'lar dahil olmak üzere TensorFlow oturumu çalıştırabilen bir donanım kategorisi.
  2. Hızlandırıcı çipleri (GPU'lar veya TPU'lar) üzerinde bir makine öğrenimi modeli eğitilirken tensörleri ve gömümleri gerçekte işleyen sistemin parçası. Cihaz, hızlandırıcı çipleriyle çalışır. Buna karşılık, ana makine genellikle CPU üzerinde çalışır.

H

düzenleyen

#TensorFlow
#GoogleCloud

Hızlandırıcı çipleri (GPU'lar veya TPU'lar) üzerinde bir makine öğrenimi modeli eğitilirken sistemin aşağıdaki iki öğeyi de kontrol eden kısmı:

  • Kodun genel akışı.
  • Giriş işlem hattının ayıklanması ve dönüştürülmesi.

Ana makine genellikle hızlandırıcı çipte değil, CPU'da çalışır. Cihaz, hızlandırıcı çiplerdeki tensörleri işler.

A

örgü

#TensorFlow
#GoogleCloud

Makine öğrenimi paralel programlamasında, verileri ve modeli TPU çiplere atama ve bu değerlerin nasıl parçalanacağını veya kopyalanacağını tanımlama ile ilişkili bir terimdir.

Mesh, aşağıdaki anlamlara gelebilen aşırı yüklenmiş bir terimdir:

  • TPU çiplerinin fiziksel düzeni.
  • Verileri ve modeli TPU çipleriyle eşlemek için kullanılan soyut bir mantıksal yapı.

Her iki durumda da bir ağ, şekil olarak belirtilir.

G

parça

#TensorFlow
#GoogleCloud

Eğitim kümesinin veya modelin mantıksal bir bölümü. Genellikle bir işlem, örnekleri veya parametreleri (genellikle) eşit boyutlu parçalara bölerek parçalar oluşturur. Her parça daha sonra farklı bir makineye atanır.

Bir modeli parçalama işlemine model paralelliği, verileri parçalama işlemine ise veri paralelliği adı verilir.

T

Tensor İşleme Birimi (TPU)

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yüklerinin performansını optimize eden uygulamaya özel bir entegre devre (ASIC). Bu ASIC'ler, TPU cihazında birden fazla TPU çipi olarak dağıtılır.

TPU

#TensorFlow
#GoogleCloud

Tensor İşleme Birimi'nin kısaltmasıdır.

TPU çipi

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yükleri için optimize edilmiş, çip üzerinde yüksek bant genişliğine sahip belleği olan programlanabilir bir doğrusal cebir hızlandırıcı. Bir TPU cihazına birden fazla TPU çipi dağıtılır.

TPU cihazı

#TensorFlow
#GoogleCloud

Birden fazla TPU çipi, yüksek bant genişliğine sahip ağ arayüzleri ve sistem soğutma donanımı içeren bir baskılı devre kartı (PCB).

TPU düğümü

#TensorFlow
#GoogleCloud

Belirli bir TPU türüne sahip Google Cloud'daki bir TPU kaynağı. TPU düğümü, eş VPC ağından VPC ağınıza bağlanır. TPU düğümleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU Kapsülü

#TensorFlow
#GoogleCloud

Google veri merkezindeki TPU cihazlarının belirli bir yapılandırması. TPU Kapsülündeki tüm cihazlar, özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır. TPU Kapsülü, belirli bir TPU sürümü için kullanılabilen en büyük TPU cihazı yapılandırmasıdır.

TPU kaynağı

#TensorFlow
#GoogleCloud

Google Cloud'da oluşturduğunuz, yönettiğiniz veya kullandığınız bir TPU varlığı. Örneğin, TPU düğümleri ve TPU türleri, TPU kaynaklarıdır.

TPU dilimi

#TensorFlow
#GoogleCloud

TPU dilimi, TPU kapsülündeki TPU cihazlarının bir bölümüdür. Bir TPU dilimindeki tüm cihazlar, özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır.

TPU türü

#TensorFlow
#GoogleCloud

Belirli bir TPU donanım sürümüne sahip bir veya daha fazla TPU cihazı yapılandırması. Google Cloud'da TPU düğümü oluştururken bir TPU türü seçersiniz. Örneğin, v2-8 TPU türü, 8 çekirdekli tek bir TPU v2 cihazıdır. v3-2048 TPU türünde, ağa bağlı 256 TPU v3 cihazı ve toplam 2.048 çekirdek bulunur. TPU türleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU çalışanı

#TensorFlow
#GoogleCloud

Bir ana makinede çalışan ve TPU cihazlarında makine öğrenimi programlarını yürüten bir süreç.

V

Vertex

#GoogleCloud
#generativeAI
Google Cloud'un yapay zeka ve makine öğrenimi platformu. Vertex, Gemini modellerine erişim de dahil olmak üzere yapay zeka uygulamaları oluşturma, dağıtma ve yönetme için araçlar ve altyapı sağlar.