Słowniczek systemów uczących się: Google Cloud

Ta strona zawiera hasła z glosariusza Google Cloud. Aby poznać wszystkie terminy z glosariusza, kliknij tutaj.

A

element akceleratora

#GoogleCloud

Kategoria specjalistycznych komponentów sprzętowych zaprojektowanych do wykonywania kluczowych obliczeń potrzebnych do działania algorytmów uczenia głębokiego.

Urządzenia przyspieszające (czyli akceleratory) mogą znacznie zwiększyć szybkość i wydajność zadań związanych z trenowaniem oraz wnioskowaniem w porównaniu z procesorem uniwersalnym. Są one idealne do trenowania sieci neuronowych i podobnych zadań wymagających dużej mocy obliczeniowej.

Przykłady układów przyspieszających:

  • Jednostki Tensor Processing Unit (TPU) firmy Google (TPU) z dedykowanym sprzętem do deep learningu.
  • Procesory graficzne NVIDIA, które choć początkowo były przeznaczone do przetwarzania grafiki, umożliwiają przetwarzanie równoległe, co może znacznie zwiększyć szybkość przetwarzania.

B

zbiorcze wnioskowanie

#TensorFlow
#GoogleCloud

Proces wyprowadzania prognoz na podstawie wielu nieoznaczonych przykładów podzielonych na mniejsze podzbiory („partie”).

W przypadku zbiorczego wnioskowania można korzystać z funkcji równoległości układów przyspieszających. Oznacza to, że wiele akceleratorów może jednocześnie wyprowadzać prognozy na różnych partiach nieoznaczonych przykładów, znacznie zwiększając liczbę wnioskowań na sekundę.

Więcej informacji znajdziesz w sekcji Produkcyjne systemy ML: statystyczne a dynamiczne wnioskowanie z Kursu intensywnego z uczenia maszynowego.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Specjalny akcelerator sprzętowy zaprojektowany z myślą o przyspieszaniu zadań systemów uczących się w Google Cloud.

D

urządzenie

#TensorFlow
#GoogleCloud

Przeciążony termin z 2 możliwymi definicjami:

  1. Kategoria sprzętu, na którym można uruchamiać sesję TensorFlow, w tym procesory CPU, GPU i TPU.
  2. Podczas trenowania modelu ML na urządzeniach przyspieszających (kartach graficznych lub jednostkach TPU) część systemu, która faktycznie manipuluje tensoramiwkładami. Urządzenie działa na chipach akceleratora. Natomiast host zwykle działa na procesorze.

H

host

#TensorFlow
#GoogleCloud

Podczas trenowania modelu ML na urządzeniach przyspieszających (kartach graficznych lub urządzeniach TPU) część systemu, która kontroluje:

  • ogólny przepływ kodu;
  • wyodrębnianie i przekształcanie potoku danych wejściowych;

Host zwykle działa na procesorze, a nie na chipie akceleratora. Urządzenie manipuluje tensorami na chipach akceleratora.

M

sieć typu mesh

#TensorFlow
#GoogleCloud

W programowaniu równoległym z wykorzystaniem uczenia maszynowego termin związany z przypisywaniem danych i modelu do chipów TPU oraz definiowaniem sposobu ich dzielenia na fragmenty lub replikowania.

Sieć to pojęcie o wielu znaczeniach, które może oznaczać:

  • Fizyczny układ układów TPU.
  • Abstrakcyjny konstrukt logiczny służący do mapowania danych i modelu na procesory TPU.

W obu przypadkach siatka jest określana jako kształt.

S

fragment

#TensorFlow
#GoogleCloud

Logiczne podziały zbioru danych treningowych lub modelu. Zwykle jakiś proces tworzy fragmenty, dzieląc przykłady lub parametry na kawałki o zwykle jednakowej wielkości. Każdy fragment jest następnie przypisywany do innej maszyny.

Dzielenie modelu nazywa się paralelizmem modelu, a dzielenie danych – paralelizmem danych.

T

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Specjalistyczny układ scalony (ASIC) optymalizujący wydajność zadań systemów uczących się. Te układy ASIC są wdrażane jako wiele układów TPU na urządzeniu TPU.

TPU

#TensorFlow
#GoogleCloud

Skrót od Tensor Processing Unit.

Układ scalony TPU

#TensorFlow
#GoogleCloud

Programowalny akcelerator do obliczeń algebraicznych liniowych z pamięcią o wysokiej przepustowości na chipie, zoptymalizowany pod kątem zadań związanych z systemami uczącymi się. Na urządzeniu TPU jest instalowanych wiele układów TPU.

Urządzenie TPU

#TensorFlow
#GoogleCloud

Płytka drukowana (PCB) z wieloma układami TPU, interfejsami sieci o dużej przepustowości i sprzętem do chłodzenia systemu.

Usługa TPU master

#TensorFlow
#GoogleCloud

Centralny proces koordynacji działający na komputerze hosta, który wysyła i odbiera dane, wyniki, programy, informacje o wydajności i stanie systemu do procesów TPU. Główny TPU zarządza też konfiguracją i wyłączaniem urządzeń TPU.

Węzeł TPU

#TensorFlow
#GoogleCloud

zasób TPU w Google Cloud o określonym typie TPU. TPU łączy się z siecią VPC z siecią VPC peer. Węzły TPU to zasoby zdefiniowane w interfejsie Cloud TPU API.

pod TPU

#TensorFlow
#GoogleCloud

Określona konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą za pomocą dedykowanej sieci o wysokiej przepustowości. Pod TPU to największa konfiguracja urządzeń TPU dostępna w przypadku konkretnej wersji TPU.

Zasób TPU

#TensorFlow
#GoogleCloud

Element TPU w Google Cloud, który tworzysz, nim zarządzasz lub z niego korzystasz. Na przykład węzły TPU i typy TPU to zasoby TPU.

Wycinek TPU

#TensorFlow
#GoogleCloud

Wycinek TPU to ułamkowa część urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą za pomocą dedykowanej sieci o wysokiej przepustowości.

Typ TPU

#TensorFlow
#GoogleCloud

Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład v2-8 Typ TPU to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ v3-2048 TPU ma 256 urządzeń TPU v3 połączonych w sieć i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w Cloud TPU API.

Zasób roboczy TPU

#TensorFlow
#GoogleCloud

Proces, który działa na komputerze hosta i wykonuje programy systemów uczących się na urządzeniach TPU.