Ta strona zawiera terminy z glosariusza Google Cloud. Aby wyświetlić wszystkie terminy z glosariusza, kliknij tutaj.
A
element akceleratora
Kategoria specjalistycznych komponentów sprzętowych zaprojektowanych do wykonywania kluczowych obliczeń potrzebnych algorytmom uczenia głębokiego.
Układy akceleratorów (lub w skrócie akceleratory) mogą znacznie zwiększyć szybkość i wydajność zadań związanych z trenowaniem i wnioskowaniem w porównaniu z procesorem ogólnego przeznaczenia. Idealnie nadają się do trenowania sieci neuronowych i podobnych zadań wymagających dużej mocy obliczeniowej.
Przykłady układów akceleratorów:
- Jednostki Tensor Processing Unit (TPU) Google z dedykowanym sprzętem do deep learningu.
- Procesory graficzne NVIDIA, które choć początkowo zostały zaprojektowane do przetwarzania grafiki, umożliwiają przetwarzanie równoległe, co może znacznie zwiększyć szybkość przetwarzania.
B
wnioskowanie zbiorcze
Proces wyciągania wniosków na podstawie wielu nieoznaczonych przykładów podzielonych na mniejsze podzbiory („partie”).
Wnioskowanie wsadowe może korzystać z funkcji równoległego przetwarzania chipów akceleratora. Oznacza to, że wiele akceleratorów może jednocześnie generować prognozy na podstawie różnych partii nieoznaczonych przykładów, co znacznie zwiększa liczbę prognoz na sekundę.
Więcej informacji znajdziesz w sekcji Produkcyjne systemy uczenia maszynowego: statyczne i dynamiczne wnioskowanie w kursie Machine Learning Crash Course.
C
Cloud TPU
Specjalistyczny akcelerator sprzętowy zaprojektowany z myślą o przyspieszaniu zadań systemów uczących się w Google Cloud.
D
urządzenie
Przeciążony termin o 2 możliwych definicjach:
- Kategoria sprzętu, na którym można uruchomić sesję TensorFlow, w tym procesory CPU, GPU i TPU.
- Podczas trenowania modelu uczenia maszynowego na akceleratorach (procesorach GPU lub TPU) część systemu, która faktycznie przetwarza tensory i wektory. Urządzenie działa na chipach akceleratora. Natomiast host zwykle działa na procesorze.
H
host
Podczas trenowania modelu uczenia maszynowego na chipach akceleratora (GPU lub TPU) część systemu, która kontroluje oba te elementy:
- ogólny przepływ kodu;
- wyodrębnianie i przekształcanie potoku wejściowego,
Host działa zwykle na procesorze, a nie na układzie akceleratora. Urządzenie przetwarza tensory na układach akceleratora.
M
sieć typu mesh
W programowaniu równoległym ML termin związany z przypisywaniem danych i modelu do układów TPU oraz określaniem, jak te wartości będą dzielone lub replikowane.
Mesh to termin o wielu znaczeniach, który może oznaczać:
- Fizyczny układ układów TPU.
- Abstrakcyjna konstrukcja logiczna do mapowania danych i modelu na układy TPU.
W obu przypadkach siatka jest określana jako kształt.
S
fragment
Logiczny podział zbioru treningowego lub modelu. Zwykle proces tworzenia fragmentów polega na podzieleniu przykładów lub parametrów na (zwykle) równe części. Każdy fragment jest następnie przypisywany do innego urządzenia.
Dzielenie modelu na fragmenty to równoległość modelu, a dzielenie danych na fragmenty to równoległość danych.
T
Tensor Processing Unit (TPU)
Specjalizowany układ scalony (ASIC), który optymalizuje wydajność zadań uczenia maszynowego. Te układy ASIC są wdrażane jako wiele chipów TPU na urządzeniu TPU.
TPU
Skrót od Tensor Processing Unit.
Układ TPU
Programowalny akcelerator algebry liniowej z pamięcią o wysokiej przepustowości na chipie, zoptymalizowany pod kątem zadań związanych z uczeniem maszynowym. Wiele układów TPU jest wdrażanych na urządzeniu TPU.
Urządzenie TPU
Płytka drukowana z wieloma układami TPU, interfejsami sieciowymi o wysokiej przepustowości i sprzętem do chłodzenia systemu.
Węzeł TPU
Zasób TPU w Google Cloud o określonym typie TPU. Węzeł TPU łączy się z siecią VPC z równorzędnej sieci VPC. Węzły TPU to zasób zdefiniowany w Cloud TPU API.
pod TPU
Określona konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą za pomocą dedykowanej sieci o dużej szybkości. Pod TPU to największa konfiguracja urządzeń TPU dostępna w przypadku określonej wersji TPU.
Zasób TPU
Jednostka TPU w Google Cloud, którą tworzysz, zarządzasz lub z której korzystasz. Na przykład węzły TPU i typy TPU to zasoby TPU.
Wycinek TPU
Wycinek TPU to ułamek urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą za pomocą dedykowanej sieci o dużej szybkości.
Typ TPU
Konfiguracja co najmniej 1 urządzenia TPU z konkretną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład v2-8
typ TPU to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048
ma 256 połączonych w sieć urządzeń TPU v3 i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w Cloud TPU API.
proces roboczy TPU
Proces, który działa na maszynie hosta i wykonuje programy uczenia maszynowego na urządzeniach TPU.