Ta strona zawiera terminy z glosariusza Google Cloud. Aby zobaczyć wszystkie terminy ze glosariusza, kliknij tutaj.
O
układ akceleratora
Kategoria specjalistycznych komponentów sprzętowych, które wykonują kluczowe obliczenia wymagane przez algorytmy deep learning.
Układy akceleratora (lub po prostu akceleratory) mogą znacznie zwiększyć szybkość i wydajność zadań trenowania i wnioskowania w porównaniu do procesorów do zwykłych obciążeń. Świetnie sprawdzają się przy trenowaniu sieci neuronowych i podobnych zadaniach wymagających dużej mocy obliczeniowej.
Przykłady układów akceleratorów:
- Jednostki Tensor Processing Unit (TPU) od Google ze specjalnym sprzętem do deep learningu.
- Procesory graficzne NVIDIA, które początkowo zostały zaprojektowane z myślą o przetwarzaniu grafiki, zostały zaprojektowane do obsługi przetwarzania równoległego, które może znacznie zwiększyć szybkość przetwarzania.
B
wnioskowanie wsadowe
Proces wnioskowania prognoz na wielu przykładach bez etykiet podzielony na mniejsze podzbiory („grupy”).
Wskazywanie wsadowe może korzystać z funkcji równoległego przetwarzania układów akceleratora. Oznacza to, że wiele akceleratorów może jednocześnie wywnioskować prognozy na różnych wsadach przykładów bez etykiet, co znacznie zwiększa liczbę wniosków na sekundę.
C
Cloud TPU
Specjalistyczny akcelerator sprzętowy zaprojektowany w celu przyspieszenia zadań systemów uczących się w Google Cloud.
D
urządzenie
Termin, który jest przeciążony, z dwoma możliwymi definicjami:
- Kategoria sprzętu, który może uruchomić sesję TensorFlow, obejmująca procesory, GPU i TPU.
- Podczas trenowania modelu ML na układach akceleratorów (GPU lub TPU) część systemu, która faktycznie obsługuje tenery i umieszczane elementy. Urządzenie korzysta z układów akceleratora. Natomiast host działa zwykle na procesorze.
H
organizator
Podczas trenowania modelu ML na układach akceleratora (GPU lub TPU) ta część systemu, która steruje oboma tymi elementami:
- Ogólny przepływ kodu.
- Wyodrębnianie i przekształcanie potoku wejściowego.
Host zwykle działa na procesorze, a nie na układzie scalonym akceleratora, a urządzenie manipuluje tenisorami na układach akceleratora.
P
sieć typu mesh
W programowaniu równoległym ML termin związany z przypisywaniem danych i modelu do układów TPU oraz definiowaniem sposobu, w jaki te wartości będą fragmentowane lub replikowane.
Sieć typu mesh to termin przeciążony, który może oznaczać:
- Fizyczny układ układów TPU.
- Abstrakcyjny konstrukt logiczny do mapowania danych i modelu na układy TPU.
W obu przypadkach siatka jest określona jako kształt.
S
fragment
Logiczny podział zbioru treningowego lub modelu. Zwykle niektóre procesy tworzy fragmenty, dzieląc przykłady lub parametry na fragmenty o jednakowej wielkości. Każdy fragment jest następnie przypisywany do innej maszyny.
Fragmentacja modelu jest nazywana równoległością modelu, a fragmentowanie danych jest nazywane równoległością danych.
T
Tensor Processing Unit (TPU)
Układ scalony ASIC, który optymalizuje wydajność zadań systemów uczących się. Te układy ASIC są wdrożone jako wiele układów TPU na urządzeniu TPU.
TPU
Skrót od wyrażenia Tensor Processing Unit.
Układ TPU
Programowalny liniowy akcelerator algebry z wbudowaną pamięcią o dużej przepustowości i zoptymalizowaną pod kątem zbiorów zadań systemów uczących się. Urządzenie TPU jest wyposażone w wiele układów TPU.
Urządzenie TPU
Płytka drukowana z wieloma układami TPU, interfejsami sieciowymi o dużej przepustowości i sprzętem chłodzącym system.
Główny TPU
Centralny proces koordynacji działający na hoście, który wysyła i odbiera dane, wyniki, programy, wydajność i informacje o stanie systemu do instancji roboczych TPU. Główny moduł TPU zarządza też konfiguracją i wyłączaniem urządzeń TPU.
Węzeł TPU
Zasób TPU w Google Cloud z określonym typem TPU. Węzeł TPU łączy się z Twoją siecią VPC przez równorzędną sieć VPC. Węzły TPU są zasobami zdefiniowanymi w Cloud TPU API.
pod TPU
Konkretna konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą przez dedykowaną szybką sieć. Pod TPU to największa konfiguracja urządzeń TPU dostępna dla określonej wersji TPU.
Zasób TPU
Encja TPU w Google Cloud, którą tworzysz, którym zarządzasz lub którą używasz. Na przykład węzły TPU i typy TPU są zasobami TPU.
Wycinek TPU
Wycinek TPU to ułamkowa część urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą przez dedykowaną sieć o szybkości.
Typ TPU
Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład typ TPU v2-8
to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048
ma 256 urządzeń sieciowych TPU v3 i łącznie 2048 rdzeni. Typy TPU są zasobami zdefiniowanymi w Cloud TPU API.
Instancja robocza TPU
Proces, który działa na hoście i uruchamia programy systemów uczących się na urządzeniach TPU.