Ta strona zawiera terminy w glosariuszu TensorFlow. Aby zobaczyć wszystkie terminy ze glosariusza, kliknij tutaj.
B
wnioskowanie wsadowe
Proces wnioskowania prognoz na wielu przykładach bez etykiet podzielony na mniejsze podzbiory („grupy”).
Wskazywanie wsadowe może korzystać z funkcji równoległego przetwarzania układów akceleratora. Oznacza to, że wiele akceleratorów może jednocześnie wywnioskować prognozy na różnych wsadach przykładów bez etykiet, co znacznie zwiększa liczbę wniosków na sekundę.
C
Cloud TPU
Specjalistyczny akcelerator sprzętowy zaprojektowany w celu przyspieszenia zadań systemów uczących się w Google Cloud.
D
Dataset API (tf.data)
Ogólny interfejs API TensorFlow do odczytywania danych i przekształcania ich w postać wymaganą przez algorytm systemów uczących się.
Obiekt tf.data.Dataset
reprezentuje sekwencję elementów, w której każdy element zawiera co najmniej 1 Tensors. Obiekt tf.data.Iterator
zapewnia dostęp do elementów Dataset
.
Szczegółowe informacje o interfejsie Dataset API znajdziesz w sekcji tf.data: Build potoków wejściowych TensorFlow (Tworzenie potoków wejściowych TensorFlow) w Przewodniku dla programistów TensorFlow.
urządzenie
Termin, który jest przeciążony, z dwoma możliwymi definicjami:
- Kategoria sprzętu, który może uruchomić sesję TensorFlow, obejmująca procesory, GPU i TPU.
- Podczas trenowania modelu ML na układach akceleratorów (GPU lub TPU) część systemu, która faktycznie obsługuje tenery i umieszczane elementy. Urządzenie korzysta z układów akceleratora. Natomiast host działa zwykle na procesorze.
E
szybkie wykonanie
Środowisko programistyczne TensorFlow, w którym operations są uruchamiane natychmiast. Natomiast operacje wywoływane podczas wykonania wykresu nie są wykonywane, dopóki nie zostaną bezpośrednio ocenione. Szybkie wykonywanie kodu jest interfejsem imperatywnym – podobnie jak kod w większości języków programowania. Programy wykonawcze wymagające dużych nakładów pracy są zwykle dużo łatwiejsze do debugowania niż programy do wykonywania kodu graficznego.
estymator
Wycofany interfejs API TensorFlow. Używaj tf.keras zamiast estymatorów.
F
ekstrakcja wyróżników
Proces składający się z tych kroków:
- Określanie, które cechy mogą być przydatne podczas trenowania modelu.
- Konwertowanie nieprzetworzonych danych ze zbioru danych na efektywne wersje tych funkcji.
Możesz na przykład uznać, że temperature
może być przydatną funkcją. Następnie możesz poeksperymentować z podziałem na segmenty, aby zoptymalizować to, czego model może nauczyć się na różnych zakresach temperature
.
Inżynieria funkcji jest czasem nazywana wyodrębnianiem funkcji lub wyróżnianiem cech.
specyfikacja cech
Opisuje informacje wymagane do wyodrębnienia danych funkcji z bufora protokołu tf.Example. Bufor protokołu tf.Example jest tylko kontenerem na dane, więc musisz określić:
- Dane do wyodrębnienia (czyli klucze funkcji)
- typ danych (np. liczba zmiennoprzecinkowa lub int);
- długość (stała lub zmienna),
G
wykres
Specyfikacja obliczeń w TensorFlow. Węzły na wykresie odzwierciedlają operacje. Krawędzie są kierowane i przedstawiają przekazanie wyniku operacji (Tensor) jako operandu do innej operacji. Zwizualizuj wykres za pomocą TensorBoard.
wykonanie grafu
Środowisko programistyczne TensorFlow, w którym program najpierw tworzy wykres, a potem wykonuje go w całości lub w części. Wykonywanie wykresu to domyślny tryb wykonywania w TensorFlow 1.x.
Porównaj je z szybkim wykonywaniem.
H
organizator
Podczas trenowania modelu ML na układach akceleratora (GPU lub TPU) ta część systemu, która steruje oboma tymi elementami:
- Ogólny przepływ kodu.
- Wyodrębnianie i przekształcanie potoku wejściowego.
Host zwykle działa na procesorze, a nie na układzie scalonym akceleratora, a urządzenie manipuluje tenisorami na układach akceleratora.
L
Warstwy API (tf.layers)
interfejs API TensorFlow, który tworzy głęboką sieć neuronową jako kompozycję warstw. Interfejs Warstwy API pozwala tworzyć różnego rodzaju warstwy, takie jak:
tf.layers.Dense
dla w pełni połączonej warstwy.tf.layers.Conv2D
dla warstwy splotowej.
Interfejs Warstwy API jest zgodny z konwencjami API warstw Keras. Oznacza to, że oprócz innego prefiksu wszystkie funkcje w interfejsie Warstwy API mają takie same nazwy i podpisy jak ich odpowiedniki w interfejsie API warstw Keras.
P
sieć typu mesh
W programowaniu równoległym ML termin związany z przypisywaniem danych i modelu do układów TPU oraz definiowaniem sposobu, w jaki te wartości będą fragmentowane lub replikowane.
Sieć typu mesh to termin przeciążony, który może oznaczać:
- Fizyczny układ układów TPU.
- Abstrakcyjny konstrukt logiczny do mapowania danych i modelu na układy TPU.
W obu przypadkach siatka jest określona jako kształt.
wskaźnik
Statystyka, która Cię interesuje
Cel to wskaźnik, który system systemów uczących się próbuje zoptymalizować.
N
węzeł (wykres TensorFlow)
Operacja na wykresie TensorFlow.
O
operacja (operacja)
W TensorFlow każda procedura, która tworzy, manipuluje lub niszczy Tensor. Na przykład mnożenie macierzy to operacja, która pobiera 2 Tensory jako dane wejściowe i generuje jeden Tensor jako dane wyjściowe.
P
Serwer parametrów (PS)
Zadanie, które śledzi parametry modelu w rozmieszczonym ustawieniu.
P
kolejka
operacja TensorFlow, która implementuje strukturę danych kolejki. Zwykle używane podczas wejścia-wyjścia.
R
ranking (Tensor)
Liczba wymiarów w Tensor. Na przykład skalar ma pozycję 0, wektor – 1, a macierz 2.
Nie mylić ze stanem rank (ordinality).
katalog główny
Wskazany katalog hostujący podkatalogi plików kontrolnych i plików zdarzeń TensorFlow wielu modeli.
S
SavedModel
Zalecany format do zapisywania i przywracania modeli TensorFlow. SavedModel to neutralny pod względem języka format serializacji, który umożliwia systemom i narzędziom wyższego poziomu tworzenie, wykorzystywanie i przekształcanie modeli TensorFlow.
Więcej informacji znajdziesz w rozdziałie dotyczącym zapisywania i przywracania danych w przewodniku TensorFlow Programmer.
Ekonomiczna
Obiekt TensorFlow odpowiedzialny za zapisywanie punktów kontrolnych modelu.
fragment
Logiczny podział zbioru treningowego lub modelu. Zwykle niektóre procesy tworzy fragmenty, dzieląc przykłady lub parametry na fragmenty o jednakowej wielkości. Każdy fragment jest następnie przypisywany do innej maszyny.
Fragmentacja modelu jest nazywana równoległością modelu, a fragmentowanie danych jest nazywane równoległością danych.
podsumowanie
W TensorFlow wartość lub zbiór wartości obliczonych w konkretnym kroku, zwykle używany do śledzenia wskaźników modelu podczas trenowania.
T
Tensor
Podstawowa struktura danych w programach TensorFlow. Tensory mają n-wymiarowe (gdzie N może być bardzo duże) struktury danych, najczęściej skalary, wektory lub macierze. Elementy Tensor mogą przyjmować wartości liczby całkowitej, liczby zmiennoprzecinkowej lub ciągu znaków.
TensorBoard
Panel, który wyświetla podsumowania zapisane podczas wykonywania co najmniej jednego programu TensorFlow.
TensorFlow
Duża, rozproszona platforma systemów uczących się. Termin dotyczy również podstawowej warstwy interfejsu API w stosie TensorFlow, która obsługuje ogólne obliczenia na wykresach Dataflow.
Mimo że TensorFlow używa się głównie do systemów uczących się, możesz go używać również do zadań niezwiązanych z systemami uczącymi się, które wymagają obliczeń liczbowych z wykorzystaniem wykresów przepływu danych.
Środowisko do testowania TensorFlow
Program, który wizualizuje wpływ różnych hiperparametrów na trenowanie modelu (głównie sieci neuronowych). Aby poeksperymentować z programem TensorFlow Playground, otwórz stronę http://playground.tensorflow.org.
Obsługa TensorFlow
Platforma do wdrażania wytrenowanych modeli w środowisku produkcyjnym.
Tensor Processing Unit (TPU)
Układ scalony ASIC, który optymalizuje wydajność zadań systemów uczących się. Te układy ASIC są wdrożone jako wiele układów TPU na urządzeniu TPU.
Pozycja Tensor
Zobacz rank (Tensor).
Kształt tensora
Liczba elementów, które Tensor zawiera w różnych wymiarach.
Na przykład Tensor [5, 10]
ma w jednym wymiarze 5, a 10 w innym.
Rozmiar Tensor
Łączna liczba skalarów, które zawiera Tensor. Na przykład Tensor [5, 10]
ma rozmiar 50.
tf.Example
Standardowy bufor protokołu do opisywania danych wejściowych na potrzeby trenowania lub wnioskowania modelu systemów uczących się.
tf.keras
Implementacja platformy Keras zintegrowana z TensorFlow.
TPU
Skrót od wyrażenia Tensor Processing Unit.
Układ TPU
Programowalny liniowy akcelerator algebry z wbudowaną pamięcią o dużej przepustowości i zoptymalizowaną pod kątem zbiorów zadań systemów uczących się. Urządzenie TPU jest wyposażone w wiele układów TPU.
Urządzenie TPU
Płytka drukowana z wieloma układami TPU, interfejsami sieciowymi o dużej przepustowości i sprzętem chłodzącym system.
Główny TPU
Centralny proces koordynacji działający na hoście, który wysyła i odbiera dane, wyniki, programy, wydajność i informacje o stanie systemu do instancji roboczych TPU. Główny moduł TPU zarządza też konfiguracją i wyłączaniem urządzeń TPU.
Węzeł TPU
Zasób TPU w Google Cloud z określonym typem TPU. Węzeł TPU łączy się z Twoją siecią VPC przez równorzędną sieć VPC. Węzły TPU są zasobami zdefiniowanymi w Cloud TPU API.
pod TPU
Konkretna konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą przez dedykowaną szybką sieć. Pod TPU to największa konfiguracja urządzeń TPU dostępna dla określonej wersji TPU.
Zasób TPU
Encja TPU w Google Cloud, którą tworzysz, którym zarządzasz lub którą używasz. Na przykład węzły TPU i typy TPU są zasobami TPU.
Wycinek TPU
Wycinek TPU to ułamkowa część urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą przez dedykowaną sieć o szybkości.
Typ TPU
Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład typ TPU v2-8
to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048
ma 256 urządzeń sieciowych TPU v3 i łącznie 2048 rdzeni. Typy TPU są zasobami zdefiniowanymi w Cloud TPU API.
Instancja robocza TPU
Proces, który działa na hoście i uruchamia programy systemów uczących się na urządzeniach TPU.