Ta strona zawiera terminy z glosariusza TensorFlow. Aby wyświetlić wszystkie terminy z glosariusza, kliknij tutaj.
C
Cloud TPU
Specjalistyczny akcelerator sprzętowy zaprojektowany z myślą o przyspieszaniu zadań systemów uczących się w Google Cloud.
D
Dataset API (tf.data)
Interfejs API TensorFlow wysokiego poziomu do odczytywania danych i przekształcania ich w formę wymaganą przez algorytm uczenia maszynowego.
Obiekt tf.data.Dataset
reprezentuje sekwencję elementów, w której każdy element zawiera co najmniej 1 tensor. Obiekt tf.data.Iterator
umożliwia dostęp do elementów Dataset
.
urządzenie
Przeciążony termin o 2 możliwych definicjach:
- Kategoria sprzętu, na którym można uruchomić sesję TensorFlow, w tym procesory CPU, GPU i TPU.
- Podczas trenowania modelu uczenia maszynowego na akceleratorach (procesorach GPU lub TPU) część systemu, która faktycznie przetwarza tensory i wektory. Urządzenie działa na chipach akceleratora. Natomiast host zwykle działa na procesorze.
E
wykonanie natychmiastowe,
Środowisko programowania TensorFlow, w którym operacje są wykonywane natychmiast. Z kolei operacje wywoływane w ramach wykonywania grafu nie są uruchamiane, dopóki nie zostaną jawnie obliczone. Wykonanie natychmiastowe to interfejs imperatywny, podobny do kodu w większości języków programowania. Programy z wykonywaniem natychmiastowym są zwykle znacznie łatwiejsze do debugowania niż programy z wykonywaniem grafu.
Estymator
Wycofany interfejs TensorFlow API. Zamiast Estimatorów używaj tf.keras.
P
ekstrakcja wyróżników
Proces obejmujący te kroki:
- określanie, które funkcje mogą być przydatne podczas trenowania modelu;
- przekształcanie nieprzetworzonych danych ze zbioru danych w skuteczne wersje tych funkcji;
Możesz na przykład uznać, że temperature
to przydatna funkcja. Następnie możesz poeksperymentować z podziałem na przedziały, aby zoptymalizować to, czego model może się nauczyć z różnych temperature
zakresów.
Inżynieria cech jest czasami nazywana ekstrakcją cech lub featurizacją.
Więcej informacji znajdziesz w sekcji Dane liczbowe: jak model przetwarza dane za pomocą wektorów cech w kursie Machine Learning Crash Course.
specyfikacja funkcji
Opisuje informacje wymagane do wyodrębnienia danych cech z bufora protokołu tf.Example. Ponieważ bufor protokołu tf.Example jest tylko kontenerem na dane, musisz określić te elementy:
- Dane do wyodrębnienia (czyli klucze funkcji)
- Typ danych (np. float lub int)
- długość (stała lub zmienna);
G
wykres
W TensorFlow jest to specyfikacja obliczeń. Węzły na wykresie reprezentują operacje. Krawędzie są skierowane i reprezentują przekazywanie wyniku operacji (Tensor) jako operandu do innej operacji. Użyj TensorBoard, aby zwizualizować wykres.
wykonanie grafu
Środowisko programistyczne TensorFlow, w którym program najpierw tworzy graf, a następnie wykonuje cały graf lub jego część. W TensorFlow 1.x domyślnym trybem wykonywania jest wykonywanie wykresu.
Kontrastuje z wykonywaniem natychmiastowym.
H
host
Podczas trenowania modelu uczenia maszynowego na chipach akceleratora (GPU lub TPU) część systemu, która kontroluje oba te elementy:
- ogólny przepływ kodu;
- wyodrębnianie i przekształcanie potoku wejściowego,
Host działa zwykle na procesorze, a nie na układzie akceleratora. Urządzenie przetwarza tensory na układach akceleratora.
L
Layers API (tf.layers)
Interfejs TensorFlow API do tworzenia głębokiej sieci neuronowej jako kompozycji warstw. Interfejs Layers API umożliwia tworzenie różnych typów warstw, takich jak:
tf.layers.Dense
dla w pełni połączonej warstwy.tf.layers.Conv2D
dla warstwy konwolucyjnej.
Interfejs Layers API jest zgodny z konwencjami interfejsu Keras Layers API. Oznacza to, że oprócz innego prefiksu wszystkie funkcje w interfejsie Layers API mają takie same nazwy i sygnatury jak ich odpowiedniki w interfejsie Keras Layers API.
M
sieć typu mesh
W programowaniu równoległym ML termin związany z przypisywaniem danych i modelu do układów TPU oraz określaniem, jak te wartości będą dzielone lub replikowane.
Mesh to termin o wielu znaczeniach, który może oznaczać:
- Fizyczny układ układów TPU.
- Abstrakcyjna konstrukcja logiczna do mapowania danych i modelu na układy TPU.
W obu przypadkach siatka jest określana jako kształt.
wskaźnik
statystyka, na której Ci zależy;
Cel to wskaźnik, który system uczący się próbuje zoptymalizować.
N
węzeł (graf TensorFlow)
Operacja w grafie TensorFlow.
O
operacja (op)
W TensorFlow każda procedura, która tworzy, modyfikuje lub usuwa Tensor. Na przykład mnożenie macierzy to operacja, która przyjmuje 2 tensory jako dane wejściowe i generuje 1 tensor jako dane wyjściowe.
P
Serwer parametrów (PS)
Zadanie, które śledzi parametry modelu w środowisku rozproszonym.
Q
kolejka
Operacja TensorFlow, która implementuje strukturę danych kolejki. Zwykle używane w przypadku wejścia/wyjścia.
R
rank (Tensor)
Liczba wymiarów w Tensor. Na przykład skalar ma rangę 0, wektor – rangę 1, a macierz – rangę 2.
Nie należy mylić z pozycją (kolejnością).
katalog główny
Katalog, który określasz na potrzeby hostowania podkatalogów plików punktów kontrolnych i zdarzeń TensorFlow wielu modeli.
S
SavedModel
Zalecany format zapisywania i przywracania modeli TensorFlow. SavedModel to niezależny od języka format serializacji z możliwością odzyskiwania, który umożliwia systemom i narzędziom wyższego poziomu tworzenie, wykorzystywanie i przekształcanie modeli TensorFlow.
Szczegółowe informacje znajdziesz w sekcji Zapisywanie i przywracanie w Przewodniku programisty TensorFlow.
Ekonomiczna
Obiekt TensorFlow odpowiedzialny za zapisywanie punktów kontrolnych modelu.
fragment
Logiczny podział zbioru treningowego lub modelu. Zwykle proces tworzenia fragmentów polega na podzieleniu przykładów lub parametrów na (zwykle) równe części. Każdy fragment jest następnie przypisywany do innego urządzenia.
Dzielenie modelu na fragmenty to równoległość modelu, a dzielenie danych na fragmenty to równoległość danych.
podsumowanie
W TensorFlow wartość lub zbiór wartości obliczanych na określonym etapie, zwykle używanych do śledzenia danych modelu podczas trenowania.
T
Tensor
Podstawowa struktura danych w programach TensorFlow. Tensory to N-wymiarowe (gdzie N może być bardzo duże) struktury danych, najczęściej skalary, wektory lub macierze. Elementy tensora mogą zawierać wartości całkowite, zmiennoprzecinkowe lub ciągi znaków.
TensorBoard
Panel, który wyświetla podsumowania zapisane podczas wykonywania co najmniej 1 programu TensorFlow.
TensorFlow
Platforma systemów uczących się na dużą skalę, rozproszona. Termin ten odnosi się też do podstawowej warstwy interfejsu API w stosie TensorFlow, która obsługuje ogólne obliczenia na wykresach przepływu danych.
TensorFlow jest używany głównie do uczenia maszynowego, ale możesz go też używać do zadań niezwiązanych z uczeniem maszynowym, które wymagają obliczeń numerycznych z użyciem wykresów przepływu danych.
TensorFlow Playground
Program, który wizualizuje, jak różne hiperparametry wpływają na trenowanie modelu (głównie sieci neuronowej). Otwórz stronę http://playground.tensorflow.org, aby wypróbować TensorFlow Playground.
TensorFlow Serving
Platforma do wdrażania wytrenowanych modeli w środowisku produkcyjnym.
Tensor Processing Unit (TPU)
Specjalizowany układ scalony (ASIC), który optymalizuje wydajność zadań uczenia maszynowego. Te układy ASIC są wdrażane jako wiele chipów TPU na urządzeniu TPU.
Ranga tensora
Zobacz rank (Tensor).
Kształt tensora
Liczba elementów, które Tensor zawiera w różnych wymiarach.
Na przykład [5, 10]
tensor ma kształt 5 w jednym wymiarze i 10 w drugim.
Rozmiar tensora
Łączna liczba skalarów, które zawiera Tensor. Na przykład tensor [5, 10]
ma rozmiar 50.
tf.Example
Standardowy bufor protokołu do opisywania danych wejściowych na potrzeby trenowania lub wnioskowania modelu uczenia maszynowego.
tf.keras
Implementacja Keras zintegrowana z TensorFlow.
TPU
Skrót od Tensor Processing Unit.
Układ TPU
Programowalny akcelerator algebry liniowej z pamięcią o wysokiej przepustowości na chipie, zoptymalizowany pod kątem zadań związanych z uczeniem maszynowym. Wiele układów TPU jest wdrażanych na urządzeniu TPU.
Urządzenie TPU
Płytka drukowana z wieloma układami TPU, interfejsami sieciowymi o wysokiej przepustowości i sprzętem do chłodzenia systemu.
Węzeł TPU
Zasób TPU w Google Cloud o określonym typie TPU. Węzeł TPU łączy się z siecią VPC z równorzędnej sieci VPC. Węzły TPU to zasób zdefiniowany w Cloud TPU API.
pod TPU
Określona konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą za pomocą dedykowanej sieci o dużej szybkości. Pod TPU to największa konfiguracja urządzeń TPU dostępna w przypadku określonej wersji TPU.
Zasób TPU
Jednostka TPU w Google Cloud, którą tworzysz, zarządzasz lub z której korzystasz. Na przykład węzły TPU i typy TPU to zasoby TPU.
Wycinek TPU
Wycinek TPU to ułamek urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą za pomocą dedykowanej sieci o dużej szybkości.
Typ TPU
Konfiguracja co najmniej 1 urządzenia TPU z konkretną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład v2-8
typ TPU to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048
ma 256 połączonych w sieć urządzeń TPU v3 i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w Cloud TPU API.
proces roboczy TPU
Proces, który działa na maszynie hosta i wykonuje programy uczenia maszynowego na urządzeniach TPU.