Ta strona zawiera hasła z glosariusza TensorFlow. Aby poznać wszystkie terminy z glosariusza, kliknij tutaj.
B
zbiorcze wnioskowanie
Proces wyprowadzania prognoz na podstawie wielu nieoznaczonych przykładów podzielonych na mniejsze podzbiory („partie”).
W przypadku zbiorczego wnioskowania można korzystać z funkcji równoległości układów przyspieszających. Oznacza to, że wiele akceleratorów może jednocześnie wyprowadzać prognozy na różnych partiach nieoznaczonych przykładów, znacznie zwiększając liczbę wnioskowań na sekundę.
Więcej informacji znajdziesz w sekcji Produkcyjne systemy ML: statystyczne a dynamiczne wnioskowanie z Kursu intensywnego z uczenia maszynowego.
C
Cloud TPU
Specjalny akcelerator sprzętowy zaprojektowany z myślą o przyspieszaniu zadań systemów uczących się w Google Cloud.
D
Dataset API (tf.data)
Ogólny interfejs API TensorFlow do odczytywania danych i przekształcania ich w postać wymaganą przez algorytm uczenia maszynowego.
Obiekt tf.data.Dataset
reprezentuje sekwencję elementów, w których każdy element zawiera co najmniej 1 tensor. Obiekt tf.data.Iterator
zapewnia dostęp do elementów Dataset
.
urządzenie
Przeciążony termin z 2 możliwymi definicjami:
- Kategoria sprzętu, na którym można uruchamiać sesję TensorFlow, w tym procesory CPU, GPU i TPU.
- Podczas trenowania modelu ML na urządzeniach przyspieszających (kartach graficznych lub jednostkach TPU) część systemu, która faktycznie manipuluje tensorami i wkładami. Urządzenie działa na chipach akceleratora. Natomiast host zwykle działa na procesorze.
E
wykonanie natychmiastowe
Środowisko programowania TensorFlow, w którym operacje są wykonywane natychmiast. Z drugiej strony operacje wywoływane w wykonaniu grafu nie są wykonywane, dopóki nie zostaną wyraźnie ocenione. Szybkie wykonanie to wyrażenie imperatywne, czyli takie, które działa podobnie do kodu w większości języków programowania. Programy o bezpośrednim wykonywaniu są zazwyczaj znacznie łatwiejsze do debugowania niż programy o wykonywaniu w ramach grafu.
Estimator
Wycofany interfejs TensorFlow API. Zamiast Estimators użyj funkcji tf.keras.
F
ekstrakcja wyróżników
Proces obejmujący te kroki:
- Określanie, które cechy mogą być przydatne podczas trenowania modelu.
- konwertowanie nieprzetworzonych danych ze zbioru danych na wydajne wersje tych funkcji;
Możesz na przykład uznać, że temperature
może być przydatną funkcją. Następnie możesz eksperymentować z bucketingiem, aby zoptymalizować to, czego model może się nauczyć z różnych zakresów temperature
.
Inżynieria cech jest czasami nazywana wyodrębnianiem cech lub tworzeniem cech.
Więcej informacji znajdziesz w sekcji Dane liczbowe: jak model przetwarza dane za pomocą wektorów cech z Kursu intensywnego z uczenia maszynowego.
specyfikacja funkcji
Opisuje informacje wymagane do wyodrębnienia danych funkcji z bufora protokołu tf.Example. Ponieważ bufor protokołu tf.Example to tylko kontener na dane, musisz określić:
- Dane do wyodrębnienia (czyli klucze funkcji).
- typ danych (np. liczba zmiennoprzecinkowa lub całkowita);
- długość (stała lub zmienna);
G
wykres
W TensorFlow jest to specyfikacja obliczeń. Węzły na wykresie reprezentują operacje. Krawędzie są kierunkowe i reprezentują przekazywanie wyniku operacji (Tensor) jako operanda do innej operacji. Użyj TensorBoard, aby zwizualizować wykres.
wykonanie grafu
Środowisko programowania TensorFlow, w którym program najpierw tworzy graf, a następnie wykonuje go w całości lub częściowo. Wykonywanie wykresu jest domyślnym trybem wykonywania w TensorFlow 1.x.
W przeciwieństwie do opóźnionego wykonania.
H
host
Podczas trenowania modelu ML na urządzeniach przyspieszających (kartach graficznych lub urządzeniach TPU) część systemu, która kontroluje:
- ogólny przepływ kodu;
- wyodrębnianie i przekształcanie potoku danych wejściowych;
Host zwykle działa na procesorze, a nie na chipie akceleratora. Urządzenie manipuluje tensorami na chipach akceleratora.
L
Layers API (tf.layers)
Interfejs API TensorFlow do tworzenia głębokiej sieci neuronowej jako kompozycji warstw. Interfejs Layers API umożliwia tworzenie różnych warstw, takich jak:
tf.layers.Dense
dla warstwy w pełni połączonej.tf.layers.Conv2D
dla warstwy konwolucyjnej.
Interfejs Layers API stosuje konwencje interfejsu Keras. Oznacza to, że poza innym prefiksem wszystkie funkcje w interfejsie Layers API mają te same nazwy i signatury co ich odpowiedniki w interfejsie Keras layers API.
M
sieć typu mesh
W programowaniu równoległym z wykorzystaniem uczenia maszynowego termin związany z przypisywaniem danych i modelu do chipów TPU oraz definiowaniem sposobu ich dzielenia na fragmenty lub replikowania.
Sieć to pojęcie o wielu znaczeniach, które może oznaczać:
- Fizyczny układ układów TPU.
- Abstrakcyjny konstrukt logiczny służący do mapowania danych i modelu na procesory TPU.
W obu przypadkach siatka jest określana jako kształt.
wskaźnik
Statystyka, która Cię interesuje.
Cel to dane, które system uczących się próbuje zoptymalizować.
N
węzeł (graf TensorFlow)
Operacja w grafie TensorFlow.
O
operacja (op)
W TensorFlow: każda procedura, która tworzy, manipuluje lub niszczy Tensor. Na przykład mnożenie macierzy to operacja, która przyjmuje 2 tensory jako dane wejściowe i generuje 1 tensor jako dane wyjściowe.
P
Serwer parametrów (PS)
zadanie, które śledzi parametry modelu w rozproszonej konfiguracji.
P
kolejka
Operacja TensorFlow Operation, która implementuje strukturę danych kolejki. Zwykle używane w przypadku I/O.
R
rank (Tensor)
Liczba wymiarów w Tensor. Na przykład: skalarze mają rangę 0, wektory – rangę 1, a macierze – rangę 2.
Nie należy mylić z pozycją (kolejnością).
katalog główny
Katalog, który wskazujesz jako miejsce przechowywania podkatalogów plików checkpoint i zdarzeń TensorFlow dla wielu modeli.
S
SavedModel
zalecany format zapisywania i przywracania modeli TensorFlow; SavedModel to niezależny od języka format serializacji, który umożliwia systemom i narzędziom wyższego poziomu tworzenie, wykorzystywanie i przekształcanie modeli TensorFlow.
Szczegółowe informacje znajdziesz w sekcji dotyczącej zapisywania i przywracania w przewodniku dla programistów TensorFlow.
Ekonomiczna
Obiekt TensorFlow odpowiedzialny za zapisywanie punktów kontrolnych modelu.
fragment
Logiczne podziały zbioru danych treningowych lub modelu. Zwykle jakiś proces tworzy fragmenty, dzieląc przykłady lub parametry na kawałki o zwykle jednakowej wielkości. Każdy fragment jest następnie przypisywany do innej maszyny.
Dzielenie modelu nazywa się paralelizmem modelu, a dzielenie danych – paralelizmem danych.
podsumowanie
W TensorFlow wartość lub zbiór wartości obliczanych w określonym kroku, zwykle używane do śledzenia danych modelu podczas trenowania.
T
Tensor
Podstawowa struktura danych w programach TensorFlow. Tensory to struktury danych o wymiarach N (gdzie N może być bardzo dużych), najczęściej skalary, wektory lub macierze. Elementy tensora mogą zawierać wartości całkowite, zmiennoprzecinkowe lub ciągi znaków.
TensorBoard
Panel, który wyświetla podsumowania zapisane podczas wykonywania co najmniej jednego programu TensorFlow.
TensorFlow
Rozproszona platforma systemów uczących się na dużą skalę. Termin ten odnosi się też do podstawowej warstwy interfejsu API w zestawie TensorFlow, która obsługuje ogólne obliczenia na wykresach przepływu danych.
Chociaż TensorFlow jest używany głównie do uczenia maszynowego, możesz go też używać do zadań innych niż uczenie maszynowe, które wymagają obliczeń numerycznych przy użyciu diagramów przepływu danych.
TensorFlow Playground
Program, który wizualizuje wpływ różnych parametrów hiperobliczeń na trenowanie modelu (głównie sieci neuronowej). Wejdź na stronę http://playground.tensorflow.org , aby eksperymentować z TensorFlow Playground.
TensorFlow Serving
Platforma do wdrażania wytrenowanych modeli w środowisku produkcyjnym.
Tensor Processing Unit (TPU)
Specjalistyczny układ scalony (ASIC) optymalizujący wydajność zadań systemów uczących się. Te układy ASIC są wdrażane jako wiele układów TPU na urządzeniu TPU.
Poziom tensora
Zobacz rank (Tensor).
Kształt tensora
Liczba elementów, które zawiera Tensor w różnych wymiarach.
Na przykład tensor [5, 10]
ma kształt 5 w jednym wymiarze i 10 w drugim.
Rozmiar tensora
Łączna liczba elementów skalarnych, które zawiera Tensor. Na przykład:[5, 10]
tensor ma rozmiar 50.
tf.Example
standardowy bufor protokołu do opisywania danych wejściowych na potrzeby trenowania modelu systemów uczących się lub wnioskowania.
tf.keras
Implementacja Keras zintegrowana z TensorFlow.
TPU
Skrót od Tensor Processing Unit.
Układ scalony TPU
Programowalny akcelerator do obliczeń algebraicznych liniowych z pamięcią o wysokiej przepustowości na chipie, zoptymalizowany pod kątem zadań związanych z systemami uczącymi się. Na urządzeniu TPU jest instalowanych wiele układów TPU.
Urządzenie TPU
Płytka drukowana (PCB) z wieloma układami TPU, interfejsami sieci o dużej przepustowości i sprzętem do chłodzenia systemu.
Usługa TPU master
Centralny proces koordynacji działający na komputerze hosta, który wysyła i odbiera dane, wyniki, programy, informacje o wydajności i stanie systemu do procesów TPU. Główny TPU zarządza też konfiguracją i wyłączaniem urządzeń TPU.
Węzeł TPU
zasób TPU w Google Cloud o określonym typie TPU. TPU łączy się z siecią VPC z siecią VPC peer. Węzły TPU to zasoby zdefiniowane w interfejsie Cloud TPU API.
pod TPU
Określona konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą za pomocą dedykowanej sieci o wysokiej przepustowości. Pod TPU to największa konfiguracja urządzeń TPU dostępna w przypadku konkretnej wersji TPU.
Zasób TPU
Element TPU w Google Cloud, który tworzysz, nim zarządzasz lub z niego korzystasz. Na przykład węzły TPU i typy TPU to zasoby TPU.
Wycinek TPU
Wycinek TPU to ułamkowa część urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą za pomocą dedykowanej sieci o wysokiej przepustowości.
Typ TPU
Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład v2-8
Typ TPU to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ v3-2048
TPU ma 256 urządzeń TPU v3 połączonych w sieć i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w Cloud TPU API.
Zasób roboczy TPU
Proces, który działa na komputerze hosta i wykonuje programy systemów uczących się na urządzeniach TPU.