Słowniczek systemów uczących się: TensorFlow

Ta strona zawiera terminy z glosariusza TensorFlow. Aby wyświetlić wszystkie terminy z glosariusza, kliknij tutaj.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Specjalistyczny akcelerator sprzętowy zaprojektowany z myślą o przyspieszaniu zadań systemów uczących się w Google Cloud.

D

Dataset API (tf.data)

#TensorFlow

Interfejs API TensorFlow wysokiego poziomu do odczytywania danych i przekształcania ich w formę wymaganą przez algorytm uczenia maszynowego. Obiekt tf.data.Dataset reprezentuje sekwencję elementów, w której każdy element zawiera co najmniej 1 tensor. Obiekt tf.data.Iterator umożliwia dostęp do elementów Dataset.

urządzenie

#TensorFlow
#GoogleCloud

Przeciążony termin o 2 możliwych definicjach:

  1. Kategoria sprzętu, na którym można uruchomić sesję TensorFlow, w tym procesory CPU, GPU i TPU.
  2. Podczas trenowania modelu uczenia maszynowego na akceleratorach (procesorach GPU lub TPU) część systemu, która faktycznie przetwarza tensorywektory. Urządzenie działa na chipach akceleratora. Natomiast host zwykle działa na procesorze.

E

wykonanie natychmiastowe,

#TensorFlow

Środowisko programowania TensorFlow, w którym operacje są wykonywane natychmiast. Z kolei operacje wywoływane w ramach wykonywania grafu nie są uruchamiane, dopóki nie zostaną jawnie obliczone. Wykonanie natychmiastowe to interfejs imperatywny, podobny do kodu w większości języków programowania. Programy z wykonywaniem natychmiastowym są zwykle znacznie łatwiejsze do debugowania niż programy z wykonywaniem grafu.

Estymator

#TensorFlow

Wycofany interfejs TensorFlow API. Zamiast Estimatorów używaj tf.keras.

P

ekstrakcja wyróżników

#fundamentals
#TensorFlow

Proces obejmujący te kroki:

  1. określanie, które funkcje mogą być przydatne podczas trenowania modelu;
  2. przekształcanie nieprzetworzonych danych ze zbioru danych w skuteczne wersje tych funkcji;

Możesz na przykład uznać, że temperature to przydatna funkcja. Następnie możesz poeksperymentować z podziałem na przedziały, aby zoptymalizować to, czego model może się nauczyć z różnych temperature zakresów.

Inżynieria cech jest czasami nazywana ekstrakcją cech lub featurizacją.

Więcej informacji znajdziesz w sekcji Dane liczbowe: jak model przetwarza dane za pomocą wektorów cech w kursie Machine Learning Crash Course.

specyfikacja funkcji

#TensorFlow

Opisuje informacje wymagane do wyodrębnienia danych cech z bufora protokołu tf.Example. Ponieważ bufor protokołu tf.Example jest tylko kontenerem na dane, musisz określić te elementy:

  • Dane do wyodrębnienia (czyli klucze funkcji)
  • Typ danych (np. float lub int)
  • długość (stała lub zmienna);

G

wykres

#TensorFlow

W TensorFlow jest to specyfikacja obliczeń. Węzły na wykresie reprezentują operacje. Krawędzie są skierowane i reprezentują przekazywanie wyniku operacji (Tensor) jako operandu do innej operacji. Użyj TensorBoard, aby zwizualizować wykres.

wykonanie grafu

#TensorFlow

Środowisko programistyczne TensorFlow, w którym program najpierw tworzy graf, a następnie wykonuje cały graf lub jego część. W TensorFlow 1.x domyślnym trybem wykonywania jest wykonywanie wykresu.

Kontrastuje z wykonywaniem natychmiastowym.

H

host

#TensorFlow
#GoogleCloud

Podczas trenowania modelu uczenia maszynowego na chipach akceleratora (GPU lub TPU) część systemu, która kontroluje oba te elementy:

  • ogólny przepływ kodu;
  • wyodrębnianie i przekształcanie potoku wejściowego,

Host działa zwykle na procesorze, a nie na układzie akceleratora. Urządzenie przetwarza tensory na układach akceleratora.

L

Layers API (tf.layers)

#TensorFlow

Interfejs TensorFlow API do tworzenia głębokiej sieci neuronowej jako kompozycji warstw. Interfejs Layers API umożliwia tworzenie różnych typów warstw, takich jak:

Interfejs Layers API jest zgodny z konwencjami interfejsu Keras Layers API. Oznacza to, że oprócz innego prefiksu wszystkie funkcje w interfejsie Layers API mają takie same nazwy i sygnatury jak ich odpowiedniki w interfejsie Keras Layers API.

M

sieć typu mesh

#TensorFlow
#GoogleCloud

W programowaniu równoległym ML termin związany z przypisywaniem danych i modelu do układów TPU oraz określaniem, jak te wartości będą dzielone lub replikowane.

Mesh to termin o wielu znaczeniach, który może oznaczać:

  • Fizyczny układ układów TPU.
  • Abstrakcyjna konstrukcja logiczna do mapowania danych i modelu na układy TPU.

W obu przypadkach siatka jest określana jako kształt.

wskaźnik

#TensorFlow
#Dane

statystyka, na której Ci zależy;

Cel to wskaźnik, który system uczący się próbuje zoptymalizować.

N

węzeł (graf TensorFlow)

#TensorFlow

Operacja w grafie TensorFlow.

O

operacja (op)

#TensorFlow

W TensorFlow każda procedura, która tworzy, modyfikuje lub usuwa Tensor. Na przykład mnożenie macierzy to operacja, która przyjmuje 2 tensory jako dane wejściowe i generuje 1 tensor jako dane wyjściowe.

P

Serwer parametrów (PS)

#TensorFlow

Zadanie, które śledzi parametry modelu w środowisku rozproszonym.

Q

kolejka

#TensorFlow

Operacja TensorFlow, która implementuje strukturę danych kolejki. Zwykle używane w przypadku wejścia/wyjścia.

R

rank (Tensor)

#TensorFlow

Liczba wymiarów w Tensor. Na przykład skalar ma rangę 0, wektor – rangę 1, a macierz – rangę 2.

Nie należy mylić z pozycją (kolejnością).

katalog główny

#TensorFlow

Katalog, który określasz na potrzeby hostowania podkatalogów plików punktów kontrolnych i zdarzeń TensorFlow wielu modeli.

S

SavedModel

#TensorFlow

Zalecany format zapisywania i przywracania modeli TensorFlow. SavedModel to niezależny od języka format serializacji z możliwością odzyskiwania, który umożliwia systemom i narzędziom wyższego poziomu tworzenie, wykorzystywanie i przekształcanie modeli TensorFlow.

Szczegółowe informacje znajdziesz w sekcji Zapisywanie i przywracanie w Przewodniku programisty TensorFlow.

Ekonomiczna

#TensorFlow

Obiekt TensorFlow odpowiedzialny za zapisywanie punktów kontrolnych modelu.

fragment

#TensorFlow
#GoogleCloud

Logiczny podział zbioru treningowego lub modelu. Zwykle proces tworzenia fragmentów polega na podzieleniu przykładów lub parametrów na (zwykle) równe części. Każdy fragment jest następnie przypisywany do innego urządzenia.

Dzielenie modelu na fragmenty to równoległość modelu, a dzielenie danych na fragmenty to równoległość danych.

podsumowanie

#TensorFlow

W TensorFlow wartość lub zbiór wartości obliczanych na określonym etapie, zwykle używanych do śledzenia danych modelu podczas trenowania.

T

Tensor

#TensorFlow

Podstawowa struktura danych w programach TensorFlow. Tensory to N-wymiarowe (gdzie N może być bardzo duże) struktury danych, najczęściej skalary, wektory lub macierze. Elementy tensora mogą zawierać wartości całkowite, zmiennoprzecinkowe lub ciągi znaków.

TensorBoard

#TensorFlow

Panel, który wyświetla podsumowania zapisane podczas wykonywania co najmniej 1 programu TensorFlow.

TensorFlow

#TensorFlow

Platforma systemów uczących się na dużą skalę, rozproszona. Termin ten odnosi się też do podstawowej warstwy interfejsu API w stosie TensorFlow, która obsługuje ogólne obliczenia na wykresach przepływu danych.

TensorFlow jest używany głównie do uczenia maszynowego, ale możesz go też używać do zadań niezwiązanych z uczeniem maszynowym, które wymagają obliczeń numerycznych z użyciem wykresów przepływu danych.

TensorFlow Playground

#TensorFlow

Program, który wizualizuje, jak różne hiperparametry wpływają na trenowanie modelu (głównie sieci neuronowej). Otwórz stronę http://playground.tensorflow.org, aby wypróbować TensorFlow Playground.

TensorFlow Serving

#TensorFlow

Platforma do wdrażania wytrenowanych modeli w środowisku produkcyjnym.

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Specjalizowany układ scalony (ASIC), który optymalizuje wydajność zadań uczenia maszynowego. Te układy ASIC są wdrażane jako wiele chipów TPU na urządzeniu TPU.

Ranga tensora

#TensorFlow

Zobacz rank (Tensor).

Kształt tensora

#TensorFlow

Liczba elementów, które Tensor zawiera w różnych wymiarach. Na przykład [5, 10] tensor ma kształt 5 w jednym wymiarze i 10 w drugim.

Rozmiar tensora

#TensorFlow

Łączna liczba skalarów, które zawiera Tensor. Na przykład tensor [5, 10] ma rozmiar 50.

tf.Example

#TensorFlow

Standardowy bufor protokołu do opisywania danych wejściowych na potrzeby trenowania lub wnioskowania modelu uczenia maszynowego.

tf.keras

#TensorFlow

Implementacja Keras zintegrowana z TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Skrót od Tensor Processing Unit.

Układ TPU

#TensorFlow
#GoogleCloud

Programowalny akcelerator algebry liniowej z pamięcią o wysokiej przepustowości na chipie, zoptymalizowany pod kątem zadań związanych z uczeniem maszynowym. Wiele układów TPU jest wdrażanych na urządzeniu TPU.

Urządzenie TPU

#TensorFlow
#GoogleCloud

Płytka drukowana z wieloma układami TPU, interfejsami sieciowymi o wysokiej przepustowości i sprzętem do chłodzenia systemu.

Węzeł TPU

#TensorFlow
#GoogleCloud

Zasób TPU w Google Cloud o określonym typie TPU. Węzeł TPU łączy się z siecią VPC z równorzędnej sieci VPC. Węzły TPU to zasób zdefiniowany w Cloud TPU API.

pod TPU

#TensorFlow
#GoogleCloud

Określona konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą za pomocą dedykowanej sieci o dużej szybkości. Pod TPU to największa konfiguracja urządzeń TPU dostępna w przypadku określonej wersji TPU.

Zasób TPU

#TensorFlow
#GoogleCloud

Jednostka TPU w Google Cloud, którą tworzysz, zarządzasz lub z której korzystasz. Na przykład węzły TPU i typy TPU to zasoby TPU.

Wycinek TPU

#TensorFlow
#GoogleCloud

Wycinek TPU to ułamek urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą za pomocą dedykowanej sieci o dużej szybkości.

Typ TPU

#TensorFlow
#GoogleCloud

Konfiguracja co najmniej 1 urządzenia TPU z konkretną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład v2-8 typ TPU to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048 ma 256 połączonych w sieć urządzeń TPU v3 i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w Cloud TPU API.

proces roboczy TPU

#TensorFlow
#GoogleCloud

Proces, który działa na maszynie hosta i wykonuje programy uczenia maszynowego na urządzeniach TPU.