Słowniczek systemów uczących się: TensorFlow

Ta strona zawiera hasła z glosariusza TensorFlow. Aby poznać wszystkie terminy z glosariusza, kliknij tutaj.

B

zbiorcze wnioskowanie

#TensorFlow
#GoogleCloud

Proces wyprowadzania prognoz na podstawie wielu nieoznaczonych przykładów podzielonych na mniejsze podzbiory („partie”).

W przypadku zbiorczego wnioskowania można korzystać z funkcji równoległości układów przyspieszających. Oznacza to, że wiele akceleratorów może jednocześnie wyprowadzać prognozy na różnych partiach nieoznaczonych przykładów, znacznie zwiększając liczbę wnioskowań na sekundę.

Więcej informacji znajdziesz w sekcji Produkcyjne systemy ML: statystyczne a dynamiczne wnioskowanie z Kursu intensywnego z uczenia maszynowego.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Specjalny akcelerator sprzętowy zaprojektowany z myślą o przyspieszaniu zadań systemów uczących się w Google Cloud.

D

Dataset API (tf.data)

#TensorFlow

Ogólny interfejs API TensorFlow do odczytywania danych i przekształcania ich w postać wymaganą przez algorytm uczenia maszynowego. Obiekt tf.data.Dataset reprezentuje sekwencję elementów, w których każdy element zawiera co najmniej 1 tensor. Obiekt tf.data.Iterator zapewnia dostęp do elementów Dataset.

urządzenie

#TensorFlow
#GoogleCloud

Przeciążony termin z 2 możliwymi definicjami:

  1. Kategoria sprzętu, na którym można uruchamiać sesję TensorFlow, w tym procesory CPU, GPU i TPU.
  2. Podczas trenowania modelu ML na urządzeniach przyspieszających (kartach graficznych lub jednostkach TPU) część systemu, która faktycznie manipuluje tensoramiwkładami. Urządzenie działa na chipach akceleratora. Natomiast host zwykle działa na procesorze.

E

wykonanie natychmiastowe

#TensorFlow

Środowisko programowania TensorFlow, w którym operacje są wykonywane natychmiast. Z drugiej strony operacje wywoływane w wykonaniu grafu nie są wykonywane, dopóki nie zostaną wyraźnie ocenione. Szybkie wykonanie to wyrażenie imperatywne, czyli takie, które działa podobnie do kodu w większości języków programowania. Programy o bezpośrednim wykonywaniu są zazwyczaj znacznie łatwiejsze do debugowania niż programy o wykonywaniu w ramach grafu.

Estimator

#TensorFlow

Wycofany interfejs TensorFlow API. Zamiast Estimators użyj funkcji tf.keras.

F

ekstrakcja wyróżników

#fundamentals
#TensorFlow

Proces obejmujący te kroki:

  1. Określanie, które cechy mogą być przydatne podczas trenowania modelu.
  2. konwertowanie nieprzetworzonych danych ze zbioru danych na wydajne wersje tych funkcji;

Możesz na przykład uznać, że temperature może być przydatną funkcją. Następnie możesz eksperymentować z bucketingiem, aby zoptymalizować to, czego model może się nauczyć z różnych zakresów temperature.

Inżynieria cech jest czasami nazywana wyodrębnianiem cech lub tworzeniem cech.

Więcej informacji znajdziesz w sekcji Dane liczbowe: jak model przetwarza dane za pomocą wektorów cech z Kursu intensywnego z uczenia maszynowego.

specyfikacja funkcji

#TensorFlow

Opisuje informacje wymagane do wyodrębnienia danych funkcji z bufora protokołu tf.Example. Ponieważ bufor protokołu tf.Example to tylko kontener na dane, musisz określić:

  • Dane do wyodrębnienia (czyli klucze funkcji).
  • typ danych (np. liczba zmiennoprzecinkowa lub całkowita);
  • długość (stała lub zmienna);

G

wykres

#TensorFlow

W TensorFlow jest to specyfikacja obliczeń. Węzły na wykresie reprezentują operacje. Krawędzie są kierunkowe i reprezentują przekazywanie wyniku operacji (Tensor) jako operanda do innej operacji. Użyj TensorBoard, aby zwizualizować wykres.

wykonanie grafu

#TensorFlow

Środowisko programowania TensorFlow, w którym program najpierw tworzy graf, a następnie wykonuje go w całości lub częściowo. Wykonywanie wykresu jest domyślnym trybem wykonywania w TensorFlow 1.x.

W przeciwieństwie do opóźnionego wykonania.

H

host

#TensorFlow
#GoogleCloud

Podczas trenowania modelu ML na urządzeniach przyspieszających (kartach graficznych lub urządzeniach TPU) część systemu, która kontroluje:

  • ogólny przepływ kodu;
  • wyodrębnianie i przekształcanie potoku danych wejściowych;

Host zwykle działa na procesorze, a nie na chipie akceleratora. Urządzenie manipuluje tensorami na chipach akceleratora.

L

Layers API (tf.layers)

#TensorFlow

Interfejs API TensorFlow do tworzenia głębokiej sieci neuronowej jako kompozycji warstw. Interfejs Layers API umożliwia tworzenie różnych warstw, takich jak:

Interfejs Layers API stosuje konwencje interfejsu Keras. Oznacza to, że poza innym prefiksem wszystkie funkcje w interfejsie Layers API mają te same nazwy i signatury co ich odpowiedniki w interfejsie Keras layers API.

M

sieć typu mesh

#TensorFlow
#GoogleCloud

W programowaniu równoległym z wykorzystaniem uczenia maszynowego termin związany z przypisywaniem danych i modelu do chipów TPU oraz definiowaniem sposobu ich dzielenia na fragmenty lub replikowania.

Sieć to pojęcie o wielu znaczeniach, które może oznaczać:

  • Fizyczny układ układów TPU.
  • Abstrakcyjny konstrukt logiczny służący do mapowania danych i modelu na procesory TPU.

W obu przypadkach siatka jest określana jako kształt.

wskaźnik

#TensorFlow

Statystyka, która Cię interesuje.

Cel to dane, które system uczących się próbuje zoptymalizować.

N

węzeł (graf TensorFlow)

#TensorFlow

Operacja w grafie TensorFlow.

O

operacja (op)

#TensorFlow

W TensorFlow: każda procedura, która tworzy, manipuluje lub niszczy Tensor. Na przykład mnożenie macierzy to operacja, która przyjmuje 2 tensory jako dane wejściowe i generuje 1 tensor jako dane wyjściowe.

P

Serwer parametrów (PS)

#TensorFlow

zadanie, które śledzi parametry modelu w rozproszonej konfiguracji.

P

kolejka

#TensorFlow

Operacja TensorFlow Operation, która implementuje strukturę danych kolejki. Zwykle używane w przypadku I/O.

R

rank (Tensor)

#TensorFlow

Liczba wymiarów w Tensor. Na przykład: skalarze mają rangę 0, wektory – rangę 1, a macierze – rangę 2.

Nie należy mylić z pozycją (kolejnością).

katalog główny

#TensorFlow

Katalog, który wskazujesz jako miejsce przechowywania podkatalogów plików checkpoint i zdarzeń TensorFlow dla wielu modeli.

S

SavedModel

#TensorFlow

zalecany format zapisywania i przywracania modeli TensorFlow; SavedModel to niezależny od języka format serializacji, który umożliwia systemom i narzędziom wyższego poziomu tworzenie, wykorzystywanie i przekształcanie modeli TensorFlow.

Szczegółowe informacje znajdziesz w sekcji dotyczącej zapisywania i przywracania w przewodniku dla programistów TensorFlow.

Ekonomiczna

#TensorFlow

Obiekt TensorFlow odpowiedzialny za zapisywanie punktów kontrolnych modelu.

fragment

#TensorFlow
#GoogleCloud

Logiczne podziały zbioru danych treningowych lub modelu. Zwykle jakiś proces tworzy fragmenty, dzieląc przykłady lub parametry na kawałki o zwykle jednakowej wielkości. Każdy fragment jest następnie przypisywany do innej maszyny.

Dzielenie modelu nazywa się paralelizmem modelu, a dzielenie danych – paralelizmem danych.

podsumowanie

#TensorFlow

W TensorFlow wartość lub zbiór wartości obliczanych w określonym kroku, zwykle używane do śledzenia danych modelu podczas trenowania.

T

Tensor

#TensorFlow

Podstawowa struktura danych w programach TensorFlow. Tensory to struktury danych o wymiarach N (gdzie N może być bardzo dużych), najczęściej skalary, wektory lub macierze. Elementy tensora mogą zawierać wartości całkowite, zmiennoprzecinkowe lub ciągi znaków.

TensorBoard

#TensorFlow

Panel, który wyświetla podsumowania zapisane podczas wykonywania co najmniej jednego programu TensorFlow.

TensorFlow

#TensorFlow

Rozproszona platforma systemów uczących się na dużą skalę. Termin ten odnosi się też do podstawowej warstwy interfejsu API w zestawie TensorFlow, która obsługuje ogólne obliczenia na wykresach przepływu danych.

Chociaż TensorFlow jest używany głównie do uczenia maszynowego, możesz go też używać do zadań innych niż uczenie maszynowe, które wymagają obliczeń numerycznych przy użyciu diagramów przepływu danych.

TensorFlow Playground

#TensorFlow

Program, który wizualizuje wpływ różnych parametrów hiperobliczeń na trenowanie modelu (głównie sieci neuronowej). Wejdź na stronę http://playground.tensorflow.org , aby eksperymentować z TensorFlow Playground.

TensorFlow Serving

#TensorFlow

Platforma do wdrażania wytrenowanych modeli w środowisku produkcyjnym.

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Specjalistyczny układ scalony (ASIC) optymalizujący wydajność zadań systemów uczących się. Te układy ASIC są wdrażane jako wiele układów TPU na urządzeniu TPU.

Poziom tensora

#TensorFlow

Zobacz rank (Tensor).

Kształt tensora

#TensorFlow

Liczba elementów, które zawiera Tensor w różnych wymiarach. Na przykład tensor [5, 10] ma kształt 5 w jednym wymiarze i 10 w drugim.

Rozmiar tensora

#TensorFlow

Łączna liczba elementów skalarnych, które zawiera Tensor. Na przykład:[5, 10] tensor ma rozmiar 50.

tf.Example

#TensorFlow

standardowy bufor protokołu do opisywania danych wejściowych na potrzeby trenowania modelu systemów uczących się lub wnioskowania.

tf.keras

#TensorFlow

Implementacja Keras zintegrowana z TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Skrót od Tensor Processing Unit.

Układ scalony TPU

#TensorFlow
#GoogleCloud

Programowalny akcelerator do obliczeń algebraicznych liniowych z pamięcią o wysokiej przepustowości na chipie, zoptymalizowany pod kątem zadań związanych z systemami uczącymi się. Na urządzeniu TPU jest instalowanych wiele układów TPU.

Urządzenie TPU

#TensorFlow
#GoogleCloud

Płytka drukowana (PCB) z wieloma układami TPU, interfejsami sieci o dużej przepustowości i sprzętem do chłodzenia systemu.

Usługa TPU master

#TensorFlow
#GoogleCloud

Centralny proces koordynacji działający na komputerze hosta, który wysyła i odbiera dane, wyniki, programy, informacje o wydajności i stanie systemu do procesów TPU. Główny TPU zarządza też konfiguracją i wyłączaniem urządzeń TPU.

Węzeł TPU

#TensorFlow
#GoogleCloud

zasób TPU w Google Cloud o określonym typie TPU. TPU łączy się z siecią VPC z siecią VPC peer. Węzły TPU to zasoby zdefiniowane w interfejsie Cloud TPU API.

pod TPU

#TensorFlow
#GoogleCloud

Określona konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą za pomocą dedykowanej sieci o wysokiej przepustowości. Pod TPU to największa konfiguracja urządzeń TPU dostępna w przypadku konkretnej wersji TPU.

Zasób TPU

#TensorFlow
#GoogleCloud

Element TPU w Google Cloud, który tworzysz, nim zarządzasz lub z niego korzystasz. Na przykład węzły TPU i typy TPU to zasoby TPU.

Wycinek TPU

#TensorFlow
#GoogleCloud

Wycinek TPU to ułamkowa część urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą za pomocą dedykowanej sieci o wysokiej przepustowości.

Typ TPU

#TensorFlow
#GoogleCloud

Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład v2-8 Typ TPU to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ v3-2048 TPU ma 256 urządzeń TPU v3 połączonych w sieć i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w Cloud TPU API.

Zasób roboczy TPU

#TensorFlow
#GoogleCloud

Proces, który działa na komputerze hosta i wykonuje programy systemów uczących się na urządzeniach TPU.