Słowniczek systemów uczących się: TensorFlow

Ta strona zawiera terminy glosariusza TensorFlow. Aby uzyskać dostęp do wszystkich glosariuszy, kliknij tutaj.

B

wnioskowanie wsadowe

#TensorFlow
#GoogleCloud

Proces uwzględniania prognoz na wielu przykładach bez etykiety podzielonych na mniejsze podzbiory („grupy”).

Wnioskowanie zbiorcze może korzystać z funkcji równoległego przetwarzania elementów akceleratora. Oznacza to, że wiele akceleratorów jednocześnie może wywnioskować prognozy na różnych partiach nieoznaczonych etykietami, co znacznie zwiększy liczbę zależności na sekundę.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Specjalny akcelerator sprzętowy zaprojektowany do przyspieszenia zadań systemów uczących się w Google Cloud Platform.

D

Interfejs Dataset API (tf.data)

#TensorFlow

Ogólny interfejs API TensorFlow do odczytywania danych i przekształcania ich w formę wymaganą przez algorytm systemów uczących się. Obiekt tf.data.Dataset reprezentuje sekwencję elementów, w której każdy element zawiera co najmniej 1 tensora. Obiekt tf.data.Iterator zapewnia dostęp do elementów tagu Dataset.

Szczegółowe informacje o interfejsie Dataset API znajdziesz w artykule o tf.data: kompilowanie potoków wejściowych TensorFlow w przewodniku dla programistów TensorFlow.

urządzenie

#TensorFlow
#GoogleCloud

Przeciążone hasło z tymi 2 możliwymi definicjami:

  1. Kategoria sprzętu, która może uruchamiać sesję TensorFlow, w tym procesory, GPU i TPU.
  2. Podczas trenowania modelu ML w układach akceleratora (GPU lub TPU) – części systemu, która faktycznie manipuluje tensorami i osadzonymi. Urządzenie działa na układach akceleratora. Host zazwyczaj działa na procesorze.

1

szybkie wykonanie

#TensorFlow

Środowisko programistyczne TensorFlow, w którym operacje są uruchamiane natychmiast. Operacje wykonywane w wykonywaniu wykresu nie są uruchamiane, dopóki nie zostaną wyraźnie ocenione. Natychmiastowe wykonanie to interfejs w większości języków programowania. Łatwiejsze debugowanie jest łatwiejsze w obsłudze, niż programy do wykonywania wykresów.

Oszacowanie

#TensorFlow

Wycofany interfejs TensorFlow API. Używaj szacunków tf.keras.

Pt

ekstrakcja wyróżników

#fundamentals
#TensorFlow

Proces, który obejmuje następujące kroki:

  1. Określenie, które funkcje mogą być przydatne przy trenowaniu modelu.
  2. Konwersja nieprzetworzonych danych ze zbioru danych do wydajnych wersji tych funkcji.

Może się na przykład okazać, że temperature jest przydatna. Możesz też poeksperymentować z zasobnikiem, aby zoptymalizować informacje, które model może uzyskać z różnych zakresów temperature.

Inżynieria cech to czasem wyodrębnianie funkcji.

specyfikacja funkcji

#TensorFlow

Opisuje informacje wymagane do wyodrębnienia danych funkcji z bufora protokołu tf.Example. Ponieważ bufor protokołu tf.Example jest tylko kontenerem na dane, musisz określić:

  • dane do wyodrębnienia (tj. klucze funkcji);
  • typu danych (np. liczba zmiennoprzecinkowa lub int),
  • długość (stała lub zmienna).

G

wykres

#TensorFlow

TensorFlow – specyfikacja obliczeniowa. Węzły na wykresie reprezentują operacje. Krawędzie są kierowane i przedstawiają przekazanie wyniku operacji (Tensor) jako operację innej operacji. Użyj funkcji TensorBoard, aby zwizualizować wykres.

wykonanie wykresu

#TensorFlow

Środowisko programistyczne TensorFlow, w którym program najpierw tworzy wykres, a potem wykonuje całość lub część tego wykresu. Wykonanie na wykresie to domyślny tryb wykonywania w TensorFlow 1.x.

w przeciwieństwie do szybkiego wykonywania.

H

Gospodarz

#TensorFlow
#GoogleCloud

Podczas trenowania modelu ML w elementach akceleratora (GPU lub TPU) jest częścią systemu, która kontroluje oba te elementy:

  • Ogólny przepływ kodu.
  • Wyodrębnianie i przekształcanie potoku wejściowego.

Host zwykle korzysta z procesora, a nie z akceleratora. Urządzenie manipuluje tensorami w elementach akceleratora.

L

Interfejs API warstw (tf.layers)

#TensorFlow

Interfejs TensorFlow API do tworzenia głębokiej sieci neuronowej jako kompilacja warstw. Interfejs Warstwy API umożliwia tworzenie różnych typów warstw, takich jak:

Interfejs Warstwy API jest zgodny z konwencjami interfejsu API Keras. Oznacza to, że (oprócz innego prefiksu) wszystkie funkcje interfejsu API warstw mają te same nazwy i podpisy co ich odpowiedniki w interfejsie Keras API.

P

sieć typu mesh

#TensorFlow
#GoogleCloud

W programowaniu równorzędnym ML termin powiązany z przypisywaniem danych i modeli do elementów TPU oraz definiowanie fragmentów lub powielania tych wartości.

Siatka to przeciążony termin, który może oznaczać:

  • Układ fizyczny elementów układu TPU.
  • Abstrakcyjny logiczny schemat mapowania danych i modelu na układy TPU.

W obu przypadkach siatka jest określana jako kształt.

wskaźnik

#TensorFlow

Najważniejsze dane, które Cię interesują.

Celowy to wskaźnik, który system uczący się próbuje optymalizować.

N

węzeł (wykres TensorFlow)

#TensorFlow

Operacja na wykresie TensorFlow.

O

operacja (operacja)

#TensorFlow

W TensorFlow każda procedura tworząca, manipulująca lub niszcząca Tensor. Na przykład mnożenie macierzy to operacja, która pobiera 2 Tensor jako dane wejściowe i generuje 1 Tensor jako dane wyjściowe.

P

Serwer parametrów (PS)

#TensorFlow

Zadanie, które śledzi parametry modelu w rozproszonym ustawieniu.

P

kolejka

#TensorFlow

Operację TensorFlow, która implementuje strukturę danych kolejki. Zwykle używane na konferencji I/O.

R

pozycja (Tensor)

#TensorFlow

Liczba wymiarów w narzędziu Tensor. Na przykład skalarna ma wartość 0, wektor – 1, a matryca 2.

Nie należy ich mylić z rankingiem (zwykłym).

katalog główny

#TensorFlow

Wskazany przez Ciebie katalog do hostowania podkatalogów czeku TensorFlow i plików zdarzeń wielu modeli.

S

SavedModel

#TensorFlow

Zalecany format do zapisywania i przywracania modeli TensorFlow. SavedModel to format serializacji niewymagający języków, który można odzyskać, aby umożliwiać tworzenie, wykorzystywanie i przekształcanie modeli TensorFlow, które należą do wyższego poziomu.

Szczegółowe informacje znajdziesz w rozdziale Zapisywanie i przywracanie w podręczniku programisty TensorFlow.

Ekonomiczna

#TensorFlow

Obiekt TensorFlow odpowiedzialny za zapisywanie punktów kontrolnych modelu.

fragment

#TensorFlow
#GoogleCloud

Podział logiczny zestawu treningowego lub modelu. Zazwyczaj niektóre procesy umożliwiają tworzenie fragmentów przez dzielenie przykładów lub parametrów na (zwykle) fragmenty o równym rozmiarze. Każdy fragment jest następnie przypisywany do innej maszyny.

Fragmentacja modelu jest nazywana równoległością modelu, a fragmenty danych to równoległość danych.

podsumowanie

#TensorFlow

W TensorFlow wartość lub zestaw wartości obliczanych na określonym kroku zwykle używany do śledzenia wskaźników modelu podczas trenowania.

T

Tensor,

#TensorFlow

Główna struktura danych w programach TensorFlow. Tensory to N-wymiarowe struktury danych (gdzie N może być bardzo duże) – najczęściej skalary, wektory i matryce. Elementy tensora mogą zawierać liczby całkowite, zmiennoprzecinkowe lub ciągi tekstowe.

TensorBoard

#TensorFlow

Panel wyświetlający informacje zapisane podczas wykonywania co najmniej jednego programu TensorFlow.

TensorFlow

#TensorFlow

Duża, rozproszona platforma systemów uczących się. Ten termin odnosi się również do bazowej warstwy interfejsu API w stosie TensorFlow, który obsługuje ogólne obliczenia na wykresach przepływu danych.

Chociaż narzędzie TensorFlow jest używane głównie przez systemy uczące się, możesz też używać TensorFlow do zadań nieobsługujących systemów uczących się, które wymagają obliczeń liczbowych za pomocą wykresów przepływu danych.

Plac zabaw TensorFlow

#TensorFlow

Program do wizualizacji wpływu różnych hiperparametrów na trenowanie modelu (głównie sieci neuronowej). Otwórz stronę http://playground.tensorflow.org, aby poeksperymentować z TensorFlow Playground.

Obsługa TensorFlow

#TensorFlow

Platforma do wdrażania wytrenowanych modeli w środowisku produkcyjnym.

Jednostka Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Układ specyficzny dla aplikacji (ASIC), który optymalizuje wydajność zadań systemów uczących się. Te interfejsy ASIC są wdrażane jako wiele elementów TPU na urządzeniu TPU.

Ranking Tensor

#TensorFlow

Zobacz ranking (tensor).

Kształt tensora

#TensorFlow

Liczba elementów w Tensor o różnych wymiarach. Na przykład [5, 10] tensor ma kształt 5 w jednym wymiarze i 10 w innym.

Rozmiar tensora

#TensorFlow

Łączna liczba skalarów w Tensor. Na przykład [5, 10] Tensor ma rozmiar 50.

Przykład

#TensorFlow

Standardowy bufor protokołu opisujący dane wejściowe do trenowania lub wnioskowania modelu systemów uczących się.

tf.keras,

#TensorFlow

Implementacja Keras zintegrowanych z TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Skrót od Tensor Processing Unit.

Element TPU

#TensorFlow
#GoogleCloud

Programowalny akcelerator algebry linearnej z wbudowaną pamięcią o dużej przepustowości, która jest zoptymalizowana pod kątem zadań systemów uczących się. Na urządzeniu TPU wdrożonych jest wiele elementów TPU.

Urządzenie TPU

#TensorFlow
#GoogleCloud

Płytka drukowana (PCB) z wieloma układami TPU, interfejsami sieciowymi o dużej przepustowości i sprzętem do chłodzenia systemu.

Główna jednostka TPU

#TensorFlow
#GoogleCloud

Centralny proces koordynacji uruchomiony na hoście, który wysyła i odbiera dane, wyniki, programy, wydajność i informacje o stanie systemu instancjach TPU. Zarządzamy też konfiguracją i wyłączeniem urządzeń TPU.

Węzeł TPU

#TensorFlow
#GoogleCloud

Zasób TPU w Google Cloud Platform z określonym typem TPU. Węzeł TPU łączy się z siecią VPC z równorzędnej sieci VPC. Węzły TPU to zasób zdefiniowane w interfejsie Cloud TPU API.

pod TPU

#TensorFlow
#GoogleCloud

Konkretna konfiguracja urządzeń TPU w Centrum danych Google. Wszystkie urządzenia w podie TPU są połączone ze sobą przez dedykowaną sieć o dużej szybkości. Pod TPU to największa konfiguracja urządzeń TPU dostępnych w przypadku konkretnej wersji TPU.

Zasób TPU

#TensorFlow
#GoogleCloud

Encja TPU w Google Cloud Platform, którą tworzysz, którymi zarządzasz lub z której korzystasz. Na przykład Węzły TPU i typy TPU są zasobami TPU.

Wycinek TPU

#TensorFlow
#GoogleCloud

Wycinek TPU to ułamek części urządzeń TPU w podie TPU. Wszystkie urządzenia w wycinku TPU są ze sobą połączone przez specjalną sieć o dużej szybkości.

Typ TPU

#TensorFlow
#GoogleCloud

Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętu TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud Platform. Na przykład typ TPU v2-8 to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048 ma 256 urządzeń sieciowych w wersji 3 i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w interfejsie Cloud TPU API.

Instancja robocza TPU

#TensorFlow
#GoogleCloud

Proces, który działa na komputerze hosta i wykonuje programy systemów uczących się na urządzeniach TPU.