Glossar für maschinelles Lernen: TensorFlow

Auf dieser Seite finden Sie Begriffe aus dem TensorFlow-Glossar. Hier finden Sie alle Begriffe aus dem Glossar.

B

Batch-Inferenz

#TensorFlow
#GoogleCloud

Der Prozess, bei dem Vorhersagen für mehrere unbeschriftete Beispiele abgeleitet werden, die in kleinere Teilmengen („Batches“) unterteilt sind.

Bei der Batch-Inferenz können die Parallelisierungsfunktionen von Beschleunigerchips genutzt werden. Das bedeutet, dass mehrere Beschleuniger gleichzeitig Vorhersagen für verschiedene Batches von unlabelten Beispielen ableiten können, wodurch die Anzahl der Inferenzen pro Sekunde drastisch erhöht wird.

Weitere Informationen finden Sie im Machine Learning Crash Course unter Produktions-ML-Systeme: Statische und dynamische Inferenz.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Ein spezieller Hardwarebeschleuniger, der Arbeitslasten für maschinelles Lernen in Google Cloud beschleunigt.

D

Dataset API (tf.data)

#TensorFlow

Eine übergeordnete TensorFlow API zum Lesen von Daten und zum Umwandeln in eine Form, die für einen Algorithmus für maschinelles Lernen erforderlich ist. Ein tf.data.Dataset-Objekt stellt eine Sequenz von Elementen dar, wobei jedes Element einen oder mehrere Tensoren enthält. Ein tf.data.Iterator-Objekt bietet Zugriff auf die Elemente einer Dataset.

Gerät

#TensorFlow
#GoogleCloud

Ein überladener Begriff mit den folgenden beiden möglichen Definitionen:

  1. Eine Kategorie von Hardware, auf der eine TensorFlow-Sitzung ausgeführt werden kann, einschließlich CPUs, GPUs und TPUs.
  2. Beim Training eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) ist dies der Teil des Systems, der tatsächlich Tensoren und Embeddings manipuliert. Das Gerät wird mit Beschleunigerchips betrieben. Der Host wird dagegen in der Regel auf einer CPU ausgeführt.

E

sofortige Ausführung

#TensorFlow

Eine TensorFlow-Programmierumgebung, in der Vorgänge sofort ausgeführt werden. Operationen, die in der Graphausführung aufgerufen werden, werden dagegen erst ausgeführt, wenn sie explizit ausgewertet werden. Die vorzeitige Ausführung ist eine imperative Schnittstelle, ähnlich wie der Code in den meisten Programmiersprachen. Programme mit vorzeitiger Ausführung lassen sich im Allgemeinen viel einfacher debuggen als Programme mit Graphenausführung.

Estimator

#TensorFlow

Eine eingestellte TensorFlow API. Verwenden Sie anstelle von Estimators tf.keras.

F

Feature Engineering

#fundamentals
#TensorFlow

Ein Prozess, der die folgenden Schritte umfasst:

  1. Sie ermitteln, welche Features beim Trainieren eines Modells nützlich sein könnten.
  2. Rohdaten aus dem Datensatz in effiziente Versionen dieser Funktionen umwandeln.

Sie könnten beispielsweise feststellen, dass temperature eine nützliche Funktion wäre. Anschließend können Sie mit Bucketing experimentieren, um zu optimieren, was das Modell aus verschiedenen temperature-Bereichen lernen kann.

Feature Engineering wird manchmal auch als Feature-Extraktion oder Feature-Erstellung bezeichnet.

Weitere Informationen finden Sie im Crashkurs zu maschinellem Lernen unter Numerische Daten: So nimmt ein Modell Daten mithilfe von Featurevektoren auf.

Featurespezifikation

#TensorFlow

Hier erfahren Sie, welche Informationen zum Extrahieren von Features-Daten aus dem Protokollpuffer tf.Example erforderlich sind. Da der Protokollpuffer „tf.Example“ nur ein Container für Daten ist, müssen Sie Folgendes angeben:

  • Die zu extrahierenden Daten (d. h. die Schlüssel für die Funktionen)
  • Der Datentyp (z. B. „float“ oder „int“)
  • Die Länge (fest oder variabel)

G

Graph

#TensorFlow

In TensorFlow eine Berechnungsspezifikation. Knoten im Graphen stellen Vorgänge dar. Kanten sind gerichtet und stellen die Weitergabe des Ergebnisses eines Vorgangs (ein Tensor) als Operand an einen anderen Vorgang dar. Verwenden Sie TensorBoard, um einen Graphen zu visualisieren.

Graph Execution

#TensorFlow

Eine TensorFlow-Programmierumgebung, in der das Programm zuerst einen Graphen erstellt und dann den gesamten oder einen Teil dieses Graphen ausführt. Die Graphausführung ist der Standardausführungsmodus in TensorFlow 1.x.

Im Gegensatz zur voreiligen Ausführung.

H

Host

#TensorFlow
#GoogleCloud

Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) ist dies der Teil des Systems, der Folgendes steuert:

  • Den Gesamtablauf des Codes.
  • Extrahieren und Transformieren der Eingabepipeline.

Der Host wird in der Regel auf einer CPU und nicht auf einem Beschleunigerchip ausgeführt. Das Gerät verarbeitet Tensoren auf den Beschleunigerchips.

L

Layers API (tf.layers)

#TensorFlow

Eine TensorFlow API zum Erstellen eines Deep-Learning-Netzwerks als Zusammensetzung von Schichten. Mit der Layers API können Sie verschiedene Arten von Ebenen erstellen, z. B.:

Die Layers API folgt den Konventionen der Keras Layers API. Abgesehen von einem anderen Präfix haben alle Funktionen in der Layers API dieselben Namen und Signaturen wie ihre Pendants in der Keras Layers API.

M

Mesh-Netzwerk

#TensorFlow
#GoogleCloud

Bei der parallelen Programmierung in der ML wird dieser Begriff verwendet, um TPU-Chips Daten und Modelle zuzuweisen und zu definieren, wie diese Werte geSharded oder repliziert werden.

„Mesh“ ist ein überlasteter Begriff, der Folgendes bedeuten kann:

  • Ein physisches Layout von TPU-Chips.
  • Ein abstraktes logisches Konstrukt zum Zuordnen der Daten und des Modells zu den TPU-Chips.

In beiden Fällen wird ein Mesh als Form angegeben.

Messwert

#TensorFlow

Eine Statistik, die Ihnen wichtig ist.

Ein Ziel ist ein Messwert, den ein System für maschinelles Lernen zu optimieren versucht.

N

Knoten (TensorFlow-Grafik)

#TensorFlow

Ein Vorgang in einem TensorFlow-Graphen.

O

Operation (op)

#TensorFlow

In TensorFlow: Alle Vorgänge, die einen Tensor erstellen, manipulieren oder löschen. Bei der Matrixmultiplikation werden beispielsweise zwei Tensoren als Eingabe verwendet und ein Tensor als Ausgabe generiert.

P

Parameterserver (PS)

#TensorFlow

Ein Job, der die Parameter eines Modells in einer verteilten Umgebung im Blick behält.

Q

Warteschlange

#TensorFlow

Ein TensorFlow-Vorgang, der eine Warteschlangendatenstruktur implementiert. Wird in der Regel in I/O verwendet.

R

Rang (Tensor)

#TensorFlow

Die Anzahl der Dimensionen in einem Tensor. Beispielsweise hat ein Skalar den Rang 0, ein Vektor den Rang 1 und eine Matrix den Rang 2.

Nicht zu verwechseln mit dem Rang (Ordnung).

Stammverzeichnis

#TensorFlow

Das Verzeichnis, das Sie zum Hosten von Unterverzeichnissen der TensorFlow-Prüfpunkt- und Ereignisdateien mehrerer Modelle angeben.

S

SavedModel

#TensorFlow

Das empfohlene Format zum Speichern und Wiederherstellen von TensorFlow-Modellen. SavedModel ist ein sprachneutrales, wiederherstellbares Serialisierungsformat, mit dem Systeme und Tools auf höherer Ebene TensorFlow-Modelle erstellen, verwenden und transformieren können.

Ausführliche Informationen finden Sie im Abschnitt zum Speichern und Wiederherstellen des TensorFlow-Programmierhandbuchs.

Kostengünstig

#TensorFlow

Ein TensorFlow-Objekt, das für das Speichern von Modellprüfpunkten verantwortlich ist.

Shard

#TensorFlow
#GoogleCloud

Eine logische Aufteilung des Trainingsdatensatzes oder des Modells. Normalerweise werden Shards durch einen Prozess erstellt, bei dem die Beispiele oder Parameter in (in der Regel) gleich große Blöcke unterteilt werden. Jeder Shard wird dann einem anderen Computer zugewiesen.

Das Sharding eines Modells wird als Modellparallelität bezeichnet. Das Sharding von Daten wird als Datenparallelität bezeichnet.

Zusammenfassung

#TensorFlow

In TensorFlow ein Wert oder eine Reihe von Werten, die in einem bestimmten Schritt berechnet werden. Sie werden in der Regel zum Überwachen von Modellmesswerten während des Trainings verwendet.

T

Tensor

#TensorFlow

Die primäre Datenstruktur in TensorFlow-Programmen. Tensoren sind n-dimensionale (wobei n sehr groß sein kann) Datenstrukturen, am häufigsten Skalare, Vektoren oder Matrizen. Die Elemente eines Tensors können Ganzzahlen, Gleitkommazahlen oder Stringwerte enthalten.

TensorBoard

#TensorFlow

Das Dashboard mit den Zusammenfassungen, die während der Ausführung eines oder mehrerer TensorFlow-Programme gespeichert wurden.

TensorFlow

#TensorFlow

Eine groß angelegte, verteilte Plattform für maschinelles Lernen. Der Begriff bezieht sich auch auf die Basis-API-Ebene im TensorFlow-Stack, die allgemeine Berechnungen in Dataflow-Grafiken unterstützt.

Obwohl TensorFlow hauptsächlich für maschinelles Lernen verwendet wird, können Sie es auch für andere Aufgaben verwenden, die numerische Berechnungen mithilfe von Dataflow-Grafiken erfordern.

TensorFlow Playground

#TensorFlow

Ein Programm, das visualisiert, wie sich verschiedene Hyperparameter auf das Modelltraining (vor allem auf das Training von neuronalen Netzwerken) auswirken. Unter http://playground.tensorflow.org können Sie mit TensorFlow Playground experimentieren.

TensorFlow bereitstellen

#TensorFlow

Eine Plattform zum Bereitstellen trainierter Modelle in der Produktion.

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Ein anwendungsspezifischer integrierter Schaltkreis (Application-Specific Integrated Circuit, ASIC), der die Leistung von Arbeitslasten für maschinelles Lernen optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.

Tensorrang

#TensorFlow

Weitere Informationen finden Sie unter Rang (Tensor).

Tensorform

#TensorFlow

Die Anzahl der Elemente, die ein Tensor in verschiedenen Dimensionen enthält. Ein [5, 10]-Tensor hat beispielsweise eine Form von 5 in einer Dimension und 10 in einer anderen.

Tensorgröße

#TensorFlow

Die Gesamtzahl der Skalare, die ein Tensor enthält. Ein [5, 10]-Tensor hat beispielsweise eine Größe von 50.

tf.Example

#TensorFlow

Ein standardmäßiger Protokoll-Buffer zum Beschreiben von Eingabedaten für das Training oder die Inferenz von Modellen für maschinelles Lernen.

tf.keras

#TensorFlow

Eine Implementierung von Keras, die in TensorFlow eingebunden ist.

TPU

#TensorFlow
#GoogleCloud

Abkürzung für Tensor Processing Unit.

TPU-Chip

#TensorFlow
#GoogleCloud

Ein programmierbarer Beschleuniger für lineare Algebra mit On-Chip-Speicher mit hoher Bandbreite, der für Arbeitslasten für maschinelles Lernen optimiert ist. Mehrere TPU-Chips werden auf einem TPU-Gerät bereitgestellt.

TPU-Gerät

#TensorFlow
#GoogleCloud

Eine Leiterplatte (Printed Circuit Board, PCB) mit mehreren TPU-Chips, Netzwerkschnittstellen mit hoher Bandbreite und Systemkühlungshardware.

TPU-Master

#TensorFlow
#GoogleCloud

Der zentrale Koordinierungsprozess, der auf einem Hostcomputer ausgeführt wird und Daten, Ergebnisse, Programme, Leistungs- und Systemstatusinformationen an die TPU-Worker sendet und empfängt. Der TPU-Master verwaltet auch die Einrichtung und das Herunterfahren von TPU-Geräten.

TPU-Knoten

#TensorFlow
#GoogleCloud

Eine TPU-Ressource in Google Cloud mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt über ein Peer-VPC-Netzwerk eine Verbindung zu Ihrem VPC-Netzwerk her. TPU-Knoten sind eine in der Cloud TPU API definierte Ressource.

TPU-Pod

#TensorFlow
#GoogleCloud

Eine bestimmte Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU-Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU-Pod ist die größte Konfiguration von TPU-Geräten, die für eine bestimmte TPU-Version verfügbar ist.

TPU-Ressource

#TensorFlow
#GoogleCloud

Eine TPU-Entität in Google Cloud, die Sie erstellen, verwalten oder nutzen. Beispiele für TPU-Ressourcen sind TPU-Knoten und TPU-Typen.

TPU-Slice

#TensorFlow
#GoogleCloud

Ein TPU-Slice ist ein Bruchteil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Speil sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.

TPU-Typ

#TensorFlow
#GoogleCloud

Eine Konfiguration von einem oder mehreren TPU-Geräten mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten in Google Cloud erstellen. Ein v2-8-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Ein v3-2048-TPU-Typ hat 256 vernetzte TPU v3-Geräte und insgesamt 2.048 Kerne. TPU-Typen sind Ressourcen, die in der Cloud TPU API definiert sind.

TPU-Worker

#TensorFlow
#GoogleCloud

Ein Prozess, der auf einem Hostcomputer ausgeführt wird und Programme für maschinelles Lernen auf TPU-Geräten ausführt.