Auf dieser Seite finden Sie Glossarbegriffe für TensorFlow. Hier finden Sie alle Glossarbegriffe.
C
Cloud TPU
Ein spezieller Hardwarebeschleuniger, der entwickelt wurde, um Arbeitslasten für maschinelles Lernen in Google Cloud zu beschleunigen.
D
Dataset API (tf.data)
Eine übergeordnete TensorFlow-API zum Lesen von Daten und zum Transformieren von Daten in ein Format, das für einen Algorithmus für maschinelles Lernen erforderlich ist.
Ein tf.data.Dataset
-Objekt stellt eine Sequenz von Elementen dar, in der jedes Element einen oder mehrere Tensoren enthält. Ein tf.data.Iterator
-Objekt bietet Zugriff auf die Elemente eines Dataset
.
Gerät
Ein überladener Begriff mit den folgenden zwei möglichen Definitionen:
- Eine Kategorie von Hardware, auf der eine TensorFlow-Sitzung ausgeführt werden kann, einschließlich CPUs, GPUs und TPUs.
- Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) ist dies der Teil des Systems, der Tensoren und Einbettungen verarbeitet. Das Gerät wird von Beschleunigerchips angetrieben. Im Gegensatz dazu wird der Host in der Regel auf einer CPU ausgeführt.
E
sofortige Ausführung
Eine TensorFlow-Programmierumgebung, in der Vorgänge sofort ausgeführt werden. Im Gegensatz dazu werden Vorgänge, die im Graph-Ausführungsmodus aufgerufen werden, erst ausgeführt, wenn sie explizit ausgewertet werden. Die sofortige Ausführung ist eine imperative Schnittstelle, ähnlich wie der Code in den meisten Programmiersprachen. Programme mit Eager Execution lassen sich in der Regel viel einfacher debuggen als Programme mit Graph Execution.
Estimator
Eine eingestellte TensorFlow API. Verwenden Sie stattdessen tf.keras.
F
Feature Engineering
Ein Prozess, der die folgenden Schritte umfasst:
- Ermitteln, welche Features für das Training eines Modells nützlich sein könnten.
- Rohdaten aus dem Dataset in effiziente Versionen dieser Features umwandeln.
Sie stellen beispielsweise fest, dass temperature
eine nützliche Funktion sein könnte. Anschließend können Sie mit Klassierung experimentieren, um zu optimieren, was das Modell aus verschiedenen temperature
-Bereichen lernen kann.
Feature Engineering wird manchmal auch als Feature-Extraktion oder Featurisierung bezeichnet.
Weitere Informationen finden Sie im Machine Learning Crash Course unter Numerische Daten: Wie ein Modell Daten mithilfe von Feature-Vektoren aufnimmt.
Featurespezifikation
Beschreibt die Informationen, die zum Extrahieren von Feature-Daten aus dem tf.Example-Protokollpuffer erforderlich sind. Da der tf.Example-Protokollpuffer nur ein Container für Daten ist, müssen Sie Folgendes angeben:
- Die zu extrahierenden Daten (d. h. die Schlüssel für die Funktionen)
- Der Datentyp (z. B. „float“ oder „int“)
- Die Länge (fest oder variabel)
G
Graph
In TensorFlow eine Berechnungsspezifikation. Knoten im Diagramm stellen Vorgänge dar. Kanten sind gerichtet und stellen das Übergeben des Ergebnisses eines Vorgangs (eines Tensor) als Operand an einen anderen Vorgang dar. Verwenden Sie TensorBoard, um ein Diagramm zu visualisieren.
Graph Execution
Eine TensorFlow-Programmierumgebung, in der das Programm zuerst einen Graphen erstellt und dann den gesamten oder einen Teil dieses Graphen ausführt. Die Grafikausführung ist der Standardausführungsmodus in TensorFlow 1.x.
Kontrast zur sofortigen Ausführung.
H
Host
Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) ist der Teil des Systems, der Folgendes steuert:
- Der allgemeine Ablauf des Codes.
- Die Extraktion und Transformation der Eingabepipeline.
Der Host wird in der Regel auf einer CPU und nicht auf einem Beschleunigerchip ausgeführt. Das Gerät verarbeitet Tensoren auf den Beschleunigerchips.
L
Layers API (tf.layers)
Eine TensorFlow-API zum Erstellen eines tiefen neuronalen Netzwerks als Zusammensetzung von Layern. Mit der Layers API können Sie verschiedene Arten von Layern erstellen, z. B.:
tf.layers.Dense
für eine vollständig verbundene Ebene.tf.layers.Conv2D
für eine Faltungsebene.
Die Layers API folgt den API-Konventionen für Keras-Ebenen. Abgesehen von einem anderen Präfix haben alle Funktionen in der Layers API dieselben Namen und Signaturen wie ihre Pendants in der Keras Layers API.
M
Mesh-Netzwerk
In der parallelen Programmierung für maschinelles Lernen ein Begriff, der sich auf das Zuweisen der Daten und des Modells zu TPU-Chips und das Definieren bezieht, wie diese Werte aufgeteilt oder repliziert werden.
„Mesh“ ist ein überladener Begriff, der Folgendes bedeuten kann:
- Ein physisches Layout von TPU-Chips.
- Ein abstraktes logisches Konstrukt zum Zuordnen der Daten und des Modells zu den TPU-Chips.
In beiden Fällen wird ein Mesh als Form angegeben.
Messwert
Eine Statistik, die Ihnen wichtig ist.
Ein Ziel ist ein Messwert, den ein System für maschinelles Lernen zu optimieren versucht.
N
Knoten (TensorFlow-Diagramm)
Ein Vorgang in einem TensorFlow-Diagramm.
O
Vorgang (op)
In TensorFlow ist das jede Prozedur, die einen Tensor erstellt, manipuliert oder löscht. Beispielsweise ist die Matrixmultiplikation ein Vorgang, der zwei Tensoren als Eingabe akzeptiert und einen Tensor als Ausgabe erzeugt.
P
Parameterserver (PS)
Ein Job, der die Parameter eines Modells in einer verteilten Umgebung verfolgt.
Q
Warteschlange
Eine TensorFlow-Operation, die eine Warteschlangendatenstruktur implementiert. Wird normalerweise bei der Ein-/Ausgabe verwendet.
R
rank (Tensor)
Die Anzahl der Dimensionen in einem Tensor. Ein Skalar hat beispielsweise den Rang 0, ein Vektor den Rang 1 und eine Matrix den Rang 2.
Nicht zu verwechseln mit Rang (Ordinalität).
Stammverzeichnis
Das Verzeichnis, das Sie zum Hosten von Unterverzeichnissen des TensorFlow-Prüfpunkts und der Ereignisdateien mehrerer Modelle angeben.
S
SavedModel
Das empfohlene Format zum Speichern und Wiederherstellen von TensorFlow-Modellen. SavedModel ist ein sprachneutrales, wiederherstellbares Serialisierungsformat, mit dem Systeme und Tools auf höherer Ebene TensorFlow-Modelle erstellen, nutzen und transformieren können.
Ausführliche Informationen finden Sie im Abschnitt zum Speichern und Wiederherstellen im TensorFlow Programmer's Guide.
Kostengünstig
Ein TensorFlow-Objekt, das für das Speichern von Modellprüfpunkten zuständig ist.
Shard
Eine logische Aufteilung des Trainingssets oder des Modells. Normalerweise werden Shards durch Aufteilen der Beispiele oder Parameter in (in der Regel) gleich große Teile erstellt. Jeder Shard wird dann einer anderen Maschine zugewiesen.
Das Sharding eines Modells wird als Modellparallelität bezeichnet, das Sharding von Daten als Datenparallelität.
Zusammenfassung
In TensorFlow ein Wert oder eine Gruppe von Werten, die in einem bestimmten Schritt berechnet werden und in der Regel zum Erfassen von Modellmesswerten während des Trainings verwendet werden.
T
Tensor
Die primäre Datenstruktur in TensorFlow-Programmen. Tensoren sind N-dimensionale (wobei N sehr groß sein kann) Datenstrukturen, meist Skalare, Vektoren oder Matrizen. Die Elemente eines Tensors können Ganzzahl-, Gleitkomma- oder Stringwerte enthalten.
TensorBoard
Das Dashboard, auf dem die Zusammenfassungen angezeigt werden, die während der Ausführung eines oder mehrerer TensorFlow-Programme gespeichert wurden.
TensorFlow
Eine umfangreiche, verteilte Plattform für maschinelles Lernen. Der Begriff bezieht sich auch auf die Basis-API-Ebene im TensorFlow-Stack, die allgemeine Berechnungen in Dataflow-Diagrammen unterstützt.
TensorFlow wird zwar hauptsächlich für maschinelles Lernen verwendet, Sie können es aber auch für Nicht-ML-Aufgaben einsetzen, die numerische Berechnungen mit Dataflow-Diagrammen erfordern.
TensorFlow Playground
Ein Programm, das veranschaulicht, wie sich verschiedene Hyperparameter auf das Training von Modellen (hauptsächlich neuronalen Netzen) auswirken. Unter http://playground.tensorflow.org können Sie TensorFlow Playground ausprobieren.
TensorFlow bereitstellen
Eine Plattform zum Bereitstellen trainierter Modelle in der Produktion.
Tensor Processing Unit (TPU)
Ein anwendungsspezifischer integrierter Schaltkreis (Application-Specific Integrated Circuit, ASIC), der die Leistung von Arbeitslasten für maschinelles Lernen optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.
Tensor-Rang
Siehe rank (Tensor).
Tensorform
Die Anzahl der Elemente, die ein Tensor in verschiedenen Dimensionen enthält.
Ein [5, 10]
-Tensor hat beispielsweise in einer Dimension die Form 5 und in einer anderen die Form 10.
Tensorgröße
Die Gesamtzahl der Skalare, die ein Tensor enthält. Ein [5, 10]
-Tensor hat beispielsweise eine Größe von 50.
tf.Example
Ein Standard- Protocol Buffer zur Beschreibung von Eingabedaten für das Training oder die Inferenz von Modellen für maschinelles Lernen.
tf.keras
Eine Implementierung von Keras, die in TensorFlow integriert ist.
TPU
Abkürzung für Tensor Processing Unit.
TPU-Chip
Ein programmierbarer Linearalgebra-Beschleuniger mit On-Chip-Arbeitsspeicher mit hoher Bandbreite, der für Arbeitslasten für maschinelles Lernen optimiert ist. Auf einem TPU-Gerät werden mehrere TPU-Chips bereitgestellt.
TPU-Gerät
Eine Leiterplatte mit mehreren TPU-Chips, Netzwerk-Schnittstellen mit hoher Bandbreite und Hardware zur Systemkühlung.
TPU-Knoten
Eine TPU-Ressource in Google Cloud mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt über ein Peer-VPC-Netzwerk eine Verbindung zu Ihrem VPC-Netzwerk her. TPU-Knoten sind eine Ressource, die in der Cloud TPU API definiert ist.
TPU-Pod
Eine bestimmte Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU-Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU-Pod ist die größte Konfiguration von TPU-Geräten, die für eine bestimmte TPU-Version verfügbar ist.
TPU-Ressource
Eine TPU-Einheit in Google Cloud, die Sie erstellen, verwalten oder verwenden. Beispiele für TPU-Ressourcen sind TPU-Knoten und TPU-Typen.
TPU-Slice
Ein TPU-Slice ist ein Teil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Slice sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.
TPU-Typ
Eine Konfiguration aus einem oder mehreren TPU-Geräten mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten in Google Cloud erstellen. Ein v2-8
-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Ein v3-2048
-TPU-Typ hat 256 vernetzte TPU v3-Geräte und insgesamt 2.048 Kerne. TPU-Typen sind eine Ressource, die in der Cloud TPU API definiert ist.
TPU-Worker
Ein Prozess, der auf einem Hostcomputer ausgeführt wird und ML-Programme auf TPU-Geräten ausführt.