Glossar für maschinelles Lernen: TensorFlow

Auf dieser Seite finden Sie Glossarbegriffe für TensorFlow. Hier finden Sie alle Glossarbegriffe.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Ein spezieller Hardwarebeschleuniger, der entwickelt wurde, um Arbeitslasten für maschinelles Lernen in Google Cloud zu beschleunigen.

D

Dataset API (tf.data)

#TensorFlow

Eine übergeordnete TensorFlow-API zum Lesen von Daten und zum Transformieren von Daten in ein Format, das für einen Algorithmus für maschinelles Lernen erforderlich ist. Ein tf.data.Dataset-Objekt stellt eine Sequenz von Elementen dar, in der jedes Element einen oder mehrere Tensoren enthält. Ein tf.data.Iterator-Objekt bietet Zugriff auf die Elemente eines Dataset.

Gerät

#TensorFlow
#GoogleCloud

Ein überladener Begriff mit den folgenden zwei möglichen Definitionen:

  1. Eine Kategorie von Hardware, auf der eine TensorFlow-Sitzung ausgeführt werden kann, einschließlich CPUs, GPUs und TPUs.
  2. Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) ist dies der Teil des Systems, der Tensoren und Einbettungen verarbeitet. Das Gerät wird von Beschleunigerchips angetrieben. Im Gegensatz dazu wird der Host in der Regel auf einer CPU ausgeführt.

E

sofortige Ausführung

#TensorFlow

Eine TensorFlow-Programmierumgebung, in der Vorgänge sofort ausgeführt werden. Im Gegensatz dazu werden Vorgänge, die im Graph-Ausführungsmodus aufgerufen werden, erst ausgeführt, wenn sie explizit ausgewertet werden. Die sofortige Ausführung ist eine imperative Schnittstelle, ähnlich wie der Code in den meisten Programmiersprachen. Programme mit Eager Execution lassen sich in der Regel viel einfacher debuggen als Programme mit Graph Execution.

Estimator

#TensorFlow

Eine eingestellte TensorFlow API. Verwenden Sie stattdessen tf.keras.

F

Feature Engineering

#fundamentals
#TensorFlow

Ein Prozess, der die folgenden Schritte umfasst:

  1. Ermitteln, welche Features für das Training eines Modells nützlich sein könnten.
  2. Rohdaten aus dem Dataset in effiziente Versionen dieser Features umwandeln.

Sie stellen beispielsweise fest, dass temperature eine nützliche Funktion sein könnte. Anschließend können Sie mit Klassierung experimentieren, um zu optimieren, was das Modell aus verschiedenen temperature-Bereichen lernen kann.

Feature Engineering wird manchmal auch als Feature-Extraktion oder Featurisierung bezeichnet.

Weitere Informationen finden Sie im Machine Learning Crash Course unter Numerische Daten: Wie ein Modell Daten mithilfe von Feature-Vektoren aufnimmt.

Featurespezifikation

#TensorFlow

Beschreibt die Informationen, die zum Extrahieren von Feature-Daten aus dem tf.Example-Protokollpuffer erforderlich sind. Da der tf.Example-Protokollpuffer nur ein Container für Daten ist, müssen Sie Folgendes angeben:

  • Die zu extrahierenden Daten (d. h. die Schlüssel für die Funktionen)
  • Der Datentyp (z. B. „float“ oder „int“)
  • Die Länge (fest oder variabel)

G

Graph

#TensorFlow

In TensorFlow eine Berechnungsspezifikation. Knoten im Diagramm stellen Vorgänge dar. Kanten sind gerichtet und stellen das Übergeben des Ergebnisses eines Vorgangs (eines Tensor) als Operand an einen anderen Vorgang dar. Verwenden Sie TensorBoard, um ein Diagramm zu visualisieren.

Graph Execution

#TensorFlow

Eine TensorFlow-Programmierumgebung, in der das Programm zuerst einen Graphen erstellt und dann den gesamten oder einen Teil dieses Graphen ausführt. Die Grafikausführung ist der Standardausführungsmodus in TensorFlow 1.x.

Kontrast zur sofortigen Ausführung.

H

Host

#TensorFlow
#GoogleCloud

Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) ist der Teil des Systems, der Folgendes steuert:

  • Der allgemeine Ablauf des Codes.
  • Die Extraktion und Transformation der Eingabepipeline.

Der Host wird in der Regel auf einer CPU und nicht auf einem Beschleunigerchip ausgeführt. Das Gerät verarbeitet Tensoren auf den Beschleunigerchips.

L

Layers API (tf.layers)

#TensorFlow

Eine TensorFlow-API zum Erstellen eines tiefen neuronalen Netzwerks als Zusammensetzung von Layern. Mit der Layers API können Sie verschiedene Arten von Layern erstellen, z. B.:

Die Layers API folgt den API-Konventionen für Keras-Ebenen. Abgesehen von einem anderen Präfix haben alle Funktionen in der Layers API dieselben Namen und Signaturen wie ihre Pendants in der Keras Layers API.

M

Mesh-Netzwerk

#TensorFlow
#GoogleCloud

In der parallelen Programmierung für maschinelles Lernen ein Begriff, der sich auf das Zuweisen der Daten und des Modells zu TPU-Chips und das Definieren bezieht, wie diese Werte aufgeteilt oder repliziert werden.

„Mesh“ ist ein überladener Begriff, der Folgendes bedeuten kann:

  • Ein physisches Layout von TPU-Chips.
  • Ein abstraktes logisches Konstrukt zum Zuordnen der Daten und des Modells zu den TPU-Chips.

In beiden Fällen wird ein Mesh als Form angegeben.

Messwert

#TensorFlow
#Messwert

Eine Statistik, die Ihnen wichtig ist.

Ein Ziel ist ein Messwert, den ein System für maschinelles Lernen zu optimieren versucht.

N

Knoten (TensorFlow-Diagramm)

#TensorFlow

Ein Vorgang in einem TensorFlow-Diagramm.

O

Vorgang (op)

#TensorFlow

In TensorFlow ist das jede Prozedur, die einen Tensor erstellt, manipuliert oder löscht. Beispielsweise ist die Matrixmultiplikation ein Vorgang, der zwei Tensoren als Eingabe akzeptiert und einen Tensor als Ausgabe erzeugt.

P

Parameterserver (PS)

#TensorFlow

Ein Job, der die Parameter eines Modells in einer verteilten Umgebung verfolgt.

Q

Warteschlange

#TensorFlow

Eine TensorFlow-Operation, die eine Warteschlangendatenstruktur implementiert. Wird normalerweise bei der Ein-/Ausgabe verwendet.

R

rank (Tensor)

#TensorFlow

Die Anzahl der Dimensionen in einem Tensor. Ein Skalar hat beispielsweise den Rang 0, ein Vektor den Rang 1 und eine Matrix den Rang 2.

Nicht zu verwechseln mit Rang (Ordinalität).

Stammverzeichnis

#TensorFlow

Das Verzeichnis, das Sie zum Hosten von Unterverzeichnissen des TensorFlow-Prüfpunkts und der Ereignisdateien mehrerer Modelle angeben.

S

SavedModel

#TensorFlow

Das empfohlene Format zum Speichern und Wiederherstellen von TensorFlow-Modellen. SavedModel ist ein sprachneutrales, wiederherstellbares Serialisierungsformat, mit dem Systeme und Tools auf höherer Ebene TensorFlow-Modelle erstellen, nutzen und transformieren können.

Ausführliche Informationen finden Sie im Abschnitt zum Speichern und Wiederherstellen im TensorFlow Programmer's Guide.

Kostengünstig

#TensorFlow

Ein TensorFlow-Objekt, das für das Speichern von Modellprüfpunkten zuständig ist.

Shard

#TensorFlow
#GoogleCloud

Eine logische Aufteilung des Trainingssets oder des Modells. Normalerweise werden Shards durch Aufteilen der Beispiele oder Parameter in (in der Regel) gleich große Teile erstellt. Jeder Shard wird dann einer anderen Maschine zugewiesen.

Das Sharding eines Modells wird als Modellparallelität bezeichnet, das Sharding von Daten als Datenparallelität.

Zusammenfassung

#TensorFlow

In TensorFlow ein Wert oder eine Gruppe von Werten, die in einem bestimmten Schritt berechnet werden und in der Regel zum Erfassen von Modellmesswerten während des Trainings verwendet werden.

T

Tensor

#TensorFlow

Die primäre Datenstruktur in TensorFlow-Programmen. Tensoren sind N-dimensionale (wobei N sehr groß sein kann) Datenstrukturen, meist Skalare, Vektoren oder Matrizen. Die Elemente eines Tensors können Ganzzahl-, Gleitkomma- oder Stringwerte enthalten.

TensorBoard

#TensorFlow

Das Dashboard, auf dem die Zusammenfassungen angezeigt werden, die während der Ausführung eines oder mehrerer TensorFlow-Programme gespeichert wurden.

TensorFlow

#TensorFlow

Eine umfangreiche, verteilte Plattform für maschinelles Lernen. Der Begriff bezieht sich auch auf die Basis-API-Ebene im TensorFlow-Stack, die allgemeine Berechnungen in Dataflow-Diagrammen unterstützt.

TensorFlow wird zwar hauptsächlich für maschinelles Lernen verwendet, Sie können es aber auch für Nicht-ML-Aufgaben einsetzen, die numerische Berechnungen mit Dataflow-Diagrammen erfordern.

TensorFlow Playground

#TensorFlow

Ein Programm, das veranschaulicht, wie sich verschiedene Hyperparameter auf das Training von Modellen (hauptsächlich neuronalen Netzen) auswirken. Unter http://playground.tensorflow.org können Sie TensorFlow Playground ausprobieren.

TensorFlow bereitstellen

#TensorFlow

Eine Plattform zum Bereitstellen trainierter Modelle in der Produktion.

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Ein anwendungsspezifischer integrierter Schaltkreis (Application-Specific Integrated Circuit, ASIC), der die Leistung von Arbeitslasten für maschinelles Lernen optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.

Tensor-Rang

#TensorFlow

Siehe rank (Tensor).

Tensorform

#TensorFlow

Die Anzahl der Elemente, die ein Tensor in verschiedenen Dimensionen enthält. Ein [5, 10]-Tensor hat beispielsweise in einer Dimension die Form 5 und in einer anderen die Form 10.

Tensorgröße

#TensorFlow

Die Gesamtzahl der Skalare, die ein Tensor enthält. Ein [5, 10]-Tensor hat beispielsweise eine Größe von 50.

tf.Example

#TensorFlow

Ein Standard- Protocol Buffer zur Beschreibung von Eingabedaten für das Training oder die Inferenz von Modellen für maschinelles Lernen.

tf.keras

#TensorFlow

Eine Implementierung von Keras, die in TensorFlow integriert ist.

TPU

#TensorFlow
#GoogleCloud

Abkürzung für Tensor Processing Unit.

TPU-Chip

#TensorFlow
#GoogleCloud

Ein programmierbarer Linearalgebra-Beschleuniger mit On-Chip-Arbeitsspeicher mit hoher Bandbreite, der für Arbeitslasten für maschinelles Lernen optimiert ist. Auf einem TPU-Gerät werden mehrere TPU-Chips bereitgestellt.

TPU-Gerät

#TensorFlow
#GoogleCloud

Eine Leiterplatte mit mehreren TPU-Chips, Netzwerk-Schnittstellen mit hoher Bandbreite und Hardware zur Systemkühlung.

TPU-Knoten

#TensorFlow
#GoogleCloud

Eine TPU-Ressource in Google Cloud mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt über ein Peer-VPC-Netzwerk eine Verbindung zu Ihrem VPC-Netzwerk her. TPU-Knoten sind eine Ressource, die in der Cloud TPU API definiert ist.

TPU-Pod

#TensorFlow
#GoogleCloud

Eine bestimmte Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU-Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU-Pod ist die größte Konfiguration von TPU-Geräten, die für eine bestimmte TPU-Version verfügbar ist.

TPU-Ressource

#TensorFlow
#GoogleCloud

Eine TPU-Einheit in Google Cloud, die Sie erstellen, verwalten oder verwenden. Beispiele für TPU-Ressourcen sind TPU-Knoten und TPU-Typen.

TPU-Slice

#TensorFlow
#GoogleCloud

Ein TPU-Slice ist ein Teil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Slice sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.

TPU-Typ

#TensorFlow
#GoogleCloud

Eine Konfiguration aus einem oder mehreren TPU-Geräten mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten in Google Cloud erstellen. Ein v2-8-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Ein v3-2048-TPU-Typ hat 256 vernetzte TPU v3-Geräte und insgesamt 2.048 Kerne. TPU-Typen sind eine Ressource, die in der Cloud TPU API definiert ist.

TPU-Worker

#TensorFlow
#GoogleCloud

Ein Prozess, der auf einem Hostcomputer ausgeführt wird und ML-Programme auf TPU-Geräten ausführt.