Glossar für maschinelles Lernen: TensorFlow

Diese Seite enthält Begriffe aus dem TensorFlow-Glossar. Alle Glossarbegriffe finden Sie hier.

B

Batch-Inferenz

TensorFlow
#GoogleCloud

Das Ableiten von Vorhersagen aus mehreren Beispielen ohne Label, die in kleinere Teilmengen („Batches“) unterteilt sind.

Batchinferenzen können die Parallelisierungsfeatures von Beschleunigerchips nutzen. Das heißt, mehrere Beschleuniger können gleichzeitig Vorhersagen für verschiedene Batches von Beispielen ohne Label ableiten, was die Anzahl der Inferenzen pro Sekunde drastisch erhöht.

C

Cloud TPU

TensorFlow
#GoogleCloud

Spezialisierter Hardwarebeschleuniger zur Beschleunigung von ML-Arbeitslasten in Google Cloud

D

Dataset API (tf.data)

TensorFlow

Eine allgemeine TensorFlow API zum Lesen und Transformieren von Daten in eine von einem Algorithmus für maschinelles Lernen benötigte Form. Ein tf.data.Dataset-Objekt steht für eine Abfolge von Elementen, in der jedes Element einen oder mehrere Tensors enthält. Ein tf.data.Iterator-Objekt bietet Zugriff auf die Elemente einer Dataset.

Weitere Informationen zur Dataset API finden Sie unter tf.data: TensorFlow-Eingabepipelines erstellen im TensorFlow-Programmierhandbuch.

Gerät

TensorFlow
#GoogleCloud

Ein überladener Begriff mit den folgenden zwei möglichen Definitionen:

  1. Hardwarekategorie für die Ausführung einer TensorFlow-Sitzung, einschließlich CPUs, GPUs und TPUs.
  2. Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) ist der Teil des Systems, der Tensoren und Einbettungen tatsächlich manipuliert. Das Gerät wird auf Beschleunigerchips ausgeführt. Im Gegensatz dazu wird der Host normalerweise auf einer CPU ausgeführt.

E

ambitionierte Ausführung

TensorFlow

Eine TensorFlow-Programmierumgebung, in der operations sofort ausgeführt werden. Im Gegensatz dazu werden Vorgänge, die in der Ausführung von Diagrammen aufgerufen werden, erst dann ausgeführt, wenn sie explizit ausgewertet wurden. Die schnelle Ausführung ist eine imperative Schnittstelle, ähnlich wie der Code in den meisten Programmiersprachen. Eifrige Ausführungsprogramme sind im Allgemeinen viel einfacher zu debuggen als Programme zur Ausführung von Grafiken.

Estimator

TensorFlow

Eine verworfene TensorFlow API. Verwenden Sie tf.keras anstelle von Schätzern.

F

Feature Engineering

#fundamentals
TensorFlow

Ein Prozess, der die folgenden Schritte umfasst:

  1. Bestimmen, welche Features zum Trainieren eines Modells nützlich sein könnten.
  2. Konvertierung von Rohdaten aus dem Dataset in effiziente Versionen dieser Features.

So lässt sich beispielsweise festlegen, dass temperature ein nützliches Feature ist. Anschließend können Sie mit dem Bucketing experimentieren, um zu optimieren, was das Modell aus verschiedenen temperature-Bereichen lernen kann.

Feature Engineering wird manchmal als Feature-Extraktion oder Designisierung bezeichnet.

Featurespezifikation

TensorFlow

Beschreibt die erforderlichen Informationen zum Extrahieren von features-Daten aus dem tf.Example-Protokollpuffer. Da der Protokollpuffer von tf.Example nur ein Container für Daten ist, müssen Sie Folgendes angeben:

  • Die zu extrahierenden Daten (Schlüssel für die Features)
  • Der Datentyp (z. B. Gleitkommazahl oder Ganzzahl)
  • Die Länge (fest oder variabel)

G

Grafik

TensorFlow

In TensorFlow eine Berechnungsspezifikation. Knoten im Diagramm stellen Vorgänge dar. Edges sind gerichtet und stellen die Übergabe des Ergebnisses eines Vorgangs (eines Tensors) als Operand an einen anderen Vorgang dar. Mit TensorBoard können Sie eine Grafik visualisieren.

Graph Execution

TensorFlow

Eine TensorFlow-Programmierumgebung, in der das Programm zuerst einen Graphen erstellt und dann diesen Graph ganz oder teilweise ausführt. Die Ausführung des Graphen ist der Standardausführungsmodus in TensorFlow 1.x.

Stellen Sie es sich gegenüber einer ehrgeizigen Ausführung gegenüber.

H

Gastgeber

TensorFlow
#GoogleCloud

Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) wird der Teil des Systems verwendet, der die beiden folgenden Vorgänge steuert:

  • Der gesamte Ablauf des Codes.
  • Extraktion und Transformation der Eingabepipeline.

Der Host wird normalerweise auf einer CPU und nicht auf einem Beschleunigerchip ausgeführt. Das Gerät manipuliert Tensoren auf den Beschleunigerchips.

L

Layers API (tf.layers)

TensorFlow

Eine TensorFlow API zum Erstellen eines neuronalen tiefen neuronalen Netzwerks als Kombination von Ebenen. Mit der Layers API können Sie verschiedene Arten von Ebenen erstellen, z. B.:

Die Layers API folgt den Layers API-Konventionen von Keras. Abgesehen von einem anderen Präfix haben alle Funktionen in der Layers API dieselben Namen und Signaturen wie ihre Gegenstücke in der Keras Layers API.

M

Mesh-Netzwerk

TensorFlow
#GoogleCloud

In der parallelen ML-Programmierung ein Begriff, der mit der Zuweisung der Daten und des Modells zu TPU-Chips und der Definition dessen, wie diese Werte fragmentiert oder repliziert werden, in Verbindung steht.

„Mesh“ ist ein überlasteter Begriff, der Folgendes bedeuten kann:

  • Ein physisches Layout von TPU-Chips.
  • Ein abstraktes logisches Konstrukt zum Zuordnen der Daten und des Modells zu den TPU-Chips.

In beiden Fällen wird ein Mesh-Netzwerk als Form angegeben.

Messwert

TensorFlow

Eine Statistik, die dich interessiert.

Ein Ziel ist ein Messwert, den ein System für maschinelles Lernen zu optimieren versucht.

N

Knoten (TensorFlow-Grafik)

TensorFlow

Ein Vorgang in einer TensorFlow-Grafik.

O

Vorgang (Vorgang)

TensorFlow

In TensorFlow jedes Verfahren, mit dem ein Tensor erstellt, bearbeitet oder zerstört wird. Eine Matrixmultiplikation ist beispielsweise eine Operation, bei der zwei Tensoren als Eingabe verwendet und ein Tensor als Ausgabe generiert wird.

P

Parameterserver (PS)

TensorFlow

Ein Job, der die Parameter eines Modells in einer verteilten Einstellung verfolgt.

F

kuh

TensorFlow

Einen TensorFlow-Vorgang, der eine Warteschlangendatenstruktur implementiert. Wird normalerweise bei E/A verwendet.

R

Rang (Tensor)

TensorFlow

Die Anzahl der Dimensionen in einem Tensor. Ein Skalar hat beispielsweise Rang 0, ein Vektor hat Rang 1 und eine Matrix hat Rang 2.

Nicht zu verwechseln mit dem Attribut Rang (Ordinalität).

Stammverzeichnis

TensorFlow

Das Verzeichnis, das Sie zum Hosten von Unterverzeichnissen des TensorFlow-Prüfpunkts und der Ereignisdateien mehrerer Modelle angeben.

S

SavedModel

TensorFlow

Das empfohlene Format zum Speichern und Wiederherstellen von TensorFlow-Modellen. VoiceOver ist ein sprachneutrales, wiederherstellbares Serialisierungsformat, das es übergeordneten Systemen und Tools ermöglicht, TensorFlow-Modelle zu erstellen, zu verarbeiten und zu verarbeiten.

Ausführliche Informationen finden Sie im Kapitel Saving and Restore im TensorFlow Programmer's Guide.

Kostengünstig

TensorFlow

Ein TensorFlow-Objekt, das für die Speicherung von Modellprüfpunkten verantwortlich ist.

Shard

TensorFlow
#GoogleCloud

Eine logische Division des Trainings-Datasets oder des Modells. In der Regel werden bei einigen Prozessen Shards erstellt, indem die Beispiele oder Parameter in (normalerweise) gleich große Blöcke unterteilt werden. Jeder Shard wird dann einem anderen Computer zugewiesen.

Das Fragmentieren eines Modells wird als Modellparallelität bezeichnet, das Fragmentieren von Daten als Datenparallelität.

Zusammenfassung

TensorFlow

In TensorFlow ein Wert oder eine Gruppe von Werten, der in einem bestimmten Schritt berechnet wurde und der normalerweise zum Nachverfolgen von Modellmesswerten während des Trainings verwendet wird.

T

Tensor

TensorFlow

Die primäre Datenstruktur in TensorFlow-Programmen. Tensoren sind N-dimensionale Datenstrukturen, wobei N eine sehr große Datenstruktur sein kann. Meist sind Skalare, Vektoren oder Matrizen. Die Elemente eines Tensors können Ganzzahl-, Gleitkomma- oder String-Werte enthalten.

TensorBoard

TensorFlow

Das Dashboard mit den Zusammenfassungen, die während der Ausführung eines oder mehrerer TensorFlow-Programme gespeichert wurden.

TensorFlow

TensorFlow

Eine große, verteilte Plattform für maschinelles Lernen. Der Begriff bezieht sich auch auf die Basis-API-Ebene im TensorFlow-Stack, die allgemeine Berechnungen zu Dataflow-Diagrammen unterstützt.

Obwohl TensorFlow hauptsächlich für maschinelles Lernen verwendet wird, können Sie TensorFlow auch für Nicht-ML-Aufgaben verwenden, die numerische Berechnungen mithilfe von Dataflow-Diagrammen erfordern.

TensorFlow-Playground

TensorFlow

Ein Programm, das visualisiert, wie verschiedene Hyperparameter das Training des Modells (hauptsächlich neuronale Netzwerke) beeinflussen. Rufen Sie http://playground.tensorflow.org auf, um TensorFlow Playground zu testen.

TensorFlow bereitstellen

TensorFlow

Eine Plattform zum Bereitstellen trainierter Modelle in der Produktion.

Tensor Processing Unit (TPU)

TensorFlow
#GoogleCloud

Ein anwendungsspezifischer integrierter Schaltkreis (ASIC), der die Leistung von ML-Arbeitslasten optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.

Tensor-Rang

TensorFlow

Siehe Rang (Tensor).

Tensor-Form

TensorFlow

Die Anzahl der Elemente, die ein Tensor in verschiedenen Dimensionen enthält. Ein [5, 10]-Tensor hat beispielsweise die Form 5 in einer Dimension und 10 in einer anderen.

Tensorgröße

TensorFlow

Die Gesamtzahl der Skalare, die ein Tensor enthält. Ein [5, 10]-Tensor hat beispielsweise eine Größe von 50.

tf.Example

TensorFlow

Einem standardmäßigen Protokollpuffer zum Beschreiben von Eingabedaten für das Training oder die Inferenz von ML-Modellen.

tf.keras

TensorFlow

Eine in TensorFlow integrierte Keras-Implementierung.

TPU

TensorFlow
#GoogleCloud

Abkürzung für Tensor Processing Unit.

TPU-Chip

TensorFlow
#GoogleCloud

Ein programmierbarer linearer Algebrabeschleuniger mit einem On-Chip-Arbeitsspeicher mit hoher Bandbreite, der für ML-Arbeitslasten optimiert ist. Auf einem TPU-Gerät werden mehrere TPU-Chips bereitgestellt.

TPU-Gerät

TensorFlow
#GoogleCloud

Eine Leiterplatte mit mehreren TPU-Chips, Netzwerkschnittstellen mit hoher Bandbreite und Hardware für die Systemkühlung.

TPU-Master

TensorFlow
#GoogleCloud

Der zentrale Koordinationsprozess, der auf einem Hostcomputer ausgeführt wird und Daten, Ergebnisse, Programme, Leistungs- und Systemzustandsinformationen an die TPU-Worker sendet und empfängt. Der TPU-Master verwaltet auch das Einrichten und Herunterfahren von TPU-Geräten.

TPU-Knoten

TensorFlow
#GoogleCloud

Eine TPU-Ressource in Google Cloud mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt über ein Peer-VPC-Netzwerk eine Verbindung zu Ihrem VPC-Netzwerk her. TPU-Knoten sind eine in der Cloud TPU API definierte Ressource.

TPU-Pod

TensorFlow
#GoogleCloud

Eine spezifische Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU-Pod ist die größte Konfiguration von TPU-Geräten, die für eine bestimmte TPU-Version verfügbar sind.

TPU-Ressource

TensorFlow
#GoogleCloud

Eine TPU-Entität in Google Cloud, die Sie erstellen, verwalten oder nutzen. TPU-Knoten und TPU-Typen sind beispielsweise TPU-Ressourcen.

TPU-Slice

TensorFlow
#GoogleCloud

Ein TPU-Slice ist ein Bruchteil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Slice sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.

TPU-Typ

TensorFlow
#GoogleCloud

Konfiguration mit einem oder mehreren TPU-Geräten mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten in Google Cloud erstellen. Ein v2-8-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Ein v3-2048-TPU-Typ hat 256 mit dem Netzwerk verbundene TPU v3-Geräte und insgesamt 2.048 Kerne. TPU-Typen sind eine in der Cloud TPU API definierte Ressource.

TPU-Worker

TensorFlow
#GoogleCloud

Ein Prozess, der auf einem Hostcomputer und Programmen für maschinelles Lernen auf TPU-Geräten ausgeführt wird.