このページには、TensorFlow の用語集の用語が記載されています。用語集のすべての用語については、こちらをクリックしてください。
B
バッチ推論
小さなサブセット(「バッチ」)に分割された複数のラベルなしの例に対する予測を推論するプロセス。
バッチ推論では、アクセラレータ チップの並列化機能を利用できます。つまり、複数のアクセラレータがラベルのないサンプルの異なるバッチで予測を同時に推論できるため、1 秒あたりの推論数を大幅に増やすことができます。
詳細については、ML 集中講座の本番環境の ML システム: 静的推論と動的推論をご覧ください。
C
Cloud TPU
Google Cloud での ML ワークロードの高速化を目的として設計された特殊なハードウェア アクセラレータ。
D
Dataset API(tf.data)
データを読み取り、機械学習アルゴリズムで必要な形式に変換するための高レベルの TensorFlow API。tf.data.Dataset
オブジェクトは要素のシーケンスを表します。各要素には 1 つ以上の テンソルが含まれています。tf.data.Iterator
オブジェクトは、Dataset
の要素へのアクセスを提供します。
デバイス
次の 2 つの定義が可能なオーバーロードされた用語。
- TensorFlow セッションを実行できるハードウェアのカテゴリ(CPU、GPU、TPU など)。
- アクセラレータ チップ(GPU または TPU)で ML モデルをトレーニングする場合、テンソルとエンベディングを実際に操作するシステムの部分。デバイスはアクセラレータ チップを搭載しています。一方、ホストは通常 CPU で実行されます。
E
積極的実行
オペレーションがすぐに実行される TensorFlow プログラミング環境。一方、グラフ実行で呼び出されたオペレーションは、明示的に評価されるまで実行されません。早期実行は、ほとんどのプログラミング言語のコードと同様に、命令型インターフェースです。一般に、積極的実行プログラムはグラフ実行プログラムよりもはるかに簡単にデバッグできます。
Estimator
非推奨の TensorFlow API。Estimator の代わりに tf.keras を使用します。
F
2つのステップが含まれます
次の手順を含むプロセス:
- モデルのトレーニングに役立つ可能性がある特徴を特定する。
- データセットの元データを、それらの特徴量の効率的なバージョンに変換します。
たとえば、temperature
が便利な機能であると判断できます。次に、バケット化を試して、モデルがさまざまな temperature
範囲から学習できる内容を最適化できます。
特徴量エンジニアリングは、特徴量抽出または特徴量化とも呼ばれます。
詳細については、ML 集中講座の数値データ: モデルが特徴ベクトルを使用してデータを取り込む方法をご覧ください。
特徴仕様
tf.Example プロトコル バッファから特徴データを抽出するために必要な情報について説明します。tf.Example プロトコル バッファはデータのコンテナにすぎないため、次のように指定する必要があります。
- 抽出するデータ(特徴のキー)
- データ型(float や int など)
- 長さ(固定または可変)
G
グラフ
TensorFlow では、計算仕様。グラフ内のノードはオペレーションを表します。エッジは有向で、オペレーションの結果(Tensor)をオペランドとして別のオペレーションに渡すことを表します。TensorBoard を使用してグラフを可視化します。
グラフ実行
プログラムが最初にグラフを構築し、次にそのグラフの一部またはすべてを実行する TensorFlow プログラミング環境。グラフ実行は、TensorFlow 1.x のデフォルトの実行モードです。
早期実行とは対照的です。
H
ホスト
アクセラレータ チップ(GPU または TPU)で ML モデルをトレーニングする場合、システムの次の両方を制御する部分:
- コードの全体的なフロー。
- 入力パイプラインの抽出と変換。
ホストは通常、アクセラレータ チップではなく CPU で実行されます。デバイスは、アクセラレータ チップでテンソルを操作します。
L
Layers API(tf.layers)
レイヤの合成としてディープニューラル ネットワークを構築するための TensorFlow API。Layers API を使用すると、次のようなさまざまなタイプのレイヤを作成できます。
tf.layers.Dense
: 全結合層。tf.layers.Conv2D
: 畳み込みレイヤ。
Layers API は、Keras レイヤ API の規則に準拠しています。つまり、接頭辞が異なることを除き、Layers API の関数はすべて、Keras Layers API の関数と同じ名前とシグネチャを持ちます。
M
メッシュ
ML 並列プログラミングでは、データとモデルを TPU チップに割り当て、これらの値のシャーディングまたは複製方法を定義する用語。
メッシュは、次のいずれかを意味するオーバーロードされた用語です。
- TPU チップの物理レイアウト。
- データとモデルを TPU チップにマッピングするための抽象的な論理構造。
どちらの場合も、メッシュはシェイプとして指定されます。
指標
重視すべき統計情報。
目標とは、機械学習システムが最適化しようとする指標です。
N
ノード(TensorFlow グラフ)
TensorFlow グラフ内の演算。
O
オペレーション(op)
TensorFlow では、Tensorを作成、操作、破棄するプロシージャ。たとえば、行列乗算は、2 つのテンソルを入力として受け取り、1 つのテンソルを出力として生成するオペレーションです。
P
パラメータ サーバー(PS)
分散環境でモデルのパラメータを追跡するジョブ。
Q
キュー
キュー データ構造を実装する TensorFlow オペレーション。通常は I/O で使用されます。
R
階数(テンソル)
Tensorのディメンション数。たとえば、スカラーのランクは 0、ベクトルのランクは 1、行列のランクは 2 です。
ランク(順序)とは異なります。
ルート ディレクトリ
複数のモデルの TensorFlow チェックポイント ファイルとイベント ファイルのサブディレクトリをホストするために指定するディレクトリ。
S
SavedModel
TensorFlow モデルの保存と復元に推奨される形式。SavedModel は、言語に依存しない復元可能なシリアル化形式です。これにより、高レベルのシステムとツールで TensorFlow モデルを生成、使用、変換できます。
詳細については、TensorFlow プログラマ ガイドの保存と復元のセクションをご覧ください。
割安便
モデル チェックポイントの保存を担当する TensorFlow オブジェクト。
シャード
トレーニング セットまたはモデルの論理的な分割。通常、一部のプロセスは、サンプルまたはパラメータを(通常は)同じサイズのチャンクに分割してシャードを作成します。各シャードは異なるマシンに割り当てられます。
モデルのシャーディングはモデルの並列処理と呼ばれ、データのシャーディングはデータの並列処理と呼ばれます。
概要
TensorFlow では、特定のステップで計算された値または値のセット。通常、トレーニング中のモデル指標の追跡に使用されます。
T
Tensor
TensorFlow プログラムの主なデータ構造。テンソルは N 次元(N は非常に大きい場合があります)のデータ構造です。最も一般的なのはスカラー、ベクトル、行列です。テンソルの要素には、整数値、浮動小数点値、文字列値を格納できます。
TensorBoard
1 つ以上の TensorFlow プログラムの実行中に保存されたサマリーを表示するダッシュボード。
TensorFlow
大規模な分散機械学習プラットフォーム。この用語は、データフロー グラフでの一般的な計算をサポートする TensorFlow スタック内のベース API レイヤにも使用されます。
TensorFlow は主に ML に使用されますが、データフロー グラフを使用した数値計算を必要とする ML 以外のタスクにも使用できます。
TensorFlow Playground
さまざまなハイパーパラメータがモデル(主にニューラル ネットワーク)のトレーニングにどのように影響するかを可視化するプログラム。 http://playground.tensorflow.org にアクセスして、TensorFlow Playground を試す。
TensorFlow Serving
トレーニング済みモデルを本番環境にデプロイするためのプラットフォーム。
TPU(Tensor Processing Unit)
機械学習ワークロードのパフォーマンスを最適化するアプリケーション固有の集積回路(ASIC)。これらの ASIC は、TPU デバイスに複数の TPU チップとしてデプロイされます。
テンソルの階数
階数(テンソル)をご覧ください。
テンソルの形状
Tensorがさまざまなディメンションに含む要素数。たとえば、[5, 10]
テンソルの形状は、1 つのディメンションでは 5、もう 1 つのディメンションでは 10 です。
テンソルのサイズ
Tensorに含まれるスカラーの合計数。たとえば、[5, 10]
テンソルのサイズは 50 です。
tf.Example
機械学習モデルのトレーニングまたは推論の入力データを記述するための標準の プロトコル バッファ。
tf.keras
TensorFlow に統合された Keras の実装。
TPU
Tensor Processing Unit の省略形。
TPU チップ
機械学習ワークロード用に最適化されたオンチップの高帯域幅メモリを備えた、プログラム可能な線形代数アクセラレータ。複数の TPU チップが TPU デバイスにデプロイされます。
TPU デバイス
複数の TPU チップ、高帯域幅ネットワーク インターフェース、システム冷却ハードウェアを備えたプリント回路基板(PCB)。
TPU マスター
ホストマシンで実行される中央調整プロセス。データ、結果、プログラム、パフォーマンス、システムの健全性に関する情報を TPU ワーカーに送受信します。TPU マスターは、TPU デバイスのセットアップとシャットダウンも管理します。
TPU ノード
特定の TPU タイプを持つ Google Cloud 上の TPU リソース。TPU ノードは、ピア VPC ネットワークから VPC ネットワークに接続します。TPU ノードは、Cloud TPU API で定義されたリソースです。
TPU Pod
Google データセンター内の TPU デバイスの特定の構成。TPU Pod 内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されています。TPU Pod は、特定の TPU バージョンで使用可能な TPU デバイスの最大構成です。
TPU リソース
Google Cloud で作成、管理、使用される TPU エンティティ。たとえば、TPU ノードと TPU タイプは TPU リソースです。
TPU スライス
TPU スライスは、TPU Pod 内の TPU デバイスの部分的な部分です。TPU スライス内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されています。
TPU タイプ
特定の TPU ハードウェア バージョンの 1 つ以上の TPU デバイスの構成。TPU タイプは、Google Cloud で TPU ノードを作成するときに選択します。たとえば、v2-8
TPU タイプは、8 コアを持つ単一の TPU v2 デバイスです。v3-2048
TPU タイプには、256 個のネットワーク化された TPU v3 デバイスと合計 2,048 個のコアがあります。TPU タイプは、Cloud TPU API で定義されたリソースです。
TPU ワーカー
ホストマシンで実行され、TPU デバイスで ML プログラムを実行するプロセス。