このページでは、TensorFlow の用語集について説明します。用語集のすべての用語については、こちらをクリックしてください。
C
Cloud TPU
Google Cloud Platform で機械学習ワークロードを高速化するように設計された専用のハードウェア アクセラレータ。
D
Dataset API(tf.data)
TensorFlow の高レベル API。データを読み取って、機械学習アルゴリズムに必要な形式に変換します。tf.data.Dataset
オブジェクトは要素のシーケンスを表し、各要素には 1 つ以上の Tensor が含まれます。tf.data.Iterator
オブジェクトは、Dataset
の要素へのアクセスを提供します。
Dataset API の詳細については、TensorFlow プログラマー ガイドの tf.data: TensorFlow 入力パイプラインの構築をご覧ください。
device
TensorFlow セッションを実行できるハードウェアのカテゴリ。CPU、GPU、TPU などが含まれます。
E
Eager Execution
オペレーションが直ちに実行される TensorFlow プログラミング環境。一方、グラフ実行で呼び出されるオペレーションは、明示的に評価されるまで実行されません。Eager Execution は命令型インターフェースで、ほとんどのプログラミング言語のコードとほぼ同じです。積極的実行プログラムは通常、グラフ実行プログラムよりデバッグがはるかに容易です。
Estimator
非推奨の TensorFlow API。Estimator の代わりに tf.keras を使用する。
F
特徴エンジニアリング
次の手順で行うプロセス:
- モデルのトレーニングにどの特徴が役立つかを判断する。
- データセットから元データを特徴の効率的なバージョンに変換する。
たとえば、temperature
が有用であると判断したとします。次に、バケット化を試して、さまざまな temperature
範囲からモデルが学習する内容を最適化できます。
特徴量エンジニアリングは、特徴抽出とも呼ばれます。
機能仕様
tf.Example プロトコル バッファから features データを抽出するために必要な情報について説明します。tf.Example プロトコル バッファは単なるデータのコンテナであるため、次のように指定する必要があります。
- 抽出するデータ(特徴のキー)
- データ型(float、int など)
- 長さ(固定または可変)
G
グラフ
TensorFlow では、計算仕様はグラフ内のノードはオペレーションを表します。エッジは、1 つのオペレーション(Tensor)の結果を別のオペレーションへのオペランドとして渡すためのもので、TensorBoard を使用してグラフを可視化します。
グラフの実行
TensorFlow プログラミング環境。プログラムは最初にグラフを作成し、次にグラフの一部またはすべてを実行します。TensorFlow 1.x のデフォルトの実行モードは、グラフの実行です。
対して、Eager Execution を使用します。
L
Layers API(tf.layers)
ディープ ニューラル ネットワークをレイヤの構成として構築するための TensorFlow API。Layers API を使用すると、次のようなさまざまな種類のレイヤを作成できます。
- 完全に接続されたレイヤの場合は
tf.layers.Dense
。 tf.layers.Conv2D
畳み込みレイヤ
Layers API は、Keras レイヤの API の規則に従います。つまり、レイヤ API のすべての関数には、Keras Layers API で対応する関数と同じ名前と署名があり、接頭辞は異なります。
M
指標
重要な統計データ。
目標は、機械学習システムが最適化を試みる指標です。
N
ノード(TensorFlow グラフ)
TensorFlow のグラフにおける演算。
O
オペレーション(op)
TensorFlow では、Tensor を作成、操作、または破棄するプロシージャ。たとえば、行列乗算とは、入力として 2 つのテンソルを取り、出力として 1 つのテンソルを生成する演算です。
P
パラメータ サーバー(PS)
分散設定でモデルのパラメータを追跡するジョブ。
Q
キュー
キューのデータ構造を実装する TensorFlow Operation。通常、I/O で使用されます。
R
ランク(Tensor)
Tensor のディメンションの数。たとえば、スカラーはランク 0、ベクトルはランク 1、行列はランク 2 です。
ランク(序数)と混同しないようにしてください。
ルート ディレクトリ
TensorFlow チェックポイントのサブディレクトリと、複数のモデルのイベント ファイルをホストするために指定するディレクトリ。
S
SavedModel
TensorFlow モデルの保存と復元に推奨される形式。SavedModel は言語に依存せず、復元可能なシリアル化形式です。これにより、高レベルのシステムやツールで TensorFlow モデルを作成、使用、変換できます。
詳細については、TensorFlow プログラマー ガイドの保存と復元の章をご覧ください。
割安便
モデルのチェックポイントを保存する TensorFlow オブジェクト。
概要
TensorFlow では、特定のステップで計算された値または値のセット。通常はトレーニング中にモデル指標を追跡するために使用されます。
T
Tensor
TensorFlow プログラムの主なデータ構造。テンソルは N 次元(N はきわめて大きい)のデータ構造で、最も一般的なスカラー、ベクトル、行列です。テンソルの要素は、整数値、浮動小数点値、または文字列値を保持できます。
TensorBoard
1 つ以上の TensorFlow プログラムの実行中に保存されたサマリーを表示するダッシュボード。
TensorFlow
大規模な分散型の機械学習プラットフォーム。この用語は、データフロー グラフでの一般的な計算をサポートする TensorFlow スタックの基本 API レイヤも意味します。
TensorFlow は主に機械学習に使用されますが、データフロー グラフを使用した数値計算を必要とする ML 以外のタスクにも TensorFlow を使用できます。
TensorFlow Playground
さまざまなハイパーパラメータがモデル(主にニューラル ネットワーク)のトレーニングに与える影響を可視化するプログラム。http://playground.tensorflow.org に移動して、TensorFlow Playground を試してみる。
TensorFlow サービスの提供
トレーニング済みモデルを本番環境にデプロイするためのプラットフォーム。
TPU(Tensor Processing Unit)
機械学習ワークロードのパフォーマンスを最適化するアプリケーション固有の集積回路(ASIC)。これらの ASIC は、複数の TPU チップとして TPU デバイスにデプロイされています。
Tensor ランク
rank(テンソル)をご覧ください。
テンソルの形
Tensor がさまざまなディメンションに含まれる要素の数。たとえば、[5, 10] のテンソルの形状は、ある次元では 5、別の次元では 10 です。
Tensor のサイズ
Tensor に含まれるスカラーの合計数。たとえば、[5, 10] テンソルのサイズは 50 です。
tf.Example(使用例)
機械学習モデルのトレーニングまたは推論用の入力データを記述する標準のプロトコル バッファ。
tf.keras
TensorFlow に統合された Keras の実装。
TPU
TPU チップ
機械学習ワークロード用に最適化された、オンチップの高帯域幅メモリを備えたプログラム可能な線形代数アクセラレータ。複数の TPU チップが TPU デバイスにデプロイされています。
TPU デバイス
複数の TPU チップ、高帯域幅ネットワーク インターフェース、システム冷却ハードウェアを備えたプリント基板(PCB)。
TPU マスター
データ、結果、プログラム、パフォーマンス、システムの健全性に関する情報を TPU ワーカーに送受信するホストマシンで実行される中央調整プロセス。TPU マスターは、TPU デバイスの設定とシャットダウンも管理します。
TPU ノード
特定の TPU タイプの Google Cloud Platform 上の TPU リソース。TPU ノードは、ピア VPC ネットワークから VPC ネットワークに接続します。TPU ノードは、Cloud TPU API で定義されたリソースです。
TPU Pod
Google データセンターの TPU デバイスの特定の構成。TPU Pod 内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されています。TPU Pod は、特定の TPU バージョンで利用可能な TPU デバイスの最大構成です。
TPU リソース
作成、管理、使用する Google Cloud Platform 上の TPU エンティティ。たとえば、TPU ノードと TPU タイプは TPU リソースです。
TPU スライス
TPU スライスは、TPU Pod の TPU デバイスの一部です。TPU スライス内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されます。
TPU タイプ
特定の TPU ハードウェア バージョンを搭載した 1 つ以上の TPU デバイスの構成。TPU タイプは、Google Cloud Platform で TPU ノードを作成するときに選択します。たとえば、v2-8
TPU タイプは、8 コアを備えた単一の TPU v2 デバイスです。v3-2048
TPU タイプには、256 個のネットワーク TPU v3 デバイスと合計 2,048 個のコアがあります。TPU タイプは、Cloud TPU API で定義されているリソースです。
TPU ワーカー
ホストマシンで実行され、TPU デバイスで機械学習プログラムを実行するプロセス。