機械学習の用語集: TensorFlow

このページでは、TensorFlow の用語集について説明します。用語集のすべての用語については、こちらをクリックしてください。

C

Cloud TPU

TensorFlow
#GoogleCloud

Google Cloud Platform で機械学習ワークロードを高速化するように設計された専用のハードウェア アクセラレータ。

D

Dataset API(tf.data)

TensorFlow

TensorFlow の高レベル API。データを読み取って、機械学習アルゴリズムに必要な形式に変換します。tf.data.Dataset オブジェクトは要素のシーケンスを表し、各要素には 1 つ以上の Tensor が含まれます。tf.data.Iterator オブジェクトは、Dataset の要素へのアクセスを提供します。

Dataset API の詳細については、TensorFlow プログラマー ガイドtf.data: TensorFlow 入力パイプラインの構築をご覧ください。

device

TensorFlow

TensorFlow セッションを実行できるハードウェアのカテゴリ。CPU、GPU、TPU などが含まれます。

E

Eager Execution

TensorFlow

オペレーションが直ちに実行される TensorFlow プログラミング環境。一方、グラフ実行で呼び出されるオペレーションは、明示的に評価されるまで実行されません。Eager Execution は命令型インターフェースで、ほとんどのプログラミング言語のコードとほぼ同じです。積極的実行プログラムは通常、グラフ実行プログラムよりデバッグがはるかに容易です。

Estimator

TensorFlow

非推奨の TensorFlow API。Estimator の代わりに tf.keras を使用する。

F

特徴エンジニアリング

#fundamentals
TensorFlow

次の手順で行うプロセス:

  1. モデルのトレーニングにどの特徴が役立つかを判断する。
  2. データセットから元データを特徴の効率的なバージョンに変換する。

たとえば、temperature が有用であると判断したとします。次に、バケット化を試して、さまざまな temperature 範囲からモデルが学習する内容を最適化できます。

特徴量エンジニアリングは、特徴抽出とも呼ばれます。

機能仕様

TensorFlow

tf.Example プロトコル バッファから features データを抽出するために必要な情報について説明します。tf.Example プロトコル バッファは単なるデータのコンテナであるため、次のように指定する必要があります。

  • 抽出するデータ(特徴のキー)
  • データ型(float、int など)
  • 長さ(固定または可変)

G

グラフ

TensorFlow

TensorFlow では、計算仕様はグラフ内のノードはオペレーションを表します。エッジは、1 つのオペレーション(Tensor)の結果を別のオペレーションへのオペランドとして渡すためのもので、TensorBoard を使用してグラフを可視化します。

グラフの実行

TensorFlow

TensorFlow プログラミング環境。プログラムは最初にグラフを作成し、次にグラフの一部またはすべてを実行します。TensorFlow 1.x のデフォルトの実行モードは、グラフの実行です。

対して、Eager Execution を使用します。

L

Layers API(tf.layers)

TensorFlow

ディープ ニューラル ネットワークをレイヤの構成として構築するための TensorFlow API。Layers API を使用すると、次のようなさまざまな種類のレイヤを作成できます。

Layers API は、Keras レイヤの API の規則に従います。つまり、レイヤ API のすべての関数には、Keras Layers API で対応する関数と同じ名前と署名があり、接頭辞は異なります。

M

指標

TensorFlow

重要な統計データ。

目標は、機械学習システムが最適化を試みる指標です。

N

ノード(TensorFlow グラフ)

TensorFlow

TensorFlow のグラフにおける演算。

O

オペレーション(op)

TensorFlow

TensorFlow では、Tensor を作成、操作、または破棄するプロシージャ。たとえば、行列乗算とは、入力として 2 つのテンソルを取り、出力として 1 つのテンソルを生成する演算です。

P

パラメータ サーバー(PS)

TensorFlow

分散設定でモデルのパラメータを追跡するジョブ。

Q

キュー

TensorFlow

キューのデータ構造を実装する TensorFlow Operation。通常、I/O で使用されます。

R

ランク(Tensor)

TensorFlow

Tensor のディメンションの数。たとえば、スカラーはランク 0、ベクトルはランク 1、行列はランク 2 です。

ランク(序数)と混同しないようにしてください。

ルート ディレクトリ

TensorFlow

TensorFlow チェックポイントのサブディレクトリと、複数のモデルのイベント ファイルをホストするために指定するディレクトリ。

S

SavedModel

TensorFlow

TensorFlow モデルの保存と復元に推奨される形式。SavedModel は言語に依存せず、復元可能なシリアル化形式です。これにより、高レベルのシステムやツールで TensorFlow モデルを作成、使用、変換できます。

詳細については、TensorFlow プログラマー ガイドの保存と復元の章をご覧ください。

割安便

TensorFlow

モデルのチェックポイントを保存する TensorFlow オブジェクト

概要

TensorFlow

TensorFlow では、特定のステップで計算された値または値のセット。通常はトレーニング中にモデル指標を追跡するために使用されます。

T

Tensor

TensorFlow

TensorFlow プログラムの主なデータ構造。テンソルは N 次元(N はきわめて大きい)のデータ構造で、最も一般的なスカラー、ベクトル、行列です。テンソルの要素は、整数値、浮動小数点値、または文字列値を保持できます。

TensorBoard

TensorFlow

1 つ以上の TensorFlow プログラムの実行中に保存されたサマリーを表示するダッシュボード。

TensorFlow

TensorFlow

大規模な分散型の機械学習プラットフォーム。この用語は、データフロー グラフでの一般的な計算をサポートする TensorFlow スタックの基本 API レイヤも意味します。

TensorFlow は主に機械学習に使用されますが、データフロー グラフを使用した数値計算を必要とする ML 以外のタスクにも TensorFlow を使用できます。

TensorFlow Playground

TensorFlow

さまざまなハイパーパラメータがモデル(主にニューラル ネットワーク)のトレーニングに与える影響を可視化するプログラム。http://playground.tensorflow.org に移動して、TensorFlow Playground を試してみる。

TensorFlow サービスの提供

TensorFlow

トレーニング済みモデルを本番環境にデプロイするためのプラットフォーム。

TPU(Tensor Processing Unit)

TensorFlow
#GoogleCloud

機械学習ワークロードのパフォーマンスを最適化するアプリケーション固有の集積回路(ASIC)。これらの ASIC は、複数の TPU チップとして TPU デバイスにデプロイされています。

Tensor ランク

TensorFlow

rank(テンソル)をご覧ください。

テンソルの形

TensorFlow

Tensor がさまざまなディメンションに含まれる要素の数。たとえば、[5, 10] のテンソルの形状は、ある次元では 5、別の次元では 10 です。

Tensor のサイズ

TensorFlow

Tensor に含まれるスカラーの合計数。たとえば、[5, 10] テンソルのサイズは 50 です。

tf.Example(使用例)

TensorFlow

機械学習モデルのトレーニングまたは推論用の入力データを記述する標準のプロトコル バッファ

tf.keras

TensorFlow

TensorFlow に統合された Keras の実装。

TPU

TensorFlow
#GoogleCloud

Tensor Processing Unit の略。

TPU チップ

TensorFlow
#GoogleCloud

機械学習ワークロード用に最適化された、オンチップの高帯域幅メモリを備えたプログラム可能な線形代数アクセラレータ。複数の TPU チップが TPU デバイスにデプロイされています。

TPU デバイス

TensorFlow
#GoogleCloud

複数の TPU チップ、高帯域幅ネットワーク インターフェース、システム冷却ハードウェアを備えたプリント基板(PCB)。

TPU マスター

TensorFlow
#GoogleCloud

データ、結果、プログラム、パフォーマンス、システムの健全性に関する情報を TPU ワーカーに送受信するホストマシンで実行される中央調整プロセス。TPU マスターは、TPU デバイスの設定とシャットダウンも管理します。

TPU ノード

TensorFlow
#GoogleCloud

特定の TPU タイプの Google Cloud Platform 上の TPU リソース。TPU ノードは、ピア VPC ネットワークから VPC ネットワークに接続します。TPU ノードは、Cloud TPU API で定義されたリソースです。

TPU Pod

TensorFlow
#GoogleCloud

Google データセンターの TPU デバイスの特定の構成。TPU Pod 内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されています。TPU Pod は、特定の TPU バージョンで利用可能な TPU デバイスの最大構成です。

TPU リソース

TensorFlow
#GoogleCloud

作成、管理、使用する Google Cloud Platform 上の TPU エンティティ。たとえば、TPU ノードTPU タイプは TPU リソースです。

TPU スライス

TensorFlow
#GoogleCloud

TPU スライスは、TPU PodTPU デバイスの一部です。TPU スライス内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されます。

TPU タイプ

TensorFlow
#GoogleCloud

特定の TPU ハードウェア バージョンを搭載した 1 つ以上の TPU デバイスの構成。TPU タイプは、Google Cloud Platform で TPU ノードを作成するときに選択します。たとえば、v2-8 TPU タイプは、8 コアを備えた単一の TPU v2 デバイスです。v3-2048 TPU タイプには、256 個のネットワーク TPU v3 デバイスと合計 2,048 個のコアがあります。TPU タイプは、Cloud TPU API で定義されているリソースです。

TPU ワーカー

TensorFlow
#GoogleCloud

ホストマシンで実行され、TPU デバイスで機械学習プログラムを実行するプロセス。