機械学習用語集: Google Cloud

このページでは、Google Cloud の用語集について説明します。用語集のすべての用語については、こちらをクリックしてください。

A

アクセラレータ チップ

#GoogleCloud

ディープ ラーニング アルゴリズムに必要な鍵計算を実行するように設計された専用のハードウェア コンポーネントのカテゴリ。

アクセラレータ チップ(または単にアクセラレータ)を使用すると、汎用 CPU と比較して、トレーニング タスクと推論タスクの速度と効率を大幅に向上させることができます。ニューラル ネットワークのトレーニングや、同様の計算負荷の高いタスクに最適です。

アクセラレータ チップの例:

  • ディープ ラーニング専用のハードウェアを備えた Google の Tensor Processing Unit(TPU)。
  • NVIDIA の GPU。当初はグラフィック処理用に設計されていますが、並列処理を可能にするように設計されています。これにより、処理速度を大幅に向上させることができます。

B

バッチ推論

#TensorFlow
#GoogleCloud

より小さなサブセット(「バッチ」)に分割された複数のラベルのないサンプルに対して予測を推論するプロセス。

バッチ推論では、アクセラレータ チップの並列化機能を活用できます。つまり、複数のアクセラレータがラベルのないサンプルの異なるバッチに対して同時に予測を推測できるため、1 秒あたりの推論数が大幅に増加します。

C

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud 上の ML ワークロードを高速化するために設計された専用のハードウェア アクセラレータ。

D

デバイス

#TensorFlow
#GoogleCloud

次の 2 つの定義があるオーバーロードされた用語:

  1. TensorFlow セッションを実行できるハードウェアのカテゴリ(CPU、GPU、TPU など)。
  2. アクセラレータ チップ(GPU または TPU)で ML モデルをトレーニングする場合、実際にテンソルエンベディングを操作するシステムの部分。デバイスはアクセラレータ チップで動作します。一方、ホストは通常、CPU 上で実行されます。

H

主催者

#TensorFlow
#GoogleCloud

アクセラレータ チップ(GPU または TPU)で ML モデルをトレーニングする場合、システム内で次の両方を制御する部分。

  • コードの全体的なフロー。
  • 入力パイプラインの抽出と変換。

ホストは通常、アクセラレータ チップではなく CPU 上で稼働します。デバイスはアクセラレータ チップのテンソルを操作します。

M

メッシュ

#TensorFlow
#GoogleCloud

ML 並列プログラミングで、データとモデルを TPU チップに割り当て、これらの値をシャーディングまたは複製する方法を定義することに関連する用語。

メッシュは、次のいずれかを意味する過負荷用語です。

  • TPU チップの物理レイアウト。
  • データとモデルを TPU チップにマッピングするための抽象的な論理構造。

いずれの場合も、メッシュはシェイプとして指定します。

S

シャード

#TensorFlow
#GoogleCloud

トレーニング セットまたはモデルの論理区分。通常、なんらかのプロセスで、またはパラメータを(通常は)同じサイズのチャンクに分割してシャードを作成します。その後、各シャードは異なるマシンに割り当てられます。

モデルのシャーディングはモデル並列処理と呼ばれ、データのシャーディングはデータ並列処理と呼ばれます。

T

TPU(Tensor Processing Unit)

#TensorFlow
#GoogleCloud

ML ワークロードのパフォーマンスを最適化するアプリケーション固有の集積回路(ASIC)。これらの ASIC は、複数の TPU チップとして TPU デバイスにデプロイされます。

TPU

#TensorFlow
#GoogleCloud

Tensor Processing Unit の略語。

TPU チップ

#TensorFlow
#GoogleCloud

ML ワークロード用に最適化された、高帯域幅メモリを内蔵したプログラム可能な線形代数アクセラレータ。複数の TPU チップが TPU デバイスにデプロイされます。

TPU デバイス

#TensorFlow
#GoogleCloud

複数の TPU チップ、高帯域幅ネットワーク インターフェース、システム冷却ハードウェアを備えたプリント回路基板(PCB)。

TPU マスター

#TensorFlow
#GoogleCloud

ホストマシン上で実行される中央の調整プロセス。データ、結果、プログラム、パフォーマンス、システムの健全性に関する情報を TPU ワーカーと送受信します。また、TPU マスターは、TPU デバイスのセットアップとシャットダウンも管理します。

TPU ノード

#TensorFlow
#GoogleCloud

特定の TPU タイプを持つ Google Cloud 上の TPU リソース。TPU ノードは、ピア VPC ネットワークから VPC ネットワークに接続します。TPU ノードは、Cloud TPU API で定義されたリソースです。

TPU Pod

#TensorFlow
#GoogleCloud

Google データセンター内の TPU デバイスの特定の構成。TPU Pod 内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されています。TPU Pod は、特定の TPU バージョンで使用できる TPU デバイスの最大構成です。

TPU リソース

#TensorFlow
#GoogleCloud

お客様が作成、管理、または使用する Google Cloud 上の TPU エンティティ。たとえば、TPU ノードTPU タイプは TPU リソースです。

TPU スライス

#TensorFlow
#GoogleCloud

TPU スライスは、TPU Pod 内の TPU デバイスの小数部分です。TPU スライス内のすべてのデバイスは、専用の高速ネットワークで相互に接続されています。

TPU タイプ

#TensorFlow
#GoogleCloud

特定の TPU ハードウェア バージョンを持つ 1 つ以上の TPU デバイスの構成。TPU タイプは、Google Cloud で TPU ノードを作成するときに選択します。たとえば、v2-8 TPU タイプは、8 コアの単一の TPU v2 デバイスです。v3-2048 TPU タイプには、256 個のネットワーク TPU v3 デバイスと合計 2,048 コアがあります。TPU タイプは、Cloud TPU API で定義されているリソースです。

TPU ワーカー

#TensorFlow
#GoogleCloud

ホストマシンで実行され、TPU デバイスで ML プログラムを実行するプロセス。