機械学習用語集: Google Cloud

このページには、Google Cloud の用語集の用語が掲載されています。用語集のすべての用語については、こちらをクリックしてください。

A

アクセラレータ チップ

#GoogleCloud

ディープ ラーニング アルゴリズムに必要な主要な計算を実行するように設計された特殊なハードウェア コンポーネントのカテゴリ。

アクセラレータ チップ(または単にアクセラレータ)は、汎用 CPU と比較して、トレーニング タスクと推論タスクの速度と効率を大幅に向上させることができます。ニューラル ネットワークのトレーニングや、同様の計算負荷の高いタスクに最適です。

アクセラレータ チップの例:

  • ディープ ラーニング専用のハードウェアを備えた Google の Tensor Processing Unit(TPU)。
  • NVIDIA の GPU。もともとはグラフィック処理用に設計されましたが、並列処理を可能にするように設計されており、処理速度を大幅に向上させることができます。

B

バッチ推論

#GoogleCloud

複数のラベルなしの例を小さなサブセット(「バッチ」)に分割して、予測を推論するプロセス。

バッチ推論では、アクセラレータ チップの並列化機能を利用できます。つまり、複数のアクセラレータがラベルなしの例の異なるバッチで同時に予測を推論できるため、1 秒あたりの推論数が大幅に増加します。

詳細については、ML 集中講座の本番環境の ML システム: 静的推論と動的推論をご覧ください。

C

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud での ML ワークロードの高速化を目的として設計された特殊なハードウェア アクセラレータ。

D

デバイス

#TensorFlow
#GoogleCloud

次の 2 つの定義が考えられるオーバーロードされた用語。

  1. CPU、GPU、TPU など、TensorFlow セッションを実行できるハードウェアのカテゴリ。
  2. アクセラレータ チップ(GPU または TPU)で ML モデルをトレーニングする場合、テンソルエンベディングを実際に操作するシステムの部分。デバイスはアクセラレータ チップで動作します。一方、ホストは通常 CPU で実行されます。

H

ホスト

#TensorFlow
#GoogleCloud

アクセラレータ チップ(GPU または TPU)で ML モデルをトレーニングする場合、次の両方を制御するシステムの一部:

  • コードの全体的なフロー。
  • 入力パイプラインの抽出と変換。

ホストは通常、アクセラレータ チップではなく CPU で実行されます。デバイスは、アクセラレータ チップ上のテンソルを操作します。

M

メッシュ

#TensorFlow
#GoogleCloud

ML 並列プログラミングで、データとモデルを TPU チップに割り当て、これらの値のシャーディングまたは複製方法を定義することに関連する用語。

メッシュは、次のいずれかを意味するオーバーロードされた用語です。

  • TPU チップの物理レイアウト。
  • データとモデルを TPU チップにマッピングするための抽象的な論理構造。

どちらの場合も、メッシュはシェイプとして指定されます。

S

シャード

#TensorFlow
#GoogleCloud

トレーニング セットまたはモデルの論理分割。通常、何らかのプロセスによって、またはパラメータを(通常は)同じサイズのチャンクに分割してシャードが作成されます。各シャードは異なるマシンに割り当てられます。

モデルのシャーディングはモデル並列処理と呼ばれ、データのシャーディングはデータ並列処理と呼ばれます。

T

TPU(Tensor Processing Unit)

#TensorFlow
#GoogleCloud

ML ワークロードのパフォーマンスを最適化する特定用途向け集積回路(ASIC)。これらの ASIC は、TPU デバイス上の複数の TPU チップとしてデプロイされます。

TPU

#TensorFlow
#GoogleCloud

Tensor Processing Unit の略語。

TPU チップ

#TensorFlow
#GoogleCloud

ML ワークロード用に最適化されたオンチップ高帯域幅メモリを備えたプログラマブル線形代数アクセラレータ。複数の TPU チップが TPU デバイスにデプロイされます。

TPU デバイス

#TensorFlow
#GoogleCloud

複数の TPU チップ、高帯域幅ネットワーク インターフェース、システム冷却ハードウェアを備えたプリント基板(PCB)。

TPU ノード

#TensorFlow
#GoogleCloud

特定の TPU タイプの Google Cloud 上の TPU リソース。TPU ノードは、ピア VPC ネットワークから VPC ネットワークに接続します。TPU ノードは、Cloud TPU API で定義されたリソースです。

TPU Pod

#TensorFlow
#GoogleCloud

Google データセンター内の TPU デバイスの特定の構成。TPU Pod 内のすべてのデバイスは、専用の高速ネットワークで相互に接続されています。TPU Pod は、特定の TPU バージョンで使用可能な TPU デバイスの最大構成です。

TPU リソース

#TensorFlow
#GoogleCloud

作成、管理、使用する Google Cloud 上の TPU エンティティ。たとえば、TPU ノードTPU タイプは TPU リソースです。

TPU スライス

#TensorFlow
#GoogleCloud

TPU スライスは、TPU Pod 内の TPU デバイスの断片的な部分です。TPU スライス内のすべてのデバイスは、専用の高速ネットワークで相互に接続されています。

TPU タイプ

#TensorFlow
#GoogleCloud

特定の TPU ハードウェア バージョンの 1 つ以上の TPU デバイスの構成。TPU タイプは、Google Cloud で TPU ノードを作成するときに選択します。たとえば、v2-8 TPU タイプは 8 個のコアを持つ単一の TPU v2 デバイスです。v3-2048 TPU タイプには、256 個のネットワーク接続された TPU v3 デバイスと合計 2,048 個のコアがあります。TPU タイプは、Cloud TPU API で定義されたリソースです。

TPU ワーカー

#TensorFlow
#GoogleCloud

ホストマシンで実行され、TPU デバイスで機械学習プログラムを実行するプロセス。

V

Vertex

#GoogleCloud
#generativeAI
AI と ML のための Google Cloud のプラットフォーム。Vertex は、Gemini モデルへのアクセスなど、AI アプリケーションの構築、デプロイ、管理のためのツールとインフラストラクチャを提供します。