이 페이지에는 Google Cloud 용어집 용어가 포함되어 있습니다. 모든 용어집 용어는 여기를 클릭하세요.
A
가속기 칩
딥 러닝 알고리즘에 필요한 주요 연산을 실행하도록 설계된 특수 하드웨어 구성요소의 카테고리입니다.
가속기 칩 (줄여서 가속기)은 범용 CPU에 비해 학습 및 추론 작업의 속도와 효율성을 크게 높일 수 있습니다. 이는 신경망 학습 및 유사한 계산 집약적인 작업에 이상적입니다.
가속기 칩의 예는 다음과 같습니다.
- 심층 학습을 위한 전용 하드웨어가 포함된 Google의 Tensor Processing Unit (TPU)
- NVIDIA의 GPU는 원래 그래픽 처리용으로 설계되었지만 병렬 처리를 지원하도록 설계되어 처리 속도를 크게 높일 수 있습니다.
B
일괄 추론
더 작은 하위 집합 ('배치')으로 나눈 여러 라벨이 지정되지 않은 예시에 대한 예측을 추론하는 프로세스입니다.
일괄 추론은 가속기 칩의 병렬 처리 기능을 활용할 수 있습니다. 즉, 여러 가속기가 라벨이 지정되지 않은 여러 예시의 일괄 예측을 동시에 추론하여 초당 추론 수를 크게 늘릴 수 있습니다.
자세한 내용은 머신러닝 단기집중과정의 프로덕션 ML 시스템: 정적 추론과 동적 추론 비교를 참고하세요.
C
Cloud TPU
Google Cloud에서 머신러닝 워크로드 속도를 높이도록 설계된 특수 하드웨어 가속기입니다.
D
기기
다음 두 가지 정의가 가능한 중복 정의된 용어입니다.
- CPU, GPU, TPU 등 TensorFlow 세션을 실행할 수 있는 하드웨어 카테고리입니다.
- 가속기 칩(GPU 또는 TPU)에서 ML 모델을 학습할 때 텐서 및 임베딩을 실제로 조작하는 시스템의 일부입니다. 기기는 가속기 칩에서 실행됩니다. 반면에 호스트는 일반적으로 CPU에서 실행됩니다.
H
호스트
가속기 칩(GPU 또는 TPU)에서 ML 모델을 학습할 때 다음 두 가지를 모두 제어하는 시스템의 일부입니다.
- 코드의 전반적인 흐름입니다.
- 입력 파이프라인의 추출 및 변환
호스트는 일반적으로 액셀러레이터 칩이 아닌 CPU에서 실행됩니다. 기기는 액셀러레이터 칩에서 텐서를 조작합니다.
M
메시
ML 병렬 프로그래밍에서 데이터와 모델을 TPU 칩에 할당하고 이러한 값을 샤딩하거나 복제하는 방법을 정의하는 것과 관련된 용어입니다.
메시는 중복으로 정의된 용어로서 다음 중 하나를 의미할 수 있습니다.
- TPU 칩의 물리적 레이아웃입니다.
- 데이터와 모델을 TPU 칩에 매핑하기 위한 추상적인 논리적 구성입니다.
두 경우 모두 메시는 셰이프로 지정됩니다.
S
샤드
학습 세트 또는 모델의 논리적 구분입니다. 일반적으로 일부 프로세스는 예시 또는 매개변수를 일반적으로 동일한 크기의 청크로 나누어 샤드를 만듭니다. 그런 다음 각 샤드가 다른 머신에 할당됩니다.
모델을 샤딩하는 것을 모델 병렬 처리라고 하며, 데이터를 샤딩하는 것을 데이터 병렬 처리라고 합니다.
T
Tensor Processing Unit(TPU)
머신러닝 워크로드의 성능을 최적화하는 ASIC (Application-Specific Integrated Circuit)입니다. 이러한 ASIC는 TPU 기기에 여러 개의 TPU 칩으로 배포됩니다.
TPU
Tensor Processing Unit의 약어입니다.
TPU 칩
머신러닝 워크로드에 최적화된 온칩 고대역폭 메모리가 있는 프로그래밍 가능한 선형 대수 액셀러레이터입니다. 여러 TPU 칩이 TPU 기기에 배포됩니다.
TPU 기기
여러 개의 TPU 칩, 고대역폭 네트워크 인터페이스, 시스템 냉각 하드웨어가 있는 인쇄 회로 기판 (PCB)입니다.
TPU 마스터
데이터, 결과, 프로그램, 성능, 시스템 상태 정보를 TPU 워커로 전송하고 수신하는 호스트 머신에서 실행되는 중앙 조정 프로세스입니다. TPU 마스터는 TPU 기기의 설정 및 종료도 관리합니다.
TPU 노드
특정 TPU 유형이 있는 Google Cloud의 TPU 리소스입니다. TPU 노드는 피어 VPC 네트워크에서 VPC 네트워크에 연결됩니다. TPU 노드는 Cloud TPU API에 정의된 리소스입니다.
TPU Pod
Google 데이터 센터의 TPU 기기의 특정 구성입니다. TPU Pod의 모든 기기는 전용 고속 네트워크를 통해 서로 연결됩니다. TPU Pod는 특정 TPU 버전에서 사용할 수 있는 가장 큰 규모의 TPU 기기 구성입니다.
TPU 리소스
사용자가 만들거나, 관리하거나, 소비하는 Google Cloud의 TPU 항목입니다. 예를 들어 TPU 노드 및 TPU 유형은 TPU 리소스입니다.
TPU 슬라이스
TPU 슬라이스는 TPU Pod의 TPU 기기 중 일부입니다. TPU 슬라이스의 모든 기기는 전용 고속 네트워크를 통해 서로 연결됩니다.
TPU 유형
특정 TPU 하드웨어 버전으로 구성된 하나 이상의 TPU 기기입니다. Google Cloud에서 TPU 노드를 만들 때 TPU 유형을 선택합니다. 예를 들어 v2-8
TPU 유형은 코어가 8개인 단일 TPU v2 기기입니다. v3-2048
TPU 유형에는 네트워크 연결된 TPU v3 기기 256대와 총 2,048개의 코어가 있습니다. TPU 유형은 Cloud TPU API에 정의된 리소스입니다.
TPU 워커
호스트 머신에서 실행되고 TPU 기기에서 머신러닝 프로그램을 실행하는 프로세스입니다.