이 페이지에는 TensorFlow 용어집 용어가 포함되어 있습니다. 모든 용어집 용어는 여기를 클릭하세요.
B
일괄 추론
더 작은 하위 집합 ('배치')으로 나눈 여러 라벨이 지정되지 않은 예시에 대한 예측을 추론하는 프로세스입니다.
일괄 추론은 가속기 칩의 병렬 처리 기능을 활용할 수 있습니다. 즉, 여러 가속기가 라벨이 지정되지 않은 여러 예시의 일괄 예측을 동시에 추론하여 초당 추론 수를 크게 늘릴 수 있습니다.
자세한 내용은 머신러닝 단기집중과정의 프로덕션 ML 시스템: 정적 추론과 동적 추론 비교를 참고하세요.
C
Cloud TPU
Google Cloud에서 머신러닝 워크로드 속도를 높이도록 설계된 특수 하드웨어 가속기입니다.
D
Dataset API (tf.data)
데이터를 읽고 머신러닝 알고리즘이 요구하는 형태로 변환하는 상위 수준의 TensorFlow API입니다.
tf.data.Dataset
객체는 요소 시퀀스를 나타내며, 각 요소는 하나 이상의 텐서를 포함합니다. tf.data.Iterator
객체는 Dataset
의 요소에 대한 액세스 권한을 제공합니다.
기기
다음 두 가지 정의가 가능한 중복 정의된 용어입니다.
- CPU, GPU, TPU 등 TensorFlow 세션을 실행할 수 있는 하드웨어 카테고리입니다.
- 가속기 칩(GPU 또는 TPU)에서 ML 모델을 학습할 때 텐서 및 임베딩을 실제로 조작하는 시스템의 일부입니다. 기기는 가속기 칩에서 실행됩니다. 반면에 호스트는 일반적으로 CPU에서 실행됩니다.
E
즉시 실행
작업이 즉시 실행되는 TensorFlow 프로그래밍 환경입니다. 반대로 지연 실행에서 호출되는 작업은 명시적으로 평가될 때까지 실행되지 않습니다. 즉시 실행은 대부분의 프로그래밍 언어로 된 코드와 마찬가지로 명령형 인터페이스입니다. 즉시 실행 프로그램은 일반적으로 그래프 실행 프로그램보다 훨씬 쉽게 디버깅됩니다.
에스티메이터
지원 중단된 TensorFlow API입니다. 에스티메이터 대신 tf.keras를 사용하세요.
F
특성 추출 단계를 포함합니다
다음 단계를 포함하는 프로세스입니다.
- 모델을 학습시키는 데 유용할 특성을 결정합니다.
- 데이터 세트의 원시 데이터를 이러한 기능의 효율적인 버전으로 변환합니다.
예를 들어 temperature
가 유용한 기능일 수 있다고 판단할 수 있습니다. 그런 다음 버케팅을 실험하여 모델이 다양한 temperature
범위에서 학습할 수 있는 내용을 최적화할 수 있습니다.
자세한 내용은 머신러닝 단기집중과정에서 숫자 데이터: 모델이 특성 벡터를 사용하여 데이터를 처리하는 방법을 참고하세요.
특성 사양
tf.Example 프로토콜 버퍼에서 기능 데이터를 추출하는 데 필요한 정보를 설명합니다. tf.Example 프로토콜 버퍼는 데이터의 컨테이너일 뿐이므로 다음을 지정해야 합니다.
- 추출할 데이터 (즉, 지형지물의 키)
- 데이터 유형 (예: 부동 소수점 수 또는 정수)
- 길이 (고정 또는 가변)
G
그래프
TensorFlow에서는 계산 사양을 의미합니다. 그래프의 노드는 작업을 나타냅니다. 가장자리는 방향성을 가지며, 연산의 결과 (Tensor)를 다른 연산의 피연산자로 전달함을 나타냅니다. TensorBoard를 사용하여 그래프를 시각화할 수 있습니다.
그래프 실행
프로그램에서 그래프를 구성한 다음 그래프의 전체 또는 일부를 실행하는 TensorFlow 프로그래밍 환경입니다. 지연 실행은 TensorFlow 1.x의 기본 실행 모드입니다.
즉시 실행과 대비되는 개념입니다.
H
호스트
가속기 칩(GPU 또는 TPU)에서 ML 모델을 학습할 때 다음 두 가지를 모두 제어하는 시스템의 일부입니다.
- 코드의 전반적인 흐름입니다.
- 입력 파이프라인의 추출 및 변환
호스트는 일반적으로 액셀러레이터 칩이 아닌 CPU에서 실행됩니다. 기기는 액셀러레이터 칩에서 텐서를 조작합니다.
L
레이어 API(Layers API)(tf.layers)
여러 레이어를 조합하여 심층신경망을 구축하는 TensorFlow API입니다. 레이어 API를 사용하면 다음과 같은 다양한 유형의 레이어를 만들 수 있습니다.
tf.layers.Dense
- 완전 연결 레이어tf.layers.Conv2D
- 컨볼루션 레이어
레이어 API는 Keras 레이어 API 규약을 따릅니다. 즉, 접두사가 다르다는 점을 제외하고 Layers API의 모든 함수는 Keras Layers API의 해당 함수와 동일한 이름과 서명을 갖습니다.
M
메시
ML 병렬 프로그래밍에서 데이터와 모델을 TPU 칩에 할당하고 이러한 값을 샤딩하거나 복제하는 방법을 정의하는 것과 관련된 용어입니다.
메시는 중복으로 정의된 용어로서 다음 중 하나를 의미할 수 있습니다.
- TPU 칩의 물리적 레이아웃입니다.
- 데이터와 모델을 TPU 칩에 매핑하기 위한 추상적인 논리적 구성입니다.
두 경우 모두 메시는 셰이프로 지정됩니다.
측정항목
중요한 의미가 있는 통계입니다.
목표는 머신러닝 시스템에서 최적화하려는 측정항목입니다.
N
노드(node)(TensorFlow 그래프)
TensorFlow 그래프의 연산
O
작업 (op)
TensorFlow에서는 Tensor를 만들거나 조작하거나 삭제하는 모든 절차를 작업으로 간주합니다. 예를 들어 행렬 곱셈은 두 개의 텐서를 입력으로 취하고 하나의 텐서를 출력으로 생성하는 연산입니다.
P
매개변수 서버 (PS)
모델의 매개변수를 분산형 환경에서 추적하는 작업입니다.
Q
큐
대기열 데이터 구조를 구현하는 TensorFlow 작업입니다. 일반적으로 I/O에 사용됩니다.
R
순위 (rank, 텐서)
Tensor의 차원 수입니다. 예를 들어 스칼라의 순위는 0이고, 벡터의 순위는 1이고, 행렬의 순위는 2입니다.
순위 (순서수)와 혼동하지 마시기 바랍니다.
루트 디렉터리
여러 모델의 TensorFlow 체크포인트 및 이벤트 파일의 하위 디렉터리를 호스팅하도록 지정된 디렉터리입니다.
S
저장된 모델
TensorFlow 모델을 저장하고 복구하는 데 권장되는 형식입니다. 저장된 모델은 언어 중립적이며 복구 가능한 직렬화 형식으로서 상위 수준의 시스템 및 도구에서 TensorFlow 모델을 생성, 사용 및 변환하도록 지원합니다.
자세한 내용은 TensorFlow 프로그래머 가이드의 저장 및 복원 섹션을 참고하세요.
알뜰
모델 체크포인트 저장을 담당하는 TensorFlow 객체입니다.
샤드
학습 세트 또는 모델의 논리적 구분입니다. 일반적으로 일부 프로세스는 예시 또는 매개변수를 일반적으로 동일한 크기의 청크로 나누어 샤드를 만듭니다. 그런 다음 각 샤드가 다른 머신에 할당됩니다.
모델을 샤딩하는 것을 모델 병렬 처리라고 하며, 데이터를 샤딩하는 것을 데이터 병렬 처리라고 합니다.
요약
TensorFlow에서는 특정 단계에 계산된 값 또는 값 집합을 의미하며, 일반적으로 학습 중에 모델 측정항목을 추적하는 데 사용됩니다.
T
텐서
TensorFlow 프로그램의 기본 데이터 구조입니다. 텐서는 N차원(N이 매우 클 수 있음) 데이터 구조로, 일반적으로 스칼라, 벡터 또는 행렬입니다. 텐서의 요소는 정수, 부동 소수점 또는 문자열 값을 포함할 수 있습니다.
텐서보드
하나 이상의 TensorFlow 프로그램을 실행하는 중에 저장된 요약을 표시하는 대시보드입니다.
TensorFlow
대규모 분산형 머신러닝 플랫폼입니다. 이 용어는 데이터 흐름 그래프에서 일반적인 계산을 지원하는 TensorFlow 스택의 기본 API 레이어를 가리키기도 합니다.
TensorFlow는 주로 머신러닝에 사용되지만 데이터 흐름 그래프를 사용한 수치 계산이 필요한 비 ML 작업에도 TensorFlow를 사용할 수 있습니다.
TensorFlow Playground
다양한 초매개변수가 모델(주로 신경망) 학습에 주는 영향을 시각적으로 보여주는 프로그램입니다. TensorFlow Playground로 실험해 보려면 http://playground.tensorflow.org로 이동하세요.
TensorFlow Serving
학습된 모델을 프로덕션 환경에 배포하는 플랫폼입니다.
Tensor Processing Unit(TPU)
머신러닝 워크로드의 성능을 최적화하는 ASIC (Application-Specific Integrated Circuit)입니다. 이러한 ASIC는 TPU 기기에 여러 개의 TPU 칩으로 배포됩니다.
텐서 차수
순위 (텐서)를 참고하세요.
텐서 모양
Tensor가 여러 차원에 포함하는 요소 수입니다.
예를 들어 [5, 10]
텐서의 한 측정기준의 모양은 5이고 다른 측정기준의 모양은 10입니다.
텐서 크기
Tensor가 포함하는 스칼라의 총 개수입니다. 예를 들어 [5, 10]
텐서의 크기는 50입니다.
tf.Example
머신러닝 모델 학습 또는 추론을 위한 입력 데이터를 설명하는 표준 프로토콜 버퍼입니다.
tf.keras
TensorFlow에 통합된 Keras 구현입니다.
TPU
Tensor Processing Unit의 약어입니다.
TPU 칩
머신러닝 워크로드에 최적화된 온칩 고대역폭 메모리가 있는 프로그래밍 가능한 선형 대수 액셀러레이터입니다. 여러 TPU 칩이 TPU 기기에 배포됩니다.
TPU 기기
여러 개의 TPU 칩, 고대역폭 네트워크 인터페이스, 시스템 냉각 하드웨어가 있는 인쇄 회로 기판 (PCB)입니다.
TPU 마스터
데이터, 결과, 프로그램, 성능, 시스템 상태 정보를 TPU 워커로 전송하고 수신하는 호스트 머신에서 실행되는 중앙 조정 프로세스입니다. TPU 마스터는 TPU 기기의 설정 및 종료도 관리합니다.
TPU 노드
특정 TPU 유형이 있는 Google Cloud의 TPU 리소스입니다. TPU 노드는 피어 VPC 네트워크에서 VPC 네트워크에 연결됩니다. TPU 노드는 Cloud TPU API에 정의된 리소스입니다.
TPU Pod
Google 데이터 센터의 TPU 기기의 특정 구성입니다. TPU Pod의 모든 기기는 전용 고속 네트워크를 통해 서로 연결됩니다. TPU Pod는 특정 TPU 버전에서 사용할 수 있는 가장 큰 규모의 TPU 기기 구성입니다.
TPU 리소스
사용자가 만들거나, 관리하거나, 소비하는 Google Cloud의 TPU 항목입니다. 예를 들어 TPU 노드 및 TPU 유형은 TPU 리소스입니다.
TPU 슬라이스
TPU 슬라이스는 TPU Pod의 TPU 기기 중 일부입니다. TPU 슬라이스의 모든 기기는 전용 고속 네트워크를 통해 서로 연결됩니다.
TPU 유형
특정 TPU 하드웨어 버전으로 구성된 하나 이상의 TPU 기기입니다. Google Cloud에서 TPU 노드를 만들 때 TPU 유형을 선택합니다. 예를 들어 v2-8
TPU 유형은 코어가 8개인 단일 TPU v2 기기입니다. v3-2048
TPU 유형에는 네트워크 연결된 TPU v3 기기 256대와 총 2,048개의 코어가 있습니다. TPU 유형은 Cloud TPU API에 정의된 리소스입니다.
TPU 워커
호스트 머신에서 실행되고 TPU 기기에서 머신러닝 프로그램을 실행하는 프로세스입니다.