머신러닝 용어집: TensorFlow

이 페이지에는 TensorFlow 용어집 용어가 포함되어 있습니다. 모든 용어집 용어를 보려면 여기를 클릭하세요.

일괄 추론

TensorFlow
#GoogleCloud

여러 라벨이 없는 예에 대한 예측을 추론하는 과정을 더 작은 하위 집합 ('배치')으로 나눕니다.

일괄 추론은 가속기 칩의 병렬 처리 기능을 활용할 수 있습니다. 즉, 여러 가속기가 라벨이 없는 예의 여러 배치에 대한 예측을 동시에 추론할 수 있어 초당 추론 수가 크게 증가합니다.

C

Cloud TPU

TensorFlow
#GoogleCloud

Google Cloud Platform에서 머신러닝 워크로드의 속도를 높이도록 설계된 특수 하드웨어 가속기입니다.

D

Dataset API (tf.data)

TensorFlow

데이터를 읽고 머신러닝 알고리즘에 필요한 형식으로 변환하는 상위 TensorFlow API입니다. tf.data.Dataset 객체는 요소의 시퀀스를 나타내며, 각 요소에는 하나 이상의 텐서가 포함됩니다. tf.data.Iterator 객체를 사용하여 Dataset의 요소에 액세스할 수 있습니다.

Dataset API에 관한 자세한 내용은 TensorFlow 프로그래머 가이드tf.data: TensorFlow 입력 파이프라인 빌드를 참조하세요.

기기

TensorFlow
#GoogleCloud

다음과 같은 두 가지 가능한 정의가 포함된 오버로드된 용어입니다.

  1. CPU, GPU, TPU 등 TensorFlow 세션을 실행할 수 있는 하드웨어 카테고리입니다.
  2. 액셀러레이터 칩(GPU 또는 TPU)에서 ML 모델을 학습시킬 때 텐서임베딩을 실제로 조작하는 시스템 부분입니다. 기기가 액셀러레이터 칩에서 실행됩니다. 반면에 호스트는 일반적으로 CPU에서 실행됩니다.

E

즉시 실행

TensorFlow

작업이 즉시 실행되는 TensorFlow 프로그래밍 환경입니다. 반면에 그래프 실행에서 호출되는 작업은 명시적으로 평가될 때까지 실행되지 않습니다. 즉시 실행은 대부분의 프로그래밍 언어로 된 코드와 마찬가지로 명령형 인터페이스입니다. 즉시 실행 프로그램은 일반적으로 그래프 실행 프로그램보다 디버그하기 훨씬 쉽습니다.

에스티메이터

TensorFlow

지원 중단된 TensorFlow API입니다. 에스티메이터 대신 tf.keras를 사용합니다.

F

특성 추출

#fundamentals
TensorFlow

다음 단계를 포함하는 프로세스입니다.

  1. 모델 학습에 유용할 수 있는 특성 결정
  2. 데이터 세트의 원시 데이터를 이러한 특성의 효율적인 버전으로 변환합니다.

예를 들어 temperature가 유용한 특성일 수 있다고 판단할 수 있습니다. 그런 다음 버케팅을 실험하여 모델이 다양한 temperature 범위에서 학습할 수 있는 대상을 최적화할 수 있습니다.

특성 추출을 특성 추출이라고도 합니다.

특성 사양

TensorFlow

tf.Example 프로토콜 버퍼에서 features 데이터를 추출하는 데 필요한 정보를 설명합니다. tf.Example 프로토콜 버퍼는 데이터의 컨테이너일 뿐이므로 다음과 같이 지정해야 합니다.

  • 추출할 데이터 (특성의 키)
  • 데이터 유형 (예: float 또는 int)
  • 길이 (고정 또는 가변)

G

그래프

TensorFlow

TensorFlow에서 계산 사양 그래프의 노드는 작업을 나타냅니다. 가장자리는 방향성을 가지며, 연산의 결과 (텐서)를 다른 연산의 피연산자로 전달함을 나타냅니다. 텐서보드를 사용하여 그래프를 시각화합니다.

그래프 실행

TensorFlow

프로그램에서 그래프를 구성한 다음 그래프의 전체 또는 일부를 실행하는 TensorFlow 프로그래밍 환경입니다. 그래프 실행은 TensorFlow 1.x의 기본 실행 모드입니다.

즉시 실행과 대비되는 개념입니다.

H

호스트

TensorFlow
#GoogleCloud

가속기 칩(GPU 또는 TPU)에서 ML 모델을 학습시킬 때 다음 두 가지 모두를 제어하는 시스템 부분입니다.

  • 코드의 전체 흐름
  • 입력 파이프라인의 추출 및 변환

호스트는 일반적으로 가속기 칩이 아닌 CPU에서 실행됩니다. 기기는 가속기 칩의 텐서를 조작합니다.

L

레이어 API (tf.layers)

TensorFlow

레이어 구성으로 심층 신경망을 구성하기 위한 TensorFlow API. 레이어 API를 사용하면 다음과 같은 다양한 유형의 레이어를 만들 수 있습니다.

레이어 API는 Keras 레이어 API 규칙을 따릅니다. 즉, Layers API의 모든 함수는 다른 프리픽스를 제외하고 Keras Layers API의 함수와 동일한 이름과 서명을 갖습니다.

M

메시

TensorFlow
#GoogleCloud

ML 병렬 프로그래밍에서 TPU 칩에 데이터 및 모델 할당, 이러한 값의 샤딩 또는 복제 방식 정의와 관련된 용어입니다.

메시는 다음 중 하나를 의미할 수 있는 오버로드된 용어입니다.

  • TPU 칩의 실제 레이아웃
  • 데이터 및 모델을 TPU 칩에 매핑하기 위한 추상 논리 구조입니다.

두 경우 모두 메시는 도형으로 지정됩니다.

측정항목

TensorFlow

중요하게 생각하는 통계입니다.

목표는 머신러닝 시스템에서 최적화하려는 측정항목입니다.

구매 불가

노드 (TensorFlow 그래프)

TensorFlow

TensorFlow 그래프의 작업입니다.

O

연산 (op)

TensorFlow

TensorFlow에서 텐서를 만들거나 조작하거나 삭제하는 모든 절차입니다. 예를 들어 행렬 곱셈은 텐서 2개를 입력으로 사용하고 텐서 하나를 출력으로 생성하는 작업입니다.

P

매개변수 서버 (PS)

TensorFlow

모델의 매개변수를 분산 설정에서 추적하는 작업입니다.

Q

현재 재생목록

TensorFlow

대기열 데이터 구조를 구현하는 TensorFlow 작업입니다. 일반적으로 I/O에서 사용됩니다.

오른쪽

rank (텐서)

TensorFlow

텐서의 차원 수입니다. 예를 들어 스칼라의 순위는 0이고, 벡터의 순위는 1이고, 행렬의 순위는 2입니다.

순위 (순서수)와 혼동해서는 안 됩니다.

루트 디렉터리

TensorFlow

여러 모델의 TensorFlow 체크포인트 및 이벤트 파일의 하위 디렉터리를 호스팅하기 위해 지정하는 디렉터리입니다.

S

저장된 모델

TensorFlow

TensorFlow 모델을 저장하고 복구하는 데 권장되는 형식입니다. SavedModel은 언어 중립적이며 복구 가능한 직렬화 형식으로서 상위 수준의 시스템과 도구가 TensorFlow 모델을 생성, 소비, 변환할 수 있게 해줍니다.

자세한 내용은 TensorFlow 프로그래머 가이드에서 저장 및 복원 챕터를 참조하세요.

알뜰

TensorFlow

모델 체크포인트 저장을 담당하는 TensorFlow 객체입니다.

샤드

TensorFlow
#GoogleCloud

학습 세트 또는 모델의 논리적 구분 일반적으로 일부 프로세스는 예시 또는 매개변수를 (일반적으로) 같은 크기의 청크로 나눠서 샤드를 만듭니다. 그런 다음 각 샤드는 다른 머신에 할당됩니다.

모델을 샤딩하는 것을 모델 동시 로드라고 하며 데이터 샤딩을 데이터 동시 로드라고 합니다.

요약

TensorFlow

TensorFlow에서는 특정 단계에 계산된 값 또는 값 집합을 의미하며, 일반적으로 학습 중에 모델 측정항목을 추적하는 데 사용됩니다.

T

텐서

TensorFlow

TensorFlow 프로그램의 기본 데이터 구조 텐서는 N차원 데이터 구조이며, N이 매우 클 수 있으며, 가장 일반적으로 스칼라, 벡터, 행렬로 구성됩니다. 텐서의 요소는 정수, 부동 소수점 또는 문자열 값을 포함할 수 있습니다.

텐서보드

TensorFlow

하나 이상의 TensorFlow 프로그램을 실행하는 중에 저장된 요약을 표시하는 대시보드입니다.

TensorFlow

TensorFlow

대규모 분산형 머신러닝 플랫폼 이 용어는 TensorFlow 그래프에서 일반적인 계산을 지원하는 TensorFlow 스택의 기본 API 레이어를 지칭하기도 합니다.

TensorFlow는 주로 머신러닝에 사용되지만, Dataflow 그래프를 사용하여 수치 연산이 필요한 ML 외 작업에도 TensorFlow를 사용할 수 있습니다.

TensorFlow Playground

TensorFlow

다양한 초매개변수가 모델(주로 신경망) 학습에 주는 영향을 시각적으로 보여주는 프로그램입니다. TensorFlow Playground로 실험해 보려면 http://playground.tensorflow.org로 이동하세요.

TensorFlow Serving

TensorFlow

학습된 모델을 프로덕션에 배포하기 위한 플랫폼

Tensor Processing Unit(TPU)

TensorFlow
#GoogleCloud

머신러닝 워크로드의 성능을 최적화하는 ASIC (Application-Specific Integrated Circuit)입니다. 이러한 ASIC는 TPU 기기에 여러 TPU 칩으로 배포됩니다.

텐서 순위

TensorFlow

순위 (텐서)를 참조하세요.

텐서 형태

TensorFlow

텐서가 다양한 차원에 포함된 요소의 수입니다. 예를 들어 [5, 10] 텐서의 형태는 한 차원에서 5, 다른 차원에서 10입니다.

텐서 크기

TensorFlow

텐서가 포함하는 스칼라의 총 개수입니다. 예를 들어 [5, 10] 텐서의 크기는 50입니다.

tf.Example

TensorFlow

머신러닝 모델 학습 또는 추론용 입력 데이터를 설명하는 표준 프로토콜 버퍼입니다.

tf.keras

TensorFlow

TensorFlow에 통합된 Keras 구현

TPU

TensorFlow
#GoogleCloud

Tensor Processing Unit(약속 처리 장치)의 약어입니다.

TPU 칩

TensorFlow
#GoogleCloud

머신러닝 워크로드에 최적화된 온칩 고대역폭 메모리를 사용하는 프로그래밍 가능한 선형 대수 액셀러레이터입니다. 여러 TPU 칩이 TPU 기기에 배포됩니다.

TPU 기기

TensorFlow
#GoogleCloud

여러 TPU 칩, 고대역폭 네트워크 인터페이스, 시스템 냉각 하드웨어가 포함된 인쇄 회로 기판 (PCB)입니다.

TPU 마스터

TensorFlow
#GoogleCloud

데이터, 결과, 프로그램, 성능 및 시스템 상태 정보를 TPU 작업자에게 송수신하는 호스트 머신에서 실행되는 중앙 조정 프로세스입니다. TPU 마스터는 TPU 기기의 설정 및 종료도 관리합니다.

TPU 노드

TensorFlow
#GoogleCloud

특정 TPU 유형의 Google Cloud Platform TPU 리소스. TPU 노드는 피어 VPC 네트워크에서 VPC 네트워크에 연결됩니다. TPU 노드는 Cloud TPU API에 정의된 리소스입니다.

TPU Pod

TensorFlow
#GoogleCloud

Google 데이터 센터의 TPU 기기 특정 구성 TPU 포드의 모든 기기는 전용 고속 네트워크를 통해 상호 연결됩니다. TPU 포드는 특정 TPU 버전에 사용할 수 있는 가장 큰 TPU 기기 구성입니다.

TPU 리소스

TensorFlow
#GoogleCloud

사용자가 만들거나 관리하거나 사용하는 Google Cloud Platform의 TPU 항목입니다. 예를 들어 TPU 노드TPU 유형은 TPU 리소스입니다.

TPU 슬라이스

TensorFlow
#GoogleCloud

TPU 슬라이스는 TPU 포드에 있는 TPU 기기의 작은 부분입니다. TPU 슬라이스의 모든 기기는 전용 고속 네트워크를 통해 상호 연결됩니다.

TPU 유형

TensorFlow
#GoogleCloud

특정 TPU 하드웨어 버전이 있는 하나 이상의 TPU 기기 구성 Google Cloud Platform에서 TPU 노드를 만들 때 TPU 유형을 선택합니다. 예를 들어 v2-8 TPU 유형은 코어 8개가 있는 단일 TPU v2 기기입니다. v3-2048 TPU 유형에는 256개의 네트워크 TPU v3 기기가 있으며 총 2,048개의 코어가 있습니다. TPU 유형은 Cloud TPU API에 정의된 리소스입니다.

TPU 작업자

TensorFlow
#GoogleCloud

호스트 머신에서 실행되고 TPU 기기에서 머신러닝 프로그램을 실행하는 프로세스입니다.