머신러닝 용어집: TensorFlow

이 페이지에는 TensorFlow 용어집 용어가 포함되어 있습니다. 모든 용어집 용어는 여기를 클릭하세요.

B

일괄 추론

#TensorFlow
#GoogleCloud

더 작은 하위 집합 ('배치')으로 나눈 여러 라벨이 지정되지 않은 예시에 대한 예측을 추론하는 프로세스입니다.

일괄 추론은 가속기 칩의 병렬 처리 기능을 활용할 수 있습니다. 즉, 여러 가속기가 라벨이 지정되지 않은 여러 예시의 일괄 예측을 동시에 추론하여 초당 추론 수를 크게 늘릴 수 있습니다.

자세한 내용은 머신러닝 단기집중과정의 프로덕션 ML 시스템: 정적 추론과 동적 추론 비교를 참고하세요.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud에서 머신러닝 워크로드 속도를 높이도록 설계된 특수 하드웨어 가속기입니다.

D

Dataset API (tf.data)

#TensorFlow

데이터를 읽고 머신러닝 알고리즘이 요구하는 형태로 변환하는 상위 수준의 TensorFlow API입니다. tf.data.Dataset 객체는 요소 시퀀스를 나타내며, 각 요소는 하나 이상의 텐서를 포함합니다. tf.data.Iterator 객체는 Dataset의 요소에 대한 액세스 권한을 제공합니다.

기기

#TensorFlow
#GoogleCloud

다음 두 가지 정의가 가능한 중복 정의된 용어입니다.

  1. CPU, GPU, TPU 등 TensorFlow 세션을 실행할 수 있는 하드웨어 카테고리입니다.
  2. 가속기 칩(GPU 또는 TPU)에서 ML 모델을 학습할 때 텐서임베딩을 실제로 조작하는 시스템의 일부입니다. 기기는 가속기 칩에서 실행됩니다. 반면에 호스트는 일반적으로 CPU에서 실행됩니다.

E

즉시 실행

#TensorFlow

작업이 즉시 실행되는 TensorFlow 프로그래밍 환경입니다. 반대로 지연 실행에서 호출되는 작업은 명시적으로 평가될 때까지 실행되지 않습니다. 즉시 실행은 대부분의 프로그래밍 언어로 된 코드와 마찬가지로 명령형 인터페이스입니다. 즉시 실행 프로그램은 일반적으로 그래프 실행 프로그램보다 훨씬 쉽게 디버깅됩니다.

에스티메이터

#TensorFlow

지원 중단된 TensorFlow API입니다. 에스티메이터 대신 tf.keras를 사용하세요.

F

특성 추출 단계를 포함합니다

#fundamentals
#TensorFlow

다음 단계를 포함하는 프로세스입니다.

  1. 모델을 학습시키는 데 유용할 특성을 결정합니다.
  2. 데이터 세트의 원시 데이터를 이러한 기능의 효율적인 버전으로 변환합니다.

예를 들어 temperature가 유용한 기능일 수 있다고 판단할 수 있습니다. 그런 다음 버케팅을 실험하여 모델이 다양한 temperature 범위에서 학습할 수 있는 내용을 최적화할 수 있습니다.

특성 추출을 특징 추출 또는 특성화라고도 합니다.

자세한 내용은 머신러닝 단기집중과정에서 숫자 데이터: 모델이 특성 벡터를 사용하여 데이터를 처리하는 방법을 참고하세요.

특성 사양

#TensorFlow

tf.Example 프로토콜 버퍼에서 기능 데이터를 추출하는 데 필요한 정보를 설명합니다. tf.Example 프로토콜 버퍼는 데이터의 컨테이너일 뿐이므로 다음을 지정해야 합니다.

  • 추출할 데이터 (즉, 지형지물의 키)
  • 데이터 유형 (예: 부동 소수점 수 또는 정수)
  • 길이 (고정 또는 가변)

G

그래프

#TensorFlow

TensorFlow에서는 계산 사양을 의미합니다. 그래프의 노드는 작업을 나타냅니다. 가장자리는 방향성을 가지며, 연산의 결과 (Tensor)를 다른 연산의 피연산자로 전달함을 나타냅니다. TensorBoard를 사용하여 그래프를 시각화할 수 있습니다.

그래프 실행

#TensorFlow

프로그램에서 그래프를 구성한 다음 그래프의 전체 또는 일부를 실행하는 TensorFlow 프로그래밍 환경입니다. 지연 실행은 TensorFlow 1.x의 기본 실행 모드입니다.

즉시 실행과 대비되는 개념입니다.

H

호스트

#TensorFlow
#GoogleCloud

가속기 칩(GPU 또는 TPU)에서 ML 모델을 학습할 때 다음 두 가지를 모두 제어하는 시스템의 일부입니다.

  • 코드의 전반적인 흐름입니다.
  • 입력 파이프라인의 추출 및 변환

호스트는 일반적으로 액셀러레이터 칩이 아닌 CPU에서 실행됩니다. 기기는 액셀러레이터 칩에서 텐서를 조작합니다.

L

레이어 API(Layers API)(tf.layers)

#TensorFlow

여러 레이어를 조합하여 심층신경망을 구축하는 TensorFlow API입니다. 레이어 API를 사용하면 다음과 같은 다양한 유형의 레이어를 만들 수 있습니다.

레이어 API는 Keras 레이어 API 규약을 따릅니다. 즉, 접두사가 다르다는 점을 제외하고 Layers API의 모든 함수는 Keras Layers API의 해당 함수와 동일한 이름과 서명을 갖습니다.

M

메시

#TensorFlow
#GoogleCloud

ML 병렬 프로그래밍에서 데이터와 모델을 TPU 칩에 할당하고 이러한 값을 샤딩하거나 복제하는 방법을 정의하는 것과 관련된 용어입니다.

메시는 중복으로 정의된 용어로서 다음 중 하나를 의미할 수 있습니다.

  • TPU 칩의 물리적 레이아웃입니다.
  • 데이터와 모델을 TPU 칩에 매핑하기 위한 추상적인 논리적 구성입니다.

두 경우 모두 메시는 셰이프로 지정됩니다.

측정항목

#TensorFlow

중요한 의미가 있는 통계입니다.

목표는 머신러닝 시스템에서 최적화하려는 측정항목입니다.

N

노드(node)(TensorFlow 그래프)

#TensorFlow

TensorFlow 그래프의 연산

O

작업 (op)

#TensorFlow

TensorFlow에서는 Tensor를 만들거나 조작하거나 삭제하는 모든 절차를 작업으로 간주합니다. 예를 들어 행렬 곱셈은 두 개의 텐서를 입력으로 취하고 하나의 텐서를 출력으로 생성하는 연산입니다.

P

매개변수 서버 (PS)

#TensorFlow

모델의 매개변수를 분산형 환경에서 추적하는 작업입니다.

Q

#TensorFlow

대기열 데이터 구조를 구현하는 TensorFlow 작업입니다. 일반적으로 I/O에 사용됩니다.

R

순위 (rank, 텐서)

#TensorFlow

Tensor의 차원 수입니다. 예를 들어 스칼라의 순위는 0이고, 벡터의 순위는 1이고, 행렬의 순위는 2입니다.

순위 (순서수)와 혼동하지 마시기 바랍니다.

루트 디렉터리

#TensorFlow

여러 모델의 TensorFlow 체크포인트 및 이벤트 파일의 하위 디렉터리를 호스팅하도록 지정된 디렉터리입니다.

S

저장된 모델

#TensorFlow

TensorFlow 모델을 저장하고 복구하는 데 권장되는 형식입니다. 저장된 모델은 언어 중립적이며 복구 가능한 직렬화 형식으로서 상위 수준의 시스템 및 도구에서 TensorFlow 모델을 생성, 사용 및 변환하도록 지원합니다.

자세한 내용은 TensorFlow 프로그래머 가이드의 저장 및 복원 섹션을 참고하세요.

알뜰

#TensorFlow

모델 체크포인트 저장을 담당하는 TensorFlow 객체입니다.

샤드

#TensorFlow
#GoogleCloud

학습 세트 또는 모델의 논리적 구분입니다. 일반적으로 일부 프로세스는 예시 또는 매개변수를 일반적으로 동일한 크기의 청크로 나누어 샤드를 만듭니다. 그런 다음 각 샤드가 다른 머신에 할당됩니다.

모델을 샤딩하는 것을 모델 병렬 처리라고 하며, 데이터를 샤딩하는 것을 데이터 병렬 처리라고 합니다.

요약

#TensorFlow

TensorFlow에서는 특정 단계에 계산된 값 또는 값 집합을 의미하며, 일반적으로 학습 중에 모델 측정항목을 추적하는 데 사용됩니다.

T

텐서

#TensorFlow

TensorFlow 프로그램의 기본 데이터 구조입니다. 텐서는 N차원(N이 매우 클 수 있음) 데이터 구조로, 일반적으로 스칼라, 벡터 또는 행렬입니다. 텐서의 요소는 정수, 부동 소수점 또는 문자열 값을 포함할 수 있습니다.

텐서보드

#TensorFlow

하나 이상의 TensorFlow 프로그램을 실행하는 중에 저장된 요약을 표시하는 대시보드입니다.

TensorFlow

#TensorFlow

대규모 분산형 머신러닝 플랫폼입니다. 이 용어는 데이터 흐름 그래프에서 일반적인 계산을 지원하는 TensorFlow 스택의 기본 API 레이어를 가리키기도 합니다.

TensorFlow는 주로 머신러닝에 사용되지만 데이터 흐름 그래프를 사용한 수치 계산이 필요한 비 ML 작업에도 TensorFlow를 사용할 수 있습니다.

TensorFlow Playground

#TensorFlow

다양한 초매개변수가 모델(주로 신경망) 학습에 주는 영향을 시각적으로 보여주는 프로그램입니다. TensorFlow Playground로 실험해 보려면 http://playground.tensorflow.org로 이동하세요.

TensorFlow Serving

#TensorFlow

학습된 모델을 프로덕션 환경에 배포하는 플랫폼입니다.

Tensor Processing Unit(TPU)

#TensorFlow
#GoogleCloud

머신러닝 워크로드의 성능을 최적화하는 ASIC (Application-Specific Integrated Circuit)입니다. 이러한 ASIC는 TPU 기기에 여러 개의 TPU 칩으로 배포됩니다.

텐서 차수

#TensorFlow

순위 (텐서)를 참고하세요.

텐서 모양

#TensorFlow

Tensor가 여러 차원에 포함하는 요소 수입니다. 예를 들어 [5, 10] 텐서의 한 측정기준의 모양은 5이고 다른 측정기준의 모양은 10입니다.

텐서 크기

#TensorFlow

Tensor가 포함하는 스칼라의 총 개수입니다. 예를 들어 [5, 10] 텐서의 크기는 50입니다.

tf.Example

#TensorFlow

머신러닝 모델 학습 또는 추론을 위한 입력 데이터를 설명하는 표준 프로토콜 버퍼입니다.

tf.keras

#TensorFlow

TensorFlow에 통합된 Keras 구현입니다.

TPU

#TensorFlow
#GoogleCloud

Tensor Processing Unit의 약어입니다.

TPU 칩

#TensorFlow
#GoogleCloud

머신러닝 워크로드에 최적화된 온칩 고대역폭 메모리가 있는 프로그래밍 가능한 선형 대수 액셀러레이터입니다. 여러 TPU 칩이 TPU 기기에 배포됩니다.

TPU 기기

#TensorFlow
#GoogleCloud

여러 개의 TPU 칩, 고대역폭 네트워크 인터페이스, 시스템 냉각 하드웨어가 있는 인쇄 회로 기판 (PCB)입니다.

TPU 마스터

#TensorFlow
#GoogleCloud

데이터, 결과, 프로그램, 성능, 시스템 상태 정보를 TPU 워커로 전송하고 수신하는 호스트 머신에서 실행되는 중앙 조정 프로세스입니다. TPU 마스터는 TPU 기기의 설정 및 종료도 관리합니다.

TPU 노드

#TensorFlow
#GoogleCloud

특정 TPU 유형이 있는 Google Cloud의 TPU 리소스입니다. TPU 노드는 피어 VPC 네트워크에서 VPC 네트워크에 연결됩니다. TPU 노드는 Cloud TPU API에 정의된 리소스입니다.

TPU Pod

#TensorFlow
#GoogleCloud

Google 데이터 센터의 TPU 기기의 특정 구성입니다. TPU Pod의 모든 기기는 전용 고속 네트워크를 통해 서로 연결됩니다. TPU Pod는 특정 TPU 버전에서 사용할 수 있는 가장 큰 규모의 TPU 기기 구성입니다.

TPU 리소스

#TensorFlow
#GoogleCloud

사용자가 만들거나, 관리하거나, 소비하는 Google Cloud의 TPU 항목입니다. 예를 들어 TPU 노드TPU 유형은 TPU 리소스입니다.

TPU 슬라이스

#TensorFlow
#GoogleCloud

TPU 슬라이스는 TPU PodTPU 기기 중 일부입니다. TPU 슬라이스의 모든 기기는 전용 고속 네트워크를 통해 서로 연결됩니다.

TPU 유형

#TensorFlow
#GoogleCloud

특정 TPU 하드웨어 버전으로 구성된 하나 이상의 TPU 기기입니다. Google Cloud에서 TPU 노드를 만들 때 TPU 유형을 선택합니다. 예를 들어 v2-8 TPU 유형은 코어가 8개인 단일 TPU v2 기기입니다. v3-2048 TPU 유형에는 네트워크 연결된 TPU v3 기기 256대와 총 2,048개의 코어가 있습니다. TPU 유형은 Cloud TPU API에 정의된 리소스입니다.

TPU 워커

#TensorFlow
#GoogleCloud

호스트 머신에서 실행되고 TPU 기기에서 머신러닝 프로그램을 실행하는 프로세스입니다.