머신러닝 용어집: 생성형 AI

이 페이지에는 생성형 AI 용어집 용어가 포함되어 있습니다. 모든 용어집 용어는 여기를 클릭하세요.

A

적응

#generativeAI

튜닝 또는 미세 조정의 동의어입니다.

에이전트

#generativeAI

사용자를 대신하여 작업을 계획하고 실행하기 위해 멀티모달 사용자 입력을 추론할 수 있는 소프트웨어입니다.

강화 학습에서 에이전트는 정책을 사용하여 환경상태 간 전환에서 얻은 예상 수익을 극대화하는 엔티티입니다.

대리적/대리자적

#generativeAI

agent의 형용사 형태입니다. 에이전트란 에이전트가 보유한 속성 (예: 자율성)을 의미합니다.

에이전트형 워크플로

#generativeAI

에이전트가 목표를 달성하기 위해 자율적으로 작업을 계획하고 실행하는 동적 프로세스입니다. 이 프로세스에는 추론, 외부 도구 호출, 계획 자체 수정이 포함될 수 있습니다.

AI 슬롭

#generativeAI

품질보다 양을 우선시하는 생성형 AI 시스템의 출력 예를 들어 AI 슬롭이 있는 웹페이지는 저렴하게 제작된 AI 생성 저품질 콘텐츠로 가득합니다.

자동 평가

#generativeAI

소프트웨어를 사용하여 모델 출력의 품질을 판단합니다.

모델 출력이 비교적 간단한 경우 스크립트나 프로그램이 모델의 출력을 모범 대답과 비교할 수 있습니다. 이러한 유형의 자동 평가를 프로그래매틱 평가라고도 합니다. ROUGE 또는 BLEU와 같은 측정항목은 프로그래매틱 평가에 유용한 경우가 많습니다.

모델 출력이 복잡하거나 정답이 없는 경우 자동 평가기라는 별도의 ML 프로그램이 자동 평가를 실행하기도 합니다.

인간 평가와 대비되는 개념입니다.

자동 평가 도구 평가

#generativeAI
인간 평가자동 평가를 결합하여 생성형 AI 모델의 출력 품질을 판단하는 하이브리드 메커니즘입니다. 자동 평가 도구는 인간 평가로 생성된 데이터를 학습한 ML 모델입니다. 이상적으로는 자동 평가 도구가 사람 평가자를 모방하는 방법을 학습합니다.

사전 빌드된 자동 평가 도구를 사용할 수 있지만 가장 좋은 자동 평가 도구는 평가 중인 태스크에 맞게 특별히 미세 조정된 것입니다.

자기 회귀 모델

#generativeAI

자체 이전 예측을 기반으로 예측을 추론하는 모델 예를 들어 자기 회귀 언어 모델은 이전에 예측된 토큰을 기반으로 다음 토큰을 예측합니다. 모든 Transformer 기반 대규모 언어 모델은 자기 회귀적입니다.

반면 GAN 기반 이미지 모델은 일반적으로 자동 회귀가 아닙니다. 단일 순방향 패스에서 이미지를 생성하고 단계별로 반복적으로 생성하지 않기 때문입니다. 하지만 일부 이미지 생성 모델은 단계별로 이미지를 생성하므로 자기 회귀적입니다.

B

기본 모델

#generativeAI

특정 작업이나 애플리케이션을 해결하기 위해 미세 조정의 시작점으로 사용할 수 있는 선행 학습된 모델입니다.

사전 학습 모델기반 모델도 참고하세요.

C

연쇄적 사고(CoT) 프롬프팅

#generativeAI

대규모 언어 모델 (LLM)이 추론을 단계별로 설명하도록 유도하는 프롬프트 엔지니어링 기법입니다. 예를 들어 다음 프롬프트를 살펴보세요. 특히 두 번째 문장에 주의하세요.

7초 만에 0에서 60마일로 이동하는 자동차의 운전자는 몇 g의 힘을 경험할까요? 답변에 관련된 모든 계산을 표시합니다.

LLM의 대답은 다음과 같을 수 있습니다.

  • 적절한 위치에 값 0, 60, 7을 대입하여 일련의 물리학 공식을 보여 줘.
  • 이러한 공식을 선택한 이유와 다양한 변수의 의미를 설명해 줘.

연쇄적 사고(CoT) 프롬프팅을 사용하면 LLM이 모든 계산을 수행하므로 더 정확한 답변을 얻을 수 있습니다. 또한 사고의 연쇄 프롬프트를 사용하면 사용자가 LLM의 단계를 검토하여 답변이 타당한지 여부를 확인할 수 있습니다.

채팅

#generativeAI

ML 시스템(일반적으로 대규모 언어 모델)과의 대화 내용입니다. 채팅의 이전 상호작용(내가 입력한 내용과 대규모 언어 모델이 응답한 방식)은 채팅의 후속 부분에 대한 맥락이 됩니다.

챗봇은 대규모 언어 모델의 애플리케이션입니다.

문맥화된 언어 임베딩

#generativeAI

유창한 인간 화자가 단어와 구문을 이해하는 방식과 유사하게 단어와 구문을 '이해'하는 임베딩 컨텍스트화된 언어 임베딩은 복잡한 구문, 시맨틱, 컨텍스트를 이해할 수 있습니다.

예를 들어 영어 단어 cow의 임베딩을 생각해 보세요. word2vec과 같은 이전 삽입은 에서 황소까지의 삽입 공간의 거리가 암양에서 수양까지 또는 여성에서 남성까지의 거리와 유사하도록 영어 단어를 나타낼 수 있습니다. 문맥화된 언어 삽입은 영어 사용자가 때때로 라는 단어를 암소 또는 수소 중 하나를 의미하는 데 무심코 사용한다는 점을 인식하여 한 단계 더 나아갈 수 있습니다.

컨텍스트 윈도우

#generativeAI

모델이 특정 프롬프트에서 처리할 수 있는 토큰 수입니다. 컨텍스트 윈도우가 클수록 모델은 더 많은 정보를 사용하여 프롬프트에 일관되고 논리적인 대답을 제공할 수 있습니다.

대화형 코딩

#generativeAI

소프트웨어를 만들기 위해 사용자와 생성형 AI 모델 간에 이루어지는 반복적인 대화입니다. 소프트웨어를 설명하는 프롬프트를 입력합니다. 그런 다음 모델은 이 설명을 사용하여 코드를 생성합니다. 그런 다음 이전 프롬프트 또는 생성된 코드의 결함을 해결하기 위해 새 프롬프트를 실행하면 모델에서 업데이트된 코드를 생성합니다. 생성된 소프트웨어가 충분히 좋아질 때까지 두 사람이 계속해서 주고받습니다.

대화 코딩은 기본적으로 바이브 코딩의 원래 의미입니다.

명시적 코딩과 대비되는 개념입니다.

D

직접 프롬프트

#generativeAI

제로샷 프롬프팅의 동의어입니다.

증류

#generativeAI

하나의 모델 (티처)의 크기를 원래 모델의 예측을 최대한 충실하게 모방하는 더 작은 모델 (스튜던트)로 줄이는 프로세스입니다. 정제는 더 작은 모델이 더 큰 모델 (티처)에 비해 두 가지 주요 이점이 있기 때문에 유용합니다.

  • 더 빠른 추론 시간
  • 메모리 및 에너지 사용량 감소

하지만 학생의 예측은 일반적으로 교사의 예측만큼 좋지 않습니다.

증류는 학생 모델과 교사 모델의 예측 출력 간 차이를 기반으로 손실 함수를 최소화하도록 학생 모델을 학습시킵니다.

증류를 다음 용어와 비교 및 대조하세요.

자세한 내용은 머신러닝 단기집중과정의 LLM: 미세 조정, 증류, 프롬프트 엔지니어링을 참고하세요.

E

평가

#generativeAI
#Metric

주로 LLM 평가의 약어로 사용됩니다. 평가는 더 광범위하게 모든 형태의 평가를 나타내는 약어입니다.

평가

#generativeAI
#Metric

모델의 품질을 측정하거나 서로 다른 모델을 비교하는 프로세스입니다.

지도 머신러닝 모델을 평가하려면 일반적으로 검증 세트테스트 세트를 기준으로 판단합니다. LLM 평가에는 일반적으로 더 광범위한 품질 및 안전성 평가가 포함됩니다.

F

사실성

#generativeAI

ML 세계에서 출력이 현실에 기반한 모델을 설명하는 속성입니다. 사실성은 측정항목이 아닌 개념입니다. 예를 들어 대규모 언어 모델에 다음 프롬프트를 전송한다고 가정해 보겠습니다.

소금의 화학식은 무엇인가요?

사실성을 최적화하는 모델은 다음과 같이 대답합니다.

NaCl

모든 모델이 사실에 기반해야 한다고 가정하기 쉽습니다. 하지만 다음과 같은 일부 프롬프트는 생성형 AI 모델이 사실성이 아닌 창의성을 최적화하도록 해야 합니다.

우주 비행사와 애벌레에 관한 5행 희시를 말해 줘.

결과로 나오는 넌센스 시는 현실에 기반하지 않을 가능성이 높습니다.

그라운딩과 대비되는 개념입니다.

빠른 감쇠

#generativeAI

LLM의 성능을 개선하는 학습 기법입니다. 빠른 감소는 학습 중에 학습률을 빠르게 감소시키는 것을 의미합니다. 이 전략은 모델이 학습 데이터에 과적합되는 것을 방지하고 일반화를 개선합니다.

퓨샷 프롬프팅

#generativeAI

대규모 언어 모델이 응답해야 하는 방식을 보여주는 두 개 이상의 예시('몇 개')가 포함된 프롬프트 예를 들어 다음 긴 프롬프트에는 대규모 언어 모델이 질문에 답변하는 방법을 보여주는 두 가지 예시가 포함되어 있습니다.

하나의 프롬프트의 일부 참고
지정된 국가의 공식 통화는 무엇인가요? LLM이 답변해야 하는 질문입니다.
프랑스: EUR 예를 들어 보겠습니다.
영국: GBP 또 다른 예입니다.
인도: 실제 쿼리입니다.

퓨샷 프롬프팅은 일반적으로 제로샷 프롬프팅원샷 프롬프팅보다 더 바람직한 결과를 생성합니다. 하지만 퓨샷 프롬프트에는 더 긴 프롬프트가 필요합니다.

퓨샷 프롬프팅은 프롬프트 기반 학습에 적용되는 퓨샷 학습의 한 형태입니다.

자세한 내용은 머신러닝 단기집중과정의 프롬프트 엔지니어링을 참고하세요.

세부 조정

#generativeAI

선행 학습된 모델에서 이루어지는 작업별 두 번째 학습으로, 구체적인 사용 사례에 맞춰 파라미터를 세부적으로 조정합니다. 예를 들어 일부 대규모 언어 모델의 전체 학습 시퀀스는 다음과 같습니다.

  1. 사전 학습: 모든 영어 위키백과 페이지와 같은 방대한 일반 데이터 세트를 기반으로 대규모 언어 모델을 학습합니다.
  2. 미세 조정: 의료 질문에 응답하는 등 특정 작업을 수행하도록 사전 학습된 모델을 학습시킵니다. 미세 조정에는 일반적으로 특정 작업에 초점을 맞춘 수백 또는 수천 개의 예가 포함됩니다.

또 다른 예로 대형 이미지 모델의 전체 학습 시퀀스는 다음과 같습니다.

  1. 사전 학습: Wikimedia Commons의 모든 이미지와 같은 방대한 일반 이미지 데이터 세트에서 대규모 이미지 모델을 학습합니다.
  2. 미세 조정: 범고래 이미지를 생성하는 등 특정 작업을 수행하도록 사전 학습된 모델을 학습시킵니다.

미세 조정에는 다음 전략의 조합이 포함될 수 있습니다.

  • 사전 학습 모델의 기존 파라미터모두 수정합니다. 이를 전체 미세 조정이라고도 합니다.
  • 사전 학습된 모델의 기존 파라미터 중 일부(일반적으로 출력 레이어에 가장 가까운 레이어)만 수정하고 다른 기존 파라미터 (일반적으로 입력 레이어에 가장 가까운 레이어)는 변경하지 않습니다. 파라미터 효율적인 조정을 참고하세요.
  • 일반적으로 출력 레이어에 가장 가까운 기존 레이어 위에 레이어를 추가합니다.

미세 조정은 전이 학습의 한 형태입니다. 따라서 세부 조정에서는 사전 학습된 모델을 학습하는 데 사용된 것과 다른 손실 함수나 다른 모델 유형을 사용할 수 있습니다. 예를 들어 사전 학습된 대형 이미지 모델을 미세 조정하여 입력 이미지의 새 수를 반환하는 회귀 모델을 만들 수 있습니다.

다음 용어와 미세 조정의 비교 및 대조:

자세한 내용은 머신러닝 단기집중과정의 미세 조정을 참고하세요.

플래시 모델

#generativeAI

속도와 짧은 지연 시간에 최적화된 비교적 작은 Gemini 모델 제품군입니다. Flash 모델은 빠른 응답과 높은 처리량이 중요한 다양한 애플리케이션을 위해 설계되었습니다.

파운데이션 모델

#generativeAI
#Metric

방대하고 다양한 학습 세트로 학습된 매우 큰 사전 학습된 모델입니다. 파운데이션 모델은 다음을 모두 수행할 수 있습니다.

  • 다양한 요청에 적절하게 응답합니다.
  • 추가 미세 조정 또는 기타 맞춤설정을 위한 기본 모델로 사용

즉, 파운데이션 모델은 일반적인 의미에서 이미 매우 유능하지만 특정 작업에 더욱 유용하도록 추가로 맞춤설정할 수 있습니다.

성공 횟수의 비율

#generativeAI
#Metric

ML 모델의 생성된 텍스트를 평가하는 측정항목입니다. 성공 비율은 '성공' 생성 텍스트 출력 수를 생성된 총 텍스트 출력 수로 나눈 값입니다. 예를 들어 대규모 언어 모델이 코드 블록 10개를 생성했는데 그중 5개가 성공했다면 성공 비율은 50%입니다.

성공률은 통계 전반에서 광범위하게 유용하지만 ML에서는 이 측정항목이 주로 코드 생성이나 수학 문제와 같은 검증 가능한 작업을 측정하는 데 유용합니다.

G

Gemini

#generativeAI

Google의 가장 강력한 AI로 구성된 생태계 이 생태계의 요소는 다음과 같습니다.

  • 다양한 Gemini 모델
  • Gemini 모델과의 대화형 인터페이스입니다. 사용자가 프롬프트를 입력하면 Gemini가 프롬프트에 응답합니다.
  • 다양한 Gemini API
  • Gemini 모델을 기반으로 하는 다양한 비즈니스 제품(예: Google Cloud를 위한 Gemini)

Gemini 모델

#generativeAI

Google의 최첨단 트랜스포머 기반 멀티모달 모델 Gemini 모델은 에이전트와 통합되도록 특별히 설계되었습니다.

사용자는 대화형 대화 인터페이스와 SDK를 비롯한 다양한 방식으로 Gemini 모델과 상호작용할 수 있습니다.

Gemma

#generativeAI

Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술로 빌드된 경량 개방형 모델군입니다. 다양한 Gemma 모델을 사용할 수 있으며 각 모델은 시각, 코드, 명령 준수와 같은 다양한 기능을 제공합니다. 자세한 내용은 Gemma를 참고하세요.

생성형 AI

#generativeAI

생성형 AI의 약어입니다.

생성된 텍스트

#generativeAI

일반적으로 ML 모델이 출력하는 텍스트입니다. 대규모 언어 모델을 평가할 때 일부 측정항목은 생성된 텍스트를 참조 텍스트와 비교합니다. 예를 들어 ML 모델이 프랑스어를 네덜란드어로 얼마나 효과적으로 번역하는지 확인하려고 한다고 가정해 보겠습니다. 이 경우에는 다음과 같습니다.

  • 생성된 텍스트는 ML 모델이 출력하는 네덜란드어 번역입니다.
  • 참조 텍스트는 사람 번역가 (또는 소프트웨어)가 만든 네덜란드어 번역입니다.

일부 평가 전략에는 참조 텍스트가 포함되지 않습니다.

생성형 AI의

#generativeAI

정식 정의가 없는 혁신적인 신흥 분야입니다. 하지만 대부분의 전문가는 생성형 AI 모델이 다음을 모두 충족하는 콘텐츠를 생성할 수 있다고 동의합니다.

  • 복잡한
  • 일관성
  • 원본

생성형 AI의 예는 다음과 같습니다.

  • 대규모 언어 모델: 정교한 원본 텍스트를 생성하고 질문에 답변할 수 있습니다.
  • 고유한 이미지를 생성할 수 있는 이미지 생성 모델
  • 오디오 및 음악 생성 모델: 창작 음악을 작곡하거나 사실적인 음성을 생성할 수 있습니다.
  • 동영상을 생성할 수 있는 동영상 생성 모델

LSTM, RNN 등의 이전 기술도 독창적이고 일관된 콘텐츠를 생성할 수 있습니다. 일부 전문가들은 이러한 초기 기술을 생성형 AI로 간주하는 반면, 다른 전문가들은 진정한 생성형 AI에는 이러한 초기 기술이 생성할 수 있는 것보다 더 복잡한 출력이 필요하다고 생각합니다.

예측 ML과 대비되는 개념입니다.

표준 대답

#generativeAI

좋은 것으로 알려진 대답 예를 들어 다음과 같은 프롬프트가 있다고 가정해 보겠습니다.

2 + 2

골든 응답은 다음과 같습니다.

4

GPT (Generative Pre-trained Transformer)

#generativeAI

OpenAI에서 개발한 Transformer 기반 대규모 언어 모델 제품군입니다.

GPT 변형은 다음을 비롯한 여러 모달리티에 적용할 수 있습니다.

  • 이미지 생성 (예: ImageGPT)
  • 텍스트 이미지 변환 생성 (예: DALL-E)

H

할루시네이션

#generativeAI

생성형 AI 모델이 실제 세계에 관한 주장을 하는 것처럼 보이지만 실제로는 잘못된 출력을 생성하는 것입니다. 예를 들어 버락 오바마가 1865년에 사망했다고 주장하는 생성형 AI 모델은 환각을 일으키는 것입니다.

인적 평가

#generativeAI

사람이 ML 모델 출력의 품질을 판단하는 프로세스입니다. 예를 들어 이중 언어 사용자가 ML 번역 모델의 품질을 판단합니다. 사람의 평가는 특히 정답이 없는 모델을 판단하는 데 유용합니다.

자동 평가자동 평가자 평가와 대비됩니다.

인간 참여형 (HITL)

#generativeAI

다음 중 하나를 의미할 수 있는 느슨하게 정의된 관용구입니다.

  • 생성형 AI 출력을 비판적으로 또는 회의적으로 보는 정책
  • 사람들이 모델의 동작을 형성, 평가, 개선하도록 지원하는 전략 또는 시스템입니다. 인간을 참여시키면 AI가 머신 지능과 인간 지능을 모두 활용할 수 있습니다. 예를 들어 AI가 코드를 생성하고 소프트웨어 엔지니어가 이를 검토하는 시스템은 human-in-the-loop 시스템입니다.

I

컨텍스트 학습

#generativeAI

퓨샷 프롬프팅의 동의어입니다.

추론

#fundamentals
#generativeAI

기존 머신러닝에서 학습된 모델을 라벨이 없는 예에 적용하여 예측을 수행하는 과정입니다. 자세한 내용은 ML 소개 과정의 지도 학습을 참고하세요.

대규모 언어 모델에서 추론은 학습된 모델을 사용하여 입력 프롬프트에 대한 응답을 생성하는 프로세스입니다.

통계에서는 추론의 의미가 약간 다릅니다. 자세한 내용은 통계적 추론에 대한 위키백과 문서를 참고하세요.

지침 조정

#generativeAI

생성형 AI 모델이 안내를 따르는 능력을 개선하는 파인 튜닝의 한 형태입니다. 명령어 조정은 일반적으로 다양한 작업을 포괄하는 일련의 명령어 프롬프트로 모델을 학습시키는 과정입니다. 결과적으로 생성된 명령어를 기반으로 조정된 모델은 다양한 작업에서 제로샷 프롬프트에 유용한 대답을 생성하는 경향이 있습니다.

다음과 비교 및 대조:

L

대규모 언어 모델

#generativeAI

최소한 파라미터 수가 매우 많은 언어 모델 비공식적으로는 Gemini 또는 GPT와 같은 Transformer 기반 언어 모델입니다.

자세한 내용은 머신러닝 단기집중과정의 대규모 언어 모델 (LLM)을 참고하세요.

지연 시간

#generativeAI

모델이 입력을 처리하고 응답을 생성하는 데 걸리는 시간입니다. 지연 시간이 높은 응답은 지연 시간이 낮은 응답보다 생성하는 데 시간이 더 오래 걸립니다.

대규모 언어 모델의 지연 시간에 영향을 미치는 요인은 다음과 같습니다.

  • 입력 및 출력 토큰 길이
  • 모델의 복잡도
  • 모델이 실행되는 인프라

지연 시간 최적화는 반응성이 높고 사용자 친화적인 애플리케이션을 만드는 데 매우 중요합니다.

LLM

#generativeAI

대규모 언어 모델의 약어입니다.

LLM 평가

#generativeAI
#Metric

대규모 언어 모델 (LLM)의 성능을 평가하기 위한 측정항목 및 벤치마크 세트입니다. 개략적으로 LLM 평가는 다음과 같습니다.

  • 연구자가 LLM을 개선해야 하는 영역을 파악할 수 있도록 지원합니다.
  • 다양한 LLM을 비교하고 특정 작업에 가장 적합한 LLM을 식별하는 데 유용합니다.
  • LLM을 안전하고 윤리적으로 사용할 수 있도록 지원합니다.

자세한 내용은 머신러닝 단기집중과정의 대규모 언어 모델 (LLM)을 참고하세요.

LoRA

#generativeAI

Low-Rank Adaptability의 약어입니다.

LoRA (Low-Rank Adaptability)

#generativeAI

모델의 사전 학습된 가중치를 '고정'하여 더 이상 수정할 수 없도록 한 다음 학습 가능한 가중치 집합을 모델에 삽입하는 파인 튜닝을 위한 파라미터 효율적 기법입니다. 이 학습 가능한 가중치 집합('업데이트 행렬'이라고도 함)은 기본 모델보다 훨씬 작으므로 학습 속도가 훨씬 빠릅니다.

LoRA는 다음과 같은 이점을 제공합니다.

  • 미세 조정이 적용된 도메인에 대한 모델의 예측 품질을 개선합니다.
  • 모델의 모든 파라미터를 미세 조정해야 하는 기법보다 빠르게 미세 조정합니다.
  • 동일한 기본 모델을 공유하는 여러 전문 모델을 동시에 제공할 수 있도록 하여 추론의 계산 비용을 줄입니다.

M

기계 번역

#generativeAI

소프트웨어(일반적으로 머신러닝 모델)를 사용하여 텍스트를 한 언어에서 다른 언어로 변환합니다(예: 영어에서 일본어로).

k에서의 평균 정밀도 (mAP@k)

#generativeAI
#Metric

검증 데이터 세트에서 모든 k에서의 평균 정밀도 점수의 통계적 평균입니다. k에서의 평균 정밀도의 한 가지 용도는 추천 시스템에서 생성된 추천의 품질을 판단하는 것입니다.

'평균 평균'이라는 문구가 중복되는 것처럼 들리지만 측정항목의 이름은 적절합니다. 결국 이 측정항목은 여러 k에서의 평균 정밀도 값의 평균을 구합니다.

mixture of experts

#generativeAI

토큰 또는 예시를 처리하기 위해 매개변수의 하위 집합 (전문가라고 함)만 사용하여 신경망 효율성을 높이는 방식입니다. 게이팅 네트워크는 각 입력 토큰 또는 예시를 적절한 전문가에게 라우팅합니다.

자세한 내용은 다음 논문을 참고하세요.

MMIT

#generativeAI

멀티모달 인스트럭션 튜닝의 약어입니다.

모델 캐스케이딩

#generativeAI

특정 추론 쿼리에 적합한 모델을 선택하는 시스템입니다.

매우 큰 모델 (매개변수가 많음)부터 훨씬 작은 모델 (매개변수가 훨씬 적음)까지 다양한 모델 그룹을 생각해 보세요. 매우 큰 모델은 추론 시에 작은 모델보다 더 많은 컴퓨팅 리소스를 사용합니다. 하지만 매우 큰 모델은 일반적으로 작은 모델보다 더 복잡한 요청을 추론할 수 있습니다. 모델 캐스케이딩은 추론 쿼리의 복잡성을 결정한 다음 추론을 실행할 적절한 모델을 선택합니다. 모델 캐스케이딩의 주요 동기는 일반적으로 더 작은 모델을 선택하고 더 복잡한 쿼리에만 더 큰 모델을 선택하여 추론 비용을 줄이는 것입니다.

소형 모델은 휴대전화에서 실행되고 해당 모델의 대형 버전은 원격 서버에서 실행된다고 가정해 보겠습니다. 모델 캐스케이딩을 잘 사용하면 소규모 모델이 간단한 요청을 처리하고 복잡한 요청을 처리하기 위해 원격 모델만 호출하여 비용과 지연 시간을 줄일 수 있습니다.

모델 라우터도 참고하세요.

모델 라우터

#generativeAI

모델 캐스케이딩에서 추론에 적합한 모델을 결정하는 알고리즘입니다. 모델 라우터는 일반적으로 주어진 입력에 가장 적합한 모델을 선택하는 방법을 점진적으로 학습하는 머신러닝 모델입니다. 하지만 모델 라우터는 때때로 더 간단한 비머신러닝 알고리즘일 수 있습니다.

MOE

#generativeAI

mixture of experts의 약어입니다.

MT

#generativeAI

기계 번역의 약어입니다.

N

Nano

#generativeAI

온디바이스 사용을 위해 설계된 비교적 작은 Gemini 모델입니다. 자세한 내용은 Gemini Nano를 참고하세요.

ProUltra도 참고하세요.

정답이 없는 질문 (NORA)

#generativeAI

정답이 여러 개대답이 있는 프롬프트 예를 들어 다음 프롬프트에는 정답이 없습니다.

코끼리에 관한 재미있는 농담을 들려줘.

정답이 없는 질문에 대한 대답을 평가하는 것은 일반적으로 정답이 하나인 질문을 평가하는 것보다 훨씬 주관적입니다. 예를 들어 코끼리 농담을 평가하려면 농담이 얼마나 웃긴지 판단하는 체계적인 방법이 필요합니다.

NORA

#generativeAI

정답은 없음의 약어입니다.

NotebookLM

#generativeAI

사용자가 문서를 업로드한 다음 프롬프트를 사용하여 해당 문서에 대해 질문하거나, 요약하거나, 정리할 수 있는 Gemini 기반 도구입니다. 예를 들어 작가는 여러 단편 소설을 업로드하고 NotebookLM에 공통 주제를 찾아 달라고 요청하거나 어떤 소설이 영화로 만들기에 가장 적합한지 식별해 달라고 요청할 수 있습니다.

O

정답 하나 (ORA)

#generativeAI

하나의 정답 대답이 있는 프롬프트 예를 들어 다음 프롬프트를 살펴보세요.

참 또는 거짓: 토성은 화성보다 큽니다.

유일한 정답은 true입니다.

정해진 답이 없음과 대조됩니다.

원샷 프롬프팅

#generativeAI

대규모 언어 모델이 어떻게 대답해야 하는지 보여주는 예시 하나가 포함된 프롬프트 예를 들어 다음 프롬프트에는 대규모 언어 모델이 질문에 어떻게 대답해야 하는지 보여주는 예시가 하나 포함되어 있습니다.

하나의 프롬프트의 일부 참고
지정된 국가의 공식 통화는 무엇인가요? LLM이 답변해야 하는 질문입니다.
프랑스: EUR 예를 들어 보겠습니다.
인도: 실제 쿼리입니다.

원샷 프롬프트를 다음 용어와 비교 및 대조하세요.

ORA

#generativeAI

하나의 정답의 약어입니다.

P

파라미터 효율적인 튜닝

#generativeAI

전체 세부 조정보다 효율적으로 대규모 사전 학습된 언어 모델 (PLM)세부 조정하는 일련의 기법입니다. 파라미터 효율적 조정은 일반적으로 전체 미세 조정보다 훨씬 적은 파라미터를 미세 조정하지만, 전체 미세 조정으로 빌드된 대규모 언어 모델만큼 (또는 거의 그만큼) 성능이 우수한 대규모 언어 모델을 생성합니다.

파라미터 효율적인 조정과 다음을 비교 및 대조합니다.

파라미터 효율적 조정은 파라미터 효율적 미세 조정이라고도 합니다.

Pax

#generativeAI

여러 TPU 액셀러레이터 칩 슬라이스 또는 포드에 걸쳐 있을 정도로 큰 신경망 모델을 학습하도록 설계된 프로그래밍 프레임워크입니다.

Pax는 JAX를 기반으로 빌드된 Flax를 기반으로 빌드됩니다.

소프트웨어 스택에서 Pax의 위치를 나타내는 다이어그램
          Pax는 JAX를 기반으로 빌드됩니다. Pax 자체는 세 개의 레이어로 구성됩니다. 하단 레이어에는 TensorStore와 Flax가 포함됩니다.
          중간 레이어에는 Optax와 Flaxformer가 포함됩니다. 최상위 레이어에는 Praxis Modeling Library가 포함되어 있습니다. Fiddle은 Pax를 기반으로 빌드됩니다.

PLM

#generativeAI

사전 학습된 언어 모델의 약어입니다.

사후 학습 모델

#generativeAI

일반적으로 다음과 같은 후처리를 거친 사전 학습된 모델을 지칭하는 느슨하게 정의된 용어입니다.

사전 학습된 모델

#generativeAI

이 용어는 학습된 모델 또는 학습된 임베딩 벡터를 모두 지칭할 수 있지만, 사전 학습된 모델은 이제 일반적으로 학습된 대규모 언어 모델 또는 기타 형태의 학습된 생성형 AI 모델을 지칭합니다.

기본 모델기반 모델도 참고하세요.

사전 학습

#generativeAI

대규모 데이터 세트에서 모델의 초기 학습 일부 사전 학습 모델은 서투른 거인이므로 일반적으로 추가 학습을 통해 개선해야 합니다. 예를 들어 ML 전문가는 Wikipedia의 모든 영어 페이지와 같은 방대한 텍스트 데이터 세트에서 대규모 언어 모델을 사전 학습할 수 있습니다. 사전 학습 후 결과 모델은 다음 기법 중 하나를 통해 추가로 개선될 수 있습니다.

Pro

#generativeAI

Ultra보다 파라미터가 적지만 Nano보다는 많은 Gemini 모델입니다. 자세한 내용은 Gemini Pro를 참고하세요.

프롬프트

#generativeAI

모델이 특정 방식으로 작동하도록 조건을 지정하기 위해 대규모 언어 모델에 입력으로 입력된 텍스트입니다. 프롬프트는 구문만큼 짧을 수도 있고 소설 전체 텍스트와 같이 임의로 길 수도 있습니다. 프롬프트는 다음 표에 표시된 것을 비롯한 여러 카테고리로 분류됩니다.

프롬프트 카테고리 참고
질문 비둘기는 얼마나 빨리 날 수 있나요?
안내 차익 거래에 관한 재미있는 시를 써 줘. 대규모 언어 모델에 작업을 수행하도록 요청하는 프롬프트
마크다운 코드를 HTML로 변환해 줘. 예:
마크다운: * 목록 항목
HTML: <ul> <li>목록 항목</li> </ul>
이 예시 프롬프트의 첫 번째 문장은 명령어입니다. 프롬프트의 나머지 부분은 예시입니다.
역할 물리학 박사에게 머신러닝 학습에 경사하강법이 사용되는 이유를 설명해 줘. 문장의 첫 번째 부분은 명령어이고 '물리학 박사'라는 문구는 역할 부분입니다.
모델이 완료할 부분 입력 영국 총리는 부분 입력 프롬프트는 이 예와 같이 갑자기 끝나거나 밑줄로 끝날 수 있습니다.

생성형 AI 모델은 텍스트, 코드, 이미지, 임베딩, 동영상 등 거의 모든 것으로 프롬프트에 응답할 수 있습니다.

프롬프트 기반 학습

#generativeAI

특정 모델이 임의의 텍스트 입력 (프롬프트)에 대한 응답으로 동작을 조정할 수 있도록 지원하는 기능입니다. 일반적인 프롬프트 기반 학습 패러다임에서 대규모 언어 모델은 텍스트를 생성하여 프롬프트에 응답합니다. 예를 들어 사용자가 다음 프롬프트를 입력한다고 가정해 보겠습니다.

뉴턴의 운동 제3법칙을 요약해 줘.

프롬프트 기반 학습이 가능한 모델은 이전 프롬프트에 대답하도록 특별히 학습되지 않습니다. 오히려 모델은 물리학에 관한 많은 사실, 일반적인 언어 규칙에 관한 많은 정보, 일반적으로 유용한 답변을 구성하는 요소에 관한 많은 정보를 '알고' 있습니다. 이 지식은 유용한 답변을 제공하기에 충분합니다. 추가적인 인간 피드백 ('답변이 너무 복잡합니다.' 또는 '리액션이 뭐지?')을 통해 일부 프롬프트 기반 학습 시스템은 답변의 유용성을 점진적으로 개선할 수 있습니다.

프롬프트 설계

#generativeAI

프롬프트 엔지니어링의 동의어입니다.

프롬프트 엔지니어링

#generativeAI

대규모 언어 모델에서 원하는 응답을 유도하는 프롬프트를 만드는 기술입니다. 사람이 프롬프트 엔지니어링을 수행합니다. 잘 구조화된 프롬프트를 작성하는 것은 대규모 언어 모델에서 유용한 대답을 얻기 위한 필수적인 부분입니다. 프롬프트 엔지니어링은 다음을 비롯한 여러 요인에 따라 달라집니다.

  • 대규모 언어 모델을 사전 학습하고 필요에 따라 미세 조정하는 데 사용되는 데이터 세트입니다.
  • 모델이 대답을 생성하는 데 사용하는 온도 및 기타 디코딩 파라미터입니다.

프롬프트 설계는 프롬프트 엔지니어링의 동의어입니다.

유용한 프롬프트를 작성하는 방법에 관한 자세한 내용은 프롬프트 설계 소개를 참고하세요.

프롬프트 세트

#generativeAI

대규모 언어 모델평가하기 위한 프롬프트 그룹입니다. 예를 들어 다음 그림은 세 개의 프롬프트로 구성된 프롬프트 세트를 보여줍니다.

LLM에 대한 세 개의 프롬프트는 세 개의 대답을 생성합니다. 세 개의 프롬프트가 프롬프트 세트입니다. 세 가지 응답이 응답 세트입니다.

좋은 프롬프트 세트는 대규모 언어 모델의 안전성과 유용성을 철저히 평가할 수 있을 만큼 충분히 '광범위한' 프롬프트 모음으로 구성됩니다.

응답 세트도 참고하세요.

프롬프트 조정

#generativeAI

시스템이 실제 프롬프트에 추가하는 '접두사'를 학습하는 파라미터 효율적 조정 메커니즘

프롬프트 조정의 한 변형(프리픽스 조정이라고도 함)은 모든 레이어에 프리픽스를 추가하는 것입니다. 반면 대부분의 프롬프트 조정은 입력 레이어에 접두사만 추가합니다.

R

참조 텍스트

#generativeAI

프롬프트에 대한 전문가의 대답입니다. 예를 들어 다음 프롬프트가 있다고 가정해 보겠습니다.

'What is your name?'이라는 질문을 영어에서 프랑스어로 번역해 줘.

전문가의 대답은 다음과 같을 수 있습니다.

Comment vous appelez-vous?

다양한 측정항목 (예: ROUGE)은 참조 텍스트가 ML 모델의 생성된 텍스트와 얼마나 일치하는지 측정합니다.

사색

#generativeAI

출력을 다음 단계로 전달하기 전에 단계의 출력을 검토 (반영)하여 에이전트 워크플로의 품질을 개선하는 전략입니다.

검사자는 응답을 생성한 LLM인 경우가 많습니다(다른 LLM일 수도 있음). 대답을 생성한 동일한 LLM이 자체 대답을 공정하게 판단할 수 있을까요? '트릭'은 LLM을 비판적 (반성적) 사고방식으로 만드는 것입니다. 이 과정은 창의적인 사고방식으로 초안을 작성한 후 비판적인 사고방식으로 전환하여 수정하는 작가와 유사합니다.

예를 들어 첫 번째 단계가 커피 머그잔용 텍스트를 만드는 에이전트 워크플로를 생각해 보세요. 이 단계의 프롬프트는 다음과 같을 수 있습니다.

크리에이터입니다. 커피 머그잔에 적합한 50자 미만의 재미있는 원본 텍스트를 생성해 줘.

이제 다음과 같은 회고 프롬프트를 상상해 보세요.

커피를 마시는 사람입니다. 위의 대답이 재미있다고 생각하시나요?

그런 다음 워크플로에서 높은 반영 점수를 받은 텍스트만 다음 단계로 전달할 수 있습니다.

인간 피드백 기반 강화 학습(RLHF)

#generativeAI

인간 평가자의 피드백을 사용하여 모델의 대답 품질을 개선합니다. 예를 들어 RLHF 메커니즘은 사용자에게 모델의 응답 품질을 👍 또는 👎 그림 이모티콘으로 평가하도록 요청할 수 있습니다. 그러면 시스템에서 이 의견을 기반으로 향후 대답을 조정할 수 있습니다.

응답

#generativeAI

생성형 AI 모델이 추론하는 텍스트, 이미지, 오디오 또는 동영상 즉, 프롬프트는 생성형 AI 모델의 입력이고 대답은 출력입니다.

응답 세트

#generativeAI

대규모 언어 모델이 입력 프롬프트 세트에 대해 반환하는 대답의 모음입니다.

역할 프롬프팅

#generativeAI

프롬프트. 일반적으로 라는 인칭 대명사로 시작하며 생성형 AI 모델에 대답을 생성할 때 특정 인물이나 특정 역할을 연기하라고 지시합니다. 역할 프롬프트를 사용하면 생성형 AI 모델이 더 유용한 대답을 생성하기 위한 올바른 '마인드셋'을 갖출 수 있습니다. 예를 들어 원하는 대답의 종류에 따라 다음 역할 프롬프트 중 하나가 적합할 수 있습니다.

컴퓨터 공학 박사 학위가 있습니다.

신규 프로그래밍 학생에게 Python에 대해 인내심을 가지고 설명하는 것을 좋아하는 소프트웨어 엔지니어입니다.

당신은 매우 특별한 프로그래밍 기술을 갖춘 액션 영웅입니다. Python 목록에서 특정 항목을 찾을 수 있다고 확신시켜 줘.

S

소프트 프롬프트 조정

#generativeAI

리소스 집약적인 미세 조정 없이 특정 작업에 맞게 대규모 언어 모델을 조정하는 기법입니다. 모델의 모든 가중치를 재학습하는 대신 소프트 프롬프트 조정은 동일한 목표를 달성하기 위해 프롬프트를 자동으로 조정합니다.

텍스트 프롬프트가 주어지면 소프트 프롬프트 조정은 일반적으로 프롬프트에 추가 토큰 임베딩을 추가하고 역전파를 사용하여 입력을 최적화합니다.

'하드' 프롬프트에는 토큰 임베딩 대신 실제 토큰이 포함됩니다.

사양 코딩

#generativeAI

소프트웨어를 설명하는 인간 언어 (예: 영어)로 파일을 작성하고 유지관리하는 프로세스입니다. 그런 다음 생성형 AI 모델이나 다른 소프트웨어 엔지니어에게 해당 설명을 충족하는 소프트웨어를 만들라고 지시할 수 있습니다.

자동 생성된 코드는 일반적으로 반복이 필요합니다. 사양 코딩에서는 설명 파일을 반복합니다. 반면 대화형 코딩에서는 프롬프트 상자 내에서 반복합니다. 실제로 자동 코드 생성에는 사양 코딩과 대화형 코딩이 모두 조합되는 경우가 있습니다.

T

기온

#generativeAI

모델 출력의 무작위성 수준을 제어하는 하이퍼파라미터입니다. 온도가 높을수록 무작위 출력이 많아지고, 온도가 낮을수록 무작위 출력이 적어집니다.

최적의 온도는 특정 애플리케이션 또는 문자열 값에 따라 달라집니다.

U

Ultra

#generativeAI

가장 많은 매개변수가 있는 Gemini 모델입니다. 자세한 내용은 Gemini Ultra를 참고하세요.

ProNano도 참고하세요.

V

Vertex

#GoogleCloud
#generativeAI
AI 및 머신러닝을 위한 Google Cloud의 플랫폼입니다. Vertex는 Gemini 모델에 대한 액세스를 비롯하여 AI 애플리케이션을 빌드, 배포, 관리하기 위한 도구와 인프라를 제공합니다.

바이브 코딩

#generativeAI

생성형 AI 모델에 소프트웨어 생성을 요청합니다. 즉, 프롬프트는 소프트웨어의 목적과 기능을 설명하며, 생성형 AI 모델은 이를 소스 코드로 변환합니다. 생성된 코드가 항상 의도와 일치하지는 않으므로 바이브 코딩에는 일반적으로 반복이 필요합니다.

안드레이 카르파티는 이 X 게시물에서 바이브 코딩이라는 용어를 만들었습니다. X 게시물에서 Karpathy는 이를 '분위기에 완전히 빠져드는 새로운 종류의 코딩'이라고 설명합니다. 따라서 이 용어는 원래 생성된 코드를 검사하지 않을 수도 있는 소프트웨어 생성에 대한 의도적으로 느슨한 접근 방식을 의미했습니다. 하지만 많은 분야에서 이 용어가 빠르게 발전하여 이제 AI 생성 코딩의 모든 형태를 의미합니다.

바이브 코딩에 대한 자세한 설명은 바이브 코딩이란 무엇인가요?

또한 바이브 코딩을 다음과 비교 및 대조하세요.

Z

제로샷 프롬프팅

#generativeAI

대규모 언어 모델이 응답하는 방식을 보여주는 예시를 제공하지 않는 프롬프트 예를 들면 다음과 같습니다.

하나의 프롬프트의 일부 참고
지정된 국가의 공식 통화는 무엇인가요? LLM이 답변해야 하는 질문입니다.
인도: 실제 쿼리입니다.

대규모 언어 모델은 다음 중 하나로 대답할 수 있습니다.

  • 루피 기호
  • INR
  • 인도 루피
  • 루피
  • 인도 루피

모두 정답이지만 특정 형식을 선호할 수도 있습니다.

제로샷 프롬프트를 다음 용어와 비교 및 대조하세요.