머신러닝 용어집: 생성형 AI

이 페이지에는 생성형 AI 용어집 용어가 포함되어 있습니다. 모든 용어집 용어는 여기를 클릭하세요.

A

적응

#generativeAI

튜닝 또는 파인 튜닝의 동의어입니다.

자동 평가

#generativeAI

소프트웨어를 사용하여 모델 출력의 품질을 판단합니다.

모델 출력이 비교적 간단한 경우 스크립트나 프로그램이 모델 출력을 골든 응답과 비교할 수 있습니다. 이러한 유형의 자동 평가를 프로그래매틱 평가라고도 합니다. ROUGE 또는 BLEU와 같은 측정항목은 프로그래매틱 평가에 유용한 경우가 많습니다.

모델 출력이 복잡하거나 정답이 없는 경우 자동 평가기라는 별도의 ML 프로그램이 자동 평가를 실행하기도 합니다.

인간 평가와 대비되는 개념입니다.

자동 평가 도구 평가

#generativeAI
인간 평가자동 평가를 결합하여 생성형 AI 모델의 출력 품질을 판단하는 하이브리드 메커니즘입니다. 자동 평가 도구는 인간 평가로 생성된 데이터를 학습한 ML 모델입니다. 이상적으로는 자동 평가 도구가 사람 평가자를 모방하는 방법을 학습합니다.

사전 빌드된 자동 평가 도구를 사용할 수 있지만 가장 좋은 자동 평가 도구는 평가 중인 태스크에 맞게 특별히 미세 조정된 것입니다.

자동 회귀 모델

#generativeAI

자체 이전 예측을 기반으로 예측을 추론하는 모델 예를 들어 자기 회귀 언어 모델은 이전에 예측된 토큰을 기반으로 다음 토큰을 예측합니다. 모든 Transformer 기반 대규모 언어 모델은 자기 회귀입니다.

반면 GAN 기반 이미지 모델은 일반적으로 자동 회귀가 아닙니다. 단일 순방향 패스에서 이미지를 생성하고 단계별로 반복적으로 생성하지 않기 때문입니다. 하지만 일부 이미지 생성 모델은 단계별로 이미지를 생성하므로 자기 회귀적입니다.

B

기본 모델

#generativeAI

특정 작업이나 애플리케이션을 해결하기 위해 미세 조정의 시작점으로 사용할 수 있는 선행 학습된 모델입니다.

사전 학습 모델기반 모델도 참고하세요.

C

연쇄적 사고 프롬프팅

#generativeAI

대규모 언어 모델 (LLM)이 추론을 단계별로 설명하도록 유도하는 프롬프트 엔지니어링 기법입니다. 예를 들어 다음 프롬프트를 살펴보세요. 특히 두 번째 문장에 주의하세요.

7초 만에 시속 0마일에서 60마일로 이동하는 자동차에서 운전자가 경험하는 중력 가속도는 얼마일까요? 답변에 관련된 모든 계산을 표시합니다.

LLM의 대답은 다음과 같을 수 있습니다.

  • 적절한 위치에 값 0, 60, 7을 대입하여 일련의 물리학 공식을 보여 줘.
  • 이러한 공식을 선택한 이유와 다양한 변수의 의미를 설명합니다.

연쇄적 사고(CoT) 프롬프팅을 사용하면 LLM이 모든 계산을 수행하므로 더 정확한 답변을 얻을 수 있습니다. 또한 사고의 연쇄 프롬프트를 사용하면 사용자가 LLM의 단계를 검토하여 대답이 타당한지 확인할 수 있습니다.

채팅

#generativeAI

ML 시스템(일반적으로 대규모 언어 모델)과의 대화 내용입니다. 채팅의 이전 상호작용(내가 입력한 내용과 대규모 언어 모델이 응답한 방식)은 채팅의 후속 부분에 대한 맥락이 됩니다.

챗봇은 대규모 언어 모델의 애플리케이션입니다.

문맥화된 언어 임베딩

#generativeAI

유창한 인간 화자가 단어와 구문을 이해하는 방식과 유사하게 단어와 구문을 '이해'하는 임베딩 컨텍스트화된 언어 임베딩은 복잡한 구문, 시맨틱, 컨텍스트를 이해할 수 있습니다.

예를 들어 영어 단어 cow의 임베딩을 생각해 보겠습니다. word2vec과 같은 이전 삽입은 에서 황소까지의 삽입 공간의 거리가 암양에서 수양까지 또는 여성에서 남성까지의 거리와 유사하도록 영어 단어를 나타낼 수 있습니다. 문맥화된 언어 임베딩은 영어 사용자가 때때로 cow라는 단어를 암소 또는 수소라는 의미로 무심코 사용하는 것을 인식하여 한 단계 더 나아갈 수 있습니다.

컨텍스트 윈도우

#generativeAI

모델이 특정 프롬프트에서 처리할 수 있는 토큰 수입니다. 컨텍스트 윈도우가 클수록 모델은 더 많은 정보를 사용하여 프롬프트에 일관되고 논리적인 대답을 제공할 수 있습니다.

D

직접 프롬프트

#generativeAI

제로샷 프롬프팅의 동의어입니다.

증류

#generativeAI

하나의 모델 (티처)의 크기를 원래 모델의 예측을 최대한 충실하게 모방하는 더 작은 모델 (스튜던트)로 줄이는 프로세스입니다. 정제는 더 작은 모델이 더 큰 모델 (티처)에 비해 두 가지 주요 이점이 있기 때문에 유용합니다.

  • 더 빠른 추론 시간
  • 메모리 및 에너지 사용량 감소

하지만 학생의 예측은 일반적으로 교사의 예측만큼 좋지 않습니다.

증류는 스튜던트 모델과 티처 모델의 예측 출력 간 차이를 기반으로 손실 함수를 최소화하도록 스튜던트 모델을 학습시킵니다.

증류를 다음 용어와 비교 및 대조하세요.

자세한 내용은 머신러닝 단기집중과정의 LLM: 미세 조정, 증류, 프롬프트 엔지니어링을 참고하세요.

E

평가

#generativeAI
#Metric

주로 LLM 평가의 약어로 사용됩니다. 더 광범위하게 말하면 평가는 모든 형태의 평가의 약어입니다.

평가

#generativeAI
#Metric

모델의 품질을 측정하거나 서로 다른 모델을 비교하는 프로세스입니다.

지도 머신러닝 모델을 평가하려면 일반적으로 검증 세트테스트 세트를 기준으로 판단합니다. LLM 평가에는 일반적으로 광범위한 품질 및 안전 평가가 포함됩니다.

F

사실성

#generativeAI

ML 세계에서 출력이 현실에 기반한 모델을 설명하는 속성입니다. 사실성은 측정항목이 아닌 개념입니다. 예를 들어 대규모 언어 모델에 다음 프롬프트를 전송한다고 가정해 보겠습니다.

소금의 화학식은 무엇인가요?

사실성을 최적화하는 모델은 다음과 같이 대답합니다.

NaCl

모든 모델이 사실에 기반해야 한다고 가정하기 쉽습니다. 하지만 다음과 같은 일부 프롬프트는 생성형 AI 모델이 사실성이 아닌 창의성을 최적화하도록 해야 합니다.

우주 비행사와 애벌레에 관한 5행 희시를 말해 줘.

결과로 나오는 넌센스 시는 현실에 기반하지 않을 가능성이 높습니다.

그라운딩과 대비되는 개념입니다.

빠른 감소

#generativeAI

LLM의 성능을 개선하는 학습 기법입니다. 빠른 감소는 학습 중에 학습률을 빠르게 감소시키는 것을 의미합니다. 이 전략은 모델이 학습 데이터에 과적합되는 것을 방지하고 일반화를 개선합니다.

퓨샷 프롬프팅

#generativeAI

대규모 언어 모델이 응답해야 하는 방식을 보여주는 두 개 이상의 예시('몇 개')가 포함된 프롬프트 예를 들어 다음 긴 프롬프트에는 대규모 언어 모델이 질문에 답변하는 방법을 보여주는 두 가지 예시가 포함되어 있습니다.

하나의 프롬프트의 일부 참고
지정된 국가의 공식 통화는 무엇인가요? LLM이 답변해야 하는 질문입니다.
프랑스: EUR 예를 들어 보겠습니다.
영국: GBP 또 다른 예입니다.
인도: 실제 쿼리입니다.

퓨샷 프롬프팅은 일반적으로 제로샷 프롬프팅원샷 프롬프팅보다 더 바람직한 결과를 생성합니다. 하지만 퓨샷 프롬프트에는 더 긴 프롬프트가 필요합니다.

퓨샷 프롬프팅은 프롬프트 기반 학습에 적용되는 퓨샷 학습의 한 형태입니다.

자세한 내용은 머신러닝 단기집중과정의 프롬프트 엔지니어링을 참고하세요.

미세 조정

#generativeAI

선행 학습된 모델에서 이루어지는 작업별 두 번째 학습으로, 구체적인 사용 사례에 맞춰 파라미터를 세부적으로 조정합니다. 예를 들어 일부 대규모 언어 모델의 전체 학습 시퀀스는 다음과 같습니다.

  1. 사전 학습: 모든 영어 위키백과 페이지와 같은 방대한 일반 데이터 세트에서 대규모 언어 모델을 학습합니다.
  2. 미세 조정: 의료 질문에 응답하는 등 특정 작업을 수행하도록 사전 학습된 모델을 학습시킵니다. 일반적으로 미세 조정에는 특정 작업에 초점을 맞춘 수백 또는 수천 개의 예가 포함됩니다.

또 다른 예로 대형 이미지 모델의 전체 학습 시퀀스는 다음과 같습니다.

  1. 사전 학습: Wikimedia Commons의 모든 이미지와 같은 방대한 일반 이미지 데이터 세트에서 대규모 이미지 모델을 학습합니다.
  2. 미세 조정: 범고래 이미지 생성과 같은 특정 작업을 수행하도록 사전 학습된 모델을 학습시킵니다.

미세 조정에는 다음 전략의 조합이 포함될 수 있습니다.

  • 선행 학습된 모델의 기존 파라미터모두 수정합니다. 이를 전체 미세 조정이라고도 합니다.
  • 사전 학습 모델의 기존 파라미터 중 일부(일반적으로 출력 레이어에 가장 가까운 레이어)만 수정하고 다른 기존 파라미터 (일반적으로 입력 레이어에 가장 가까운 레이어)는 변경하지 않습니다. 파라미터 효율적인 튜닝을 참고하세요.
  • 레이어를 추가합니다. 일반적으로 출력 레이어에 가장 가까운 기존 레이어 위에 추가합니다.

세부 조정은 전이 학습의 한 형태입니다. 따라서 세부 조정에서는 사전 학습된 모델을 학습하는 데 사용된 것과 다른 손실 함수나 다른 모델 유형을 사용할 수 있습니다. 예를 들어 사전 학습된 대형 이미지 모델을 미세 조정하여 입력 이미지의 새 수를 반환하는 회귀 모델을 만들 수 있습니다.

다음 용어와 미세 조정의 비교 및 대조:

자세한 내용은 머신러닝 단기집중과정의 미세 조정을 참고하세요.

플래시 모델

#generativeAI

속도와 짧은 지연 시간에 최적화된 비교적 작은 Gemini 모델 제품군입니다. Flash 모델은 빠른 응답과 높은 처리량이 중요한 다양한 애플리케이션을 위해 설계되었습니다.

파운데이션 모델

#generativeAI
#Metric

방대하고 다양한 학습 세트로 학습된 매우 큰 사전 학습된 모델입니다. 파운데이션 모델은 다음을 모두 수행할 수 있습니다.

  • 다양한 요청에 적절하게 응답합니다.
  • 추가 미세 조정 또는 기타 맞춤설정을 위한 기본 모델로 사용

즉, 파운데이션 모델은 이미 일반적인 의미에서 매우 유능하지만 특정 작업에 더욱 유용하도록 추가로 맞춤설정할 수 있습니다.

성공 횟수의 비율

#generativeAI
#Metric

ML 모델의 생성된 텍스트를 평가하는 측정항목입니다. 성공 비율은 '성공한' 생성 텍스트 출력 수를 생성된 총 텍스트 출력 수로 나눈 값입니다. 예를 들어 대규모 언어 모델이 코드 블록 10개를 생성했는데 그중 5개가 성공했다면 성공 비율은 50%입니다.

성공률은 통계 전반에 걸쳐 광범위하게 유용하지만 ML에서는 이 측정항목이 주로 코드 생성이나 수학 문제와 같은 검증 가능한 작업을 측정하는 데 유용합니다.

G

Gemini

#generativeAI

Google의 가장 진보된 AI로 구성된 생태계입니다. 이 생태계의 요소는 다음과 같습니다.

  • 다양한 Gemini 모델
  • Gemini 모델과의 대화형 인터페이스입니다. 사용자가 프롬프트를 입력하면 Gemini가 프롬프트에 응답합니다.
  • 다양한 Gemini API
  • Gemini 모델을 기반으로 하는 다양한 비즈니스 제품(예: Google Cloud를 위한 Gemini)

Gemini 모델

#generativeAI

Google의 최첨단 트랜스포머 기반 멀티모달 모델 Gemini 모델은 에이전트와 통합되도록 특별히 설계되었습니다.

사용자는 대화형 대화 인터페이스와 SDK를 비롯한 다양한 방식으로 Gemini 모델과 상호작용할 수 있습니다.

Gemma

#generativeAI

Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술로 빌드된 경량 개방형 모델군입니다. 다양한 Gemma 모델을 사용할 수 있으며 각 모델은 시각, 코드, 지침 준수와 같은 다양한 기능을 제공합니다. 자세한 내용은 Gemma를 참고하세요.

생성형 AI

#generativeAI

생성형 AI의 약어입니다.

생성된 텍스트

#generativeAI

일반적으로 ML 모델이 출력하는 텍스트입니다. 대규모 언어 모델을 평가할 때 일부 측정항목은 생성된 텍스트를 참조 텍스트와 비교합니다. 예를 들어 ML 모델이 프랑스어를 네덜란드어로 얼마나 효과적으로 번역하는지 확인하려고 한다고 가정해 보겠습니다. 이 경우에는 다음과 같습니다.

  • 생성된 텍스트는 ML 모델이 출력하는 네덜란드어 번역입니다.
  • 참조 텍스트는 사람 번역가 (또는 소프트웨어)가 만든 네덜란드어 번역입니다.

일부 평가 전략에는 참조 텍스트가 포함되지 않습니다.

생성형 AI의

#generativeAI

정식 정의가 없는 신흥 혁신 분야입니다. 하지만 대부분의 전문가는 생성형 AI 모델이 다음을 모두 충족하는 콘텐츠를 생성할 수 있다고 동의합니다.

  • 복잡한
  • 일관성
  • 원본

생성형 AI의 예는 다음과 같습니다.

  • 대규모 언어 모델: 정교한 원본 텍스트를 생성하고 질문에 답변할 수 있습니다.
  • 고유한 이미지를 생성할 수 있는 이미지 생성 모델
  • 오디오 및 음악 생성 모델: 창작 음악을 작곡하거나 사실적인 음성을 생성할 수 있습니다.
  • 동영상을 생성할 수 있는 동영상 생성 모델

LSTMRNN을 비롯한 일부 이전 기술도 독창적이고 일관된 콘텐츠를 생성할 수 있습니다. 일부 전문가들은 이러한 초기 기술을 생성형 AI로 간주하는 반면, 다른 전문가들은 진정한 생성형 AI에는 초기 기술이 생성할 수 있는 것보다 더 복잡한 출력이 필요하다고 생각합니다.

예측 ML과 대비되는 개념입니다.

표준 대답

#generativeAI

좋은 것으로 알려진 대답 예를 들어 다음과 같은 프롬프트가 있다고 가정해 보겠습니다.

2 + 2

골든 응답은 다음과 같습니다.

4

H

인적 평가

#generativeAI

사람이 ML 모델 출력의 품질을 판단하는 프로세스입니다. 예를 들어 이중 언어 사용자가 ML 번역 모델의 품질을 판단합니다. 사람 평가는 정답이 없는 모델을 판단하는 데 특히 유용합니다.

자동 평가자동 평가자 평가와 대비됩니다.

인간 참여형 (HITL)

#generativeAI

다음 중 하나를 의미할 수 있는 느슨하게 정의된 관용구입니다.

  • 생성형 AI 출력을 비판적이거나 회의적으로 보는 정책
  • 사람들이 모델의 행동을 형성하고, 평가하고, 개선하도록 지원하는 전략 또는 시스템입니다. 인간 참여형(Human-In-The-Loop)을 유지하면 AI가 머신 지능과 인간 지능을 모두 활용할 수 있습니다. 예를 들어 AI가 코드를 생성하고 소프트웨어 엔지니어가 이를 검토하는 시스템은 사람 참여형 시스템입니다.

I

컨텍스트 학습

#generativeAI

퓨샷 프롬프팅의 동의어입니다.

추론

#fundamentals
#generativeAI

기존 머신러닝에서 학습된 모델을 라벨이 없는 예에 적용하여 예측을 수행하는 과정입니다. 자세한 내용은 ML 소개 과정의 지도 학습을 참고하세요.

대규모 언어 모델에서 추론은 학습된 모델을 사용하여 입력 프롬프트에 대한 응답을 생성하는 프로세스입니다.

통계에서는 추론의 의미가 약간 다릅니다. 자세한 내용은 통계적 추론에 대한 위키백과 문서를 참고하세요.

지침 조정

#generativeAI

생성형 AI 모델이 안내를 따르는 능력을 개선하는 파인 튜닝의 한 형태입니다. 명령어 조정은 일반적으로 다양한 작업을 포괄하는 일련의 명령어 프롬프트로 모델을 학습시키는 과정입니다. 결과적으로 생성된 명령어를 기반으로 조정된 모델은 다양한 작업에서 제로샷 프롬프트에 유용한 대답을 생성하는 경향이 있습니다.

다음과 비교 및 대조:

L

지연 시간

#generativeAI

모델이 입력을 처리하고 대답을 생성하는 데 걸리는 시간입니다. 지연 시간이 높은 응답은 지연 시간이 낮은 응답보다 생성하는 데 시간이 더 오래 걸립니다.

대규모 언어 모델의 지연 시간에 영향을 미치는 요인은 다음과 같습니다.

  • 입력 및 출력 [토큰] 길이
  • 모델의 복잡도
  • 모델이 실행되는 인프라

지연 시간 최적화는 반응성이 높고 사용자 친화적인 애플리케이션을 만드는 데 매우 중요합니다.

LLM

#generativeAI

대규모 언어 모델의 약어입니다.

LLM 평가

#generativeAI
#Metric

대규모 언어 모델 (LLM)의 성능을 평가하기 위한 측정항목 및 벤치마크 세트입니다. 개략적으로 LLM 평가는 다음을 수행합니다.

  • 연구자가 LLM을 개선해야 할 영역을 파악할 수 있도록 지원합니다.
  • 다양한 LLM을 비교하고 특정 작업에 가장 적합한 LLM을 식별하는 데 유용합니다.
  • LLM이 안전하고 윤리적으로 사용되도록 지원합니다.

자세한 내용은 머신러닝 단기집중과정의 대규모 언어 모델 (LLM)을 참고하세요.

LoRA

#generativeAI

Low-Rank Adaptability의 약어입니다.

LoRA (Low-Rank Adaptability)

#generativeAI

모델의 사전 학습된 가중치를 '고정'하여 더 이상 수정할 수 없도록 한 다음 학습 가능한 가중치 집합을 모델에 삽입하는 파인 튜닝을 위한 파라미터 효율적 기법입니다. 이 학습 가능한 가중치 집합('업데이트 행렬'이라고도 함)은 기본 모델보다 훨씬 작으므로 학습 속도가 훨씬 빠릅니다.

LoRA는 다음과 같은 이점을 제공합니다.

  • 미세 조정이 적용된 도메인에 대한 모델의 예측 품질을 개선합니다.
  • 모델의 모든 파라미터를 미세 조정해야 하는 기법보다 빠르게 미세 조정합니다.
  • 동일한 기본 모델을 공유하는 여러 전문 모델의 동시 서빙을 지원하여 추론의 계산 비용을 줄입니다.

M

기계 번역

#generativeAI

소프트웨어(일반적으로 머신러닝 모델)를 사용하여 텍스트를 한 언어에서 다른 언어로 변환합니다(예: 영어에서 일본어로).

k에서의 평균 정밀도 (mAP@k)

#generativeAI
#Metric

검증 데이터 세트에서 모든 k에서의 평균 정밀도 점수의 통계적 평균입니다. k에서의 평균 정밀도의 한 가지 용도는 추천 시스템에서 생성된 추천의 품질을 판단하는 것입니다.

'평균 평균'이라는 문구가 중복되는 것처럼 들리지만 측정항목의 이름은 적절합니다. 결국 이 측정항목은 여러 k에서의 평균 정밀도 값의 평균을 구합니다.

mixture of experts

#generativeAI

토큰 또는 예시를 처리하기 위해 매개변수의 하위 집합 (전문가라고 함)만 사용하여 신경망 효율성을 높이는 방식입니다. 게이팅 네트워크는 각 입력 토큰 또는 예시를 적절한 전문가에게 라우팅합니다.

자세한 내용은 다음 논문을 참고하세요.

MMIT

#generativeAI

멀티모달 인스트럭션 튜닝의 약어입니다.

모델 캐스케이딩

#generativeAI

특정 추론 쿼리에 가장 적합한 모델을 선택하는 시스템입니다.

매우 큰 모델 (매개변수가 많음)부터 훨씬 작은 모델 (매개변수가 훨씬 적음)까지 다양한 모델 그룹을 생각해 보세요. 매우 큰 모델은 추론 시에 작은 모델보다 더 많은 컴퓨팅 리소스를 사용합니다. 하지만 매우 큰 모델은 일반적으로 작은 모델보다 더 복잡한 요청을 추론할 수 있습니다. 모델 캐스케이딩은 추론 쿼리의 복잡성을 결정한 다음 추론을 실행할 적절한 모델을 선택합니다. 모델 캐스케이딩의 주요 동기는 일반적으로 더 작은 모델을 선택하고 더 복잡한 쿼리에만 더 큰 모델을 선택하여 추론 비용을 줄이는 것입니다.

소형 모델은 휴대전화에서 실행되고 해당 모델의 대형 버전은 원격 서버에서 실행된다고 가정해 보겠습니다. 모델 캐스케이딩을 잘 사용하면 소규모 모델이 간단한 요청을 처리하고 복잡한 요청을 처리하기 위해 원격 모델만 호출하여 비용과 지연 시간을 줄일 수 있습니다.

모델 라우터도 참고하세요.

모델 라우터

#generativeAI

모델 캐스케이딩에서 추론에 적합한 모델을 결정하는 알고리즘입니다. 모델 라우터는 일반적으로 주어진 입력에 가장 적합한 모델을 선택하는 방법을 점진적으로 학습하는 머신러닝 모델입니다. 하지만 모델 라우터는 때때로 더 간단한 비머신러닝 알고리즘일 수 있습니다.

MOE

#generativeAI

mixture of experts의 약어입니다.

MT

#generativeAI

기계 번역의 약어입니다.

N

Nano

#generativeAI

온디바이스 사용을 위해 설계된 비교적 작은 Gemini 모델입니다. 자세한 내용은 Gemini Nano를 참고하세요.

ProUltra도 참고하세요.

정답 없음 (NORA)

#generativeAI

정답이 여러 개대답이 있는 프롬프트 예를 들어 다음 프롬프트에는 정답이 없습니다.

코끼리에 관한 재미있는 농담을 들려줘.

정답이 없는 질문에 대한 대답을 평가하는 것은 일반적으로 정답이 하나인 질문을 평가하는 것보다 훨씬 주관적입니다. 예를 들어 코끼리 농담을 평가하려면 농담이 얼마나 웃긴지 판단하는 체계적인 방법이 필요합니다.

NORA

#generativeAI

하나의 정답은 없음의 약어입니다.

NotebookLM

#generativeAI

사용자가 문서를 업로드한 다음 프롬프트를 사용하여 해당 문서에 관해 질문하거나, 문서를 요약하거나, 문서를 정리할 수 있는 Gemini 기반 도구입니다. 예를 들어 작가가 여러 단편 소설을 업로드하고 Notebook LM에 공통 주제를 찾아 달라고 요청하거나 어떤 소설이 영화로 만들기에 가장 적합한지 식별해 달라고 요청할 수 있습니다.

O

정답 1개 (ORA)

#generativeAI

단일 정답 대답이 있는 프롬프트 예를 들어 다음 프롬프트를 살펴보세요.

참 또는 거짓: 토성은 화성보다 큽니다.

유일한 정답은 true입니다.

하나의 정답은 없음과 대조됩니다.

원샷 프롬프팅

#generativeAI

대규모 언어 모델이 어떻게 대답해야 하는지 보여주는 예시 하나가 포함된 프롬프트 예를 들어 다음 프롬프트에는 대규모 언어 모델이 질문에 어떻게 대답해야 하는지 보여주는 예시가 하나 포함되어 있습니다.

하나의 프롬프트의 일부 참고
지정된 국가의 공식 통화는 무엇인가요? LLM이 답변해야 하는 질문입니다.
프랑스: EUR 예를 들어 보겠습니다.
인도: 실제 쿼리입니다.

원샷 프롬프트를 다음 용어와 비교 및 대조하세요.

ORA

#generativeAI

하나의 정답의 약어입니다.

P

파라미터 효율적인 튜닝

#generativeAI

전체 파인 튜닝보다 효율적으로 대규모 사전 학습 언어 모델 (PLM)파인 튜닝하는 일련의 기법입니다. 일반적으로 파라미터 효율적 조정은 전체 미세 조정보다 훨씬 적은 매개변수를 미세 조정하지만, 전체 미세 조정으로 빌드된 대규모 언어 모델만큼 (또는 거의 그만큼) 성능이 좋은 대규모 언어 모델을 생성합니다.

파라미터 효율적인 튜닝을 다음 항목과 비교 및 대조합니다.

파라미터 효율적 조정은 파라미터 효율적 미세 조정이라고도 합니다.

Pax

#generativeAI

여러 TPU 액셀러레이터 칩 슬라이스 또는 포드에 걸쳐 있을 정도로 큰 신경망 모델을 학습하도록 설계된 프로그래밍 프레임워크입니다.

Pax는 JAX를 기반으로 빌드된 Flax를 기반으로 빌드됩니다.

소프트웨어 스택에서 Pax의 위치를 나타내는 다이어그램
          Pax는 JAX를 기반으로 빌드됩니다. Pax 자체는 세 개의 레이어로 구성됩니다. 하단 레이어에는 TensorStore와 Flax가 포함됩니다.
          중간 레이어에는 Optax와 Flaxformer가 포함됩니다. 최상위 레이어에는 Praxis 모델링 라이브러리가 포함되어 있습니다. Fiddle은 Pax를 기반으로 빌드됩니다.

PLM

#generativeAI

사전 학습된 언어 모델의 약어입니다.

사후 학습 모델

#generativeAI

일반적으로 다음과 같은 후처리를 거친 사전 학습된 모델을 지칭하는 느슨하게 정의된 용어입니다.

선행 학습된 모델

#generativeAI

이 용어는 학습된 모델 또는 학습된 임베딩 벡터를 모두 지칭할 수 있지만, 사전 학습된 모델은 이제 일반적으로 학습된 대규모 언어 모델 또는 기타 형태의 학습된 생성형 AI 모델을 지칭합니다.

기본 모델기반 모델도 참고하세요.

사전 학습

#generativeAI

대규모 데이터 세트에서 모델의 초기 학습 일부 사전 학습 모델은 서투른 거인이므로 일반적으로 추가 학습을 통해 개선해야 합니다. 예를 들어 ML 전문가는 Wikipedia의 모든 영어 페이지와 같은 방대한 텍스트 데이터 세트에서 대규모 언어 모델을 사전 학습할 수 있습니다. 사전 학습 후 결과 모델은 다음 기법 중 하나를 통해 추가로 개선될 수 있습니다.

Pro

#generativeAI

Ultra보다 매개변수가 적지만 Nano보다는 많은 Gemini 모델입니다. 자세한 내용은 Gemini Pro를 참고하세요.

프롬프트

#generativeAI

모델이 특정 방식으로 작동하도록 조건을 지정하기 위해 대규모 언어 모델에 입력으로 입력된 텍스트입니다. 프롬프트는 구문만큼 짧을 수도 있고 소설 전체 텍스트와 같이 임의로 길 수도 있습니다. 프롬프트는 다음 표에 표시된 것을 비롯한 여러 카테고리로 분류됩니다.

프롬프트 카테고리 참고
질문 비둘기는 얼마나 빨리 날 수 있나요?
안내 차익 거래에 관한 재미있는 시를 써 줘. 대규모 언어 모델에 작업을 수행하도록 요청하는 프롬프트
마크다운 코드를 HTML로 변환해 줘. 예:
마크다운: * 목록 항목
HTML: <ul> <li>목록 항목</li> </ul>
이 예시 프롬프트의 첫 번째 문장은 명령어입니다. 프롬프트의 나머지 부분은 예시입니다.
역할 물리학 박사에게 머신러닝 학습에 경사하강법이 사용되는 이유를 설명해 줘. 문장의 첫 번째 부분은 명령어이고 '물리학 박사'라는 문구는 역할 부분입니다.
모델이 완료할 부분 입력 영국 총리는 부분 입력 프롬프트는 이 예와 같이 갑자기 끝나거나 밑줄로 끝날 수 있습니다.

생성형 AI 모델은 텍스트, 코드, 이미지, 임베딩, 동영상 등 거의 모든 것으로 프롬프트에 응답할 수 있습니다.

프롬프트 기반 학습

#generativeAI

특정 모델이 임의의 텍스트 입력 (프롬프트)에 대한 응답으로 동작을 조정할 수 있도록 지원하는 기능입니다. 일반적인 프롬프트 기반 학습 패러다임에서 대규모 언어 모델은 텍스트를 생성하여 프롬프트에 응답합니다. 예를 들어 사용자가 다음 프롬프트를 입력한다고 가정해 보겠습니다.

뉴턴의 운동 제3법칙을 요약해 줘.

프롬프트 기반 학습이 가능한 모델은 이전 프롬프트에 대답하도록 특별히 학습되지 않습니다. 오히려 모델은 물리학에 관한 많은 사실, 일반적인 언어 규칙에 관한 많은 정보, 일반적으로 유용한 답변을 구성하는 요소에 관한 많은 정보를 '알고' 있습니다. 이 지식은 유용한 답변을 제공하기에 충분합니다. 추가적인 인간 피드백 ('답변이 너무 복잡합니다.' 또는 '리액션이 뭐지?')을 통해 일부 프롬프트 기반 학습 시스템은 답변의 유용성을 점진적으로 개선할 수 있습니다.

프롬프트 설계

#generativeAI

프롬프트 엔지니어링의 동의어입니다.

프롬프트 엔지니어링

#generativeAI

대규모 언어 모델에서 원하는 응답을 유도하는 프롬프트를 만드는 기술입니다. 사람이 프롬프트 엔지니어링을 수행합니다. 잘 구조화된 프롬프트를 작성하는 것은 대규모 언어 모델에서 유용한 대답을 보장하는 데 필수적입니다. 프롬프트 엔지니어링은 다음을 비롯한 여러 요인에 따라 달라집니다.

  • 사전 학습에 사용되고 대규모 언어 모델을 미세 조정하는 데도 사용될 수 있는 데이터 세트입니다.
  • 모델이 응답을 생성하는 데 사용하는 온도 및 기타 디코딩 파라미터입니다.

프롬프트 설계는 프롬프트 엔지니어링의 동의어입니다.

유용한 프롬프트를 작성하는 방법에 관한 자세한 내용은 프롬프트 설계 소개를 참고하세요.

프롬프트 세트

#generativeAI

대규모 언어 모델평가하기 위한 프롬프트 그룹입니다. 예를 들어 다음 그림은 프롬프트 3개로 구성된 프롬프트 세트를 보여줍니다.

LLM에 대한 세 개의 프롬프트는 세 개의 대답을 생성합니다. 세 개의 프롬프트가 프롬프트 세트입니다. 세 개의 응답이 응답 세트입니다.

좋은 프롬프트 세트는 대규모 언어 모델의 안전성과 유용성을 철저히 평가할 수 있는 충분히 '광범위한' 프롬프트 모음으로 구성됩니다.

응답 세트도 참고하세요.

프롬프트 조정

#generativeAI

시스템이 실제 프롬프트 앞에 추가하는 '프리픽스'를 학습하는 파라미터 효율적 조정 메커니즘

프롬프트 조정의 한 변형(프리픽스 조정이라고도 함)은 모든 레이어에 프리픽스를 추가하는 것입니다. 반면 대부분의 프롬프트 조정은 입력 레이어에 접두사만 추가합니다.

R

참조 텍스트

#generativeAI

프롬프트에 대한 전문가의 대답입니다. 예를 들어 다음 프롬프트가 있다고 가정해 보겠습니다.

'What is your name?'이라는 질문을 영어에서 프랑스어로 번역해 줘.

전문가의 대답은 다음과 같을 수 있습니다.

Comment vous appelez-vous?

다양한 측정항목 (예: ROUGE)은 참조 텍스트가 ML 모델의 생성된 텍스트와 얼마나 일치하는지 측정합니다.

인간 피드백 기반 강화 학습 (RLHF)

#generativeAI

인적 평가자의 의견을 사용하여 모델의 대답 품질을 개선합니다. 예를 들어 RLHF 메커니즘은 사용자에게 모델의 응답 품질을 👍 또는 👎 그림 이모티콘으로 평가하도록 요청할 수 있습니다. 그러면 시스템에서 이 의견을 기반으로 향후 대답을 조정할 수 있습니다.

응답

#generativeAI

생성형 AI 모델이 추론하는 텍스트, 이미지, 오디오 또는 동영상 즉, 프롬프트는 생성형 AI 모델의 입력이고 대답은 출력입니다.

응답 세트

#generativeAI

대규모 언어 모델이 입력 프롬프트 세트에 대해 반환하는 대답의 모음입니다.

역할 프롬프팅

#generativeAI

프롬프트. 일반적으로 라는 인칭 대명사로 시작하며 생성형 AI 모델에 대답을 생성할 때 특정 인물이나 특정 역할을 가장하라고 지시합니다. 역할 프롬프트를 사용하면 생성형 AI 모델이 더 유용한 대답을 생성하기 위한 올바른 '마인드셋'을 갖출 수 있습니다. 예를 들어 원하는 대답의 종류에 따라 다음 역할 프롬프트 중 하나가 적합할 수 있습니다.

컴퓨터 공학 박사 학위가 있습니다.

신규 프로그래밍 학생에게 Python에 대해 인내심을 가지고 설명하는 것을 좋아하는 소프트웨어 엔지니어입니다.

당신은 매우 특별한 프로그래밍 기술을 가진 액션 영웅입니다. Python 목록에서 특정 항목을 찾을 수 있다고 확신시켜 줘.

S

소프트 프롬프트 조정

#generativeAI

리소스 집약적인 미세 조정 없이 특정 작업에 맞게 대규모 언어 모델을 조정하는 기법입니다. 모델의 모든 가중치를 재학습하는 대신 소프트 프롬프트 조정은 동일한 목표를 달성하기 위해 프롬프트를 자동으로 조정합니다.

텍스트 프롬프트가 주어지면 소프트 프롬프트 조정은 일반적으로 프롬프트에 추가 토큰 임베딩을 추가하고 역전파를 사용하여 입력을 최적화합니다.

'하드' 프롬프트에는 토큰 임베딩 대신 실제 토큰이 포함됩니다.

T

기온

#generativeAI

모델 출력의 무작위성 수준을 제어하는 초매개변수입니다. 온도가 높을수록 무작위 출력이 많아지고, 온도가 낮을수록 무작위 출력이 적어집니다.

최적의 온도는 특정 애플리케이션 또는 문자열 값에 따라 달라집니다.

U

Ultra

#generativeAI

매개변수가 가장 많은 Gemini 모델입니다. 자세한 내용은 Gemini Ultra를 참고하세요.

ProNano도 참고하세요.

V

Vertex

#GoogleCloud
#generativeAI
AI 및 머신러닝을 위한 Google Cloud 플랫폼입니다. Vertex는 Gemini 모델에 대한 액세스를 비롯하여 AI 애플리케이션을 빌드, 배포, 관리하기 위한 도구와 인프라를 제공합니다.

Z

제로샷 프롬프팅

#generativeAI

대규모 언어 모델이 응답하는 방식을 보여주는 예시를 제공하지 않는 프롬프트 예를 들면 다음과 같습니다.

하나의 프롬프트의 일부 참고
지정된 국가의 공식 통화는 무엇인가요? LLM이 답변해야 하는 질문입니다.
인도: 실제 쿼리입니다.

대규모 언어 모델은 다음 중 하나로 대답할 수 있습니다.

  • 루피 기호
  • INR
  • 인도 루피
  • 루피
  • 인도 루피

모두 정답이지만 특정 형식을 선호할 수도 있습니다.

제로샷 프롬프트를 다음 용어와 비교 및 대조하세요.