이 페이지에는 생성형 AI 용어집 용어가 포함되어 있습니다. 모든 용어집 용어는 여기를 클릭하세요.
A
자동 평가
소프트웨어를 사용하여 모델 출력의 품질을 판단합니다.
모델 출력이 비교적 간단한 경우 스크립트나 프로그램은 모델의 출력을 골드 응답과 비교할 수 있습니다. 이러한 유형의 자동 평가를 프로그래매틱 평가라고도 합니다. ROUGE 또는 BLEU와 같은 측정항목은 프로그래매틱 평가에 유용합니다.
모델 출력이 복잡하거나 정답이 하나도 없음인 경우 자동 채점 도구라는 별도의 ML 프로그램이 자동 평가를 실행하기도 합니다.
인간 평가와 대비되는 개념입니다.
자동 평가 도구 평가
인간 평가와 자동 평가를 결합하여 생성형 AI 모델의 출력 품질을 판단하는 하이브리드 메커니즘입니다. 자동 평가 도구는 인간 평가를 통해 생성된 데이터를 학습하는 ML 모델입니다. 자동 평가 도구는 인간 평가자를 모방하는 방법을 학습하는 것이 이상적입니다.사전 빌드된 자동 평가 도구를 사용할 수 있지만 가장 좋은 자동 평가 도구는 평가 중인 태스크에 맞게 미세 조정됩니다.
자동 회귀 모델
이전 예측을 기반으로 예측을 추론하는 모델입니다. 예를 들어 자동 회귀 언어 모델은 이전에 예측된 토큰을 기반으로 다음 토큰을 예측합니다. 모든 Transformer 기반 대규모 언어 모델은 자기 회귀입니다.
반면 GAN 기반 이미지 모델은 단계별로 반복적으로 이미지를 생성하는 것이 아니라 단일 전방 패스에서 이미지를 생성하므로 일반적으로 자기 회귀가 아닙니다. 그러나 특정 이미지 생성 모델은 단계적으로 이미지를 생성하므로 자동 회귀 입니다.
C
연쇄적 사고 프롬프트
대규모 언어 모델 (LLM)이 추론 과정을 단계별로 설명하도록 유도하는 프롬프트 엔지니어링 기법입니다. 예를 들어 다음 프롬프트를 살펴보면서 두 번째 문장에 특히 주의를 기울이세요.
7초 만에 시속 0마일에서 60마일로 주행하는 자동차에서 운전자가 경험하는 g-포스는 얼마인가요? 답변에 모든 관련 계산을 표시합니다.
LLM의 응답은 다음과 같습니다.
- 물리학 수식의 시퀀스를 표시하고 적절한 위치에 0, 60, 7 값을 삽입합니다.
- 이러한 수식을 선택한 이유와 다양한 변수의 의미를 설명합니다.
연쇄적 사고 프롬프트를 사용하면 LLM이 모든 계산을 수행하도록 강제하여 더 정확한 답변을 얻을 수 있습니다. 또한 사고 과정 프롬프트를 사용하면 사용자가 LLM의 단계를 검토하여 답변이 적절한지 판단할 수 있습니다.
채팅
ML 시스템(일반적으로 대규모 언어 모델)과의 대화 내용입니다. 채팅의 이전 상호작용(내가 입력한 내용과 대규모 언어 모델이 응답한 방식)은 채팅의 후속 부분에 대한 컨텍스트가 됩니다.
채팅 봇은 대규모 언어 모델의 애플리케이션입니다.
문맥화된 언어 임베딩
인간 모국어 사용자가 할 수 있는 방식으로 단어와 구문을 '이해'하는 것에 가까운 임베딩입니다. 문맥화된 언어 임베딩은 복잡한 문법, 시맨틱, 컨텍스트를 이해할 수 있습니다.
예를 들어 영어 단어 cow의 임베딩을 생각해 보겠습니다. word2vec와 같은 이전의 임베딩은 임베딩 공간에서 cow와 bull의 거리가 ewe (암양)와 ram (숫양)의 거리 또는 female와 male의 거리와 유사하도록 영어 단어를 나타낼 수 있습니다. 문맥화된 언어 임베딩은 영어 사용자가 cow라는 단어를 소나 수소를 의미하는 비공식적인 표현으로 사용하는 경우도 있음을 인식하여 한 걸음 더 나아갈 수 있습니다.
컨텍스트 윈도우
모델이 특정 프롬프트에서 처리할 수 있는 토큰 수입니다. 컨텍스트 창이 클수록 모델은 더 많은 정보를 사용하여 프롬프트에 일관되고 일관된 응답을 제공할 수 있습니다.
D
직접 프롬프트
제로샷 프롬프팅의 동의어입니다.
증류
하나의 모델 (티처라고 함)의 크기를 원래 모델의 예측을 최대한 충실하게 에뮬레이션하는 더 작은 모델 (스튜던트라고 함)로 줄이는 프로세스입니다. 소규모 모델은 대규모 모델 (티처)에 비해 두 가지 주요 이점이 있으므로 정제는 유용합니다.
- 더 빠른 추론 시간
- 메모리 및 에너지 사용량 감소
하지만 학생의 예측은 일반적으로 교사의 예측만큼 정확하지 않습니다.
증류는 학생 모델과 교사 모델의 예측 출력 간의 차이를 기반으로 손실 함수를 최소화하도록 학생 모델을 학습시킵니다.
다음 용어와 함께 증류를 비교 및 대조하세요.
자세한 내용은 머신러닝 단기집중과정의 LLM: 미세 조정, 추출, 프롬프트 엔지니어링을 참고하세요.
E
evals
주로 LLM 평가의 약어로 사용됩니다. 더 광범위하게는 evals는 모든 형태의 평가의 약어입니다.
평가
모델의 품질을 측정하거나 여러 모델을 서로 비교하는 프로세스입니다.
지도 학습 머신러닝 모델을 평가하려면 일반적으로 검증 세트와 테스트 세트를 기준으로 모델을 판단합니다. LLM 평가에는 일반적으로 더 광범위한 품질 및 안전 평가가 포함됩니다.
F
사실성
ML 환경 내에서 출력이 현실을 기반으로 하는 모델을 설명하는 속성입니다. 사실성은 측정항목이 아닌 개념입니다. 예를 들어 다음 프롬프트를 대규모 언어 모델에 전송한다고 가정해 보겠습니다.
식탁용 소금의 화학식은 무엇인가요?
사실성을 최적화하는 모델은 다음과 같이 응답합니다.
NaCl
모든 모델은 사실에 기반해야 한다고 가정하고 싶은 유혹이 있습니다. 그러나 다음과 같은 일부 프롬프트는 생성형 AI 모델이 사실성이 아닌 창의성을 최적화하도록 유도합니다.
우주비행사와 애벌레에 관한 리메릭을 들려줘.
이렇게 만들어진 리메릭은 현실에 기반하지 않을 가능성이 큽니다.
근거와 대비되는 개념입니다.
퓨샷 프롬프팅
대규모 언어 모델이 응답하는 방식을 보여주는 두 개 이상의 예시('몇 개')가 포함된 프롬프트입니다. 예를 들어 다음과 같은 긴 프롬프트에는 대규모 언어 모델이 쿼리에 답변하는 방법을 보여주는 두 가지 예시가 포함되어 있습니다.
하나의 프롬프트의 일부 | 참고 |
---|---|
지정된 국가의 공식 통화는 무엇인가요? | LLM이 답변할 질문 |
프랑스: 유로 | 한 가지 예를 들어 보겠습니다. |
영국: GBP | 다른 예시를 들어보겠습니다. |
인도: | 실제 쿼리입니다. |
퓨샷 프롬프트는 일반적으로 제로샷 프롬프트 및 원샷 프롬프트보다 바람직한 결과를 얻습니다. 그러나 퓨샷 프롬프트에는 더 긴 프롬프트가 필요합니다.
퓨샷 프롬프트 작성은 프롬프트 기반 학습에 적용되는 퓨샷 학습의 한 형태입니다.
자세한 내용은 머신러닝 단기집중과정의 프롬프트 설계를 참고하세요.
미세 조정
사전 학습된 모델에서 수행되는 두 번째 태스크별 학습 패스로, 특정 사용 사례에 맞게 매개변수를 미세 조정합니다. 예를 들어 일부 대규모 언어 모델의 전체 학습 시퀀스는 다음과 같습니다.
- 선행 학습: 모든 영어 위키백과 페이지와 같은 방대한 일반 데이터 세트에서 대규모 언어 모델을 학습합니다.
- 미세 조정: 의료 관련 질문에 답변하는 등 특정 태스크를 수행하도록 사전 학습된 모델을 학습합니다. 미세 조정에는 일반적으로 특정 작업에 중점을 둔 수백 또는 수천 개의 예시가 포함됩니다.
또 다른 예로 대규모 이미지 모델의 전체 학습 시퀀스는 다음과 같습니다.
- 선행 학습: Wikimedia Commons의 모든 이미지와 같은 방대한 일반 이미지 데이터 세트에서 대규모 이미지 모델을 학습합니다.
- 미세 조정: 선행 학습된 모델을 훈련하여 범고래 이미지 생성과 같은 특정 작업을 실행합니다.
미세 조정에는 다음 전략을 조합하여 적용할 수 있습니다.
- 선행 학습된 모델의 기존 매개변수를 모두 수정합니다. 이를 전체 미세 조정이라고도 합니다.
- 선행 학습된 모델의 기존 매개변수 중 일부(일반적으로 출력 레이어에 가장 가까운 레이어)만 수정하고 다른 기존 매개변수 (일반적으로 입력 레이어에 가장 가까운 레이어)는 변경하지 않습니다. 파라미터 효율적인 튜닝을 참고하세요.
- 일반적으로 출력 레이어에 가장 가까운 기존 레이어 위에 레이어를 추가합니다.
미세 조정은 전이 학습의 한 형태입니다. 따라서 미세 조정은 사전 학습된 모델을 학습하는 데 사용된 것과 다른 손실 함수 또는 다른 모델 유형을 사용할 수 있습니다. 예를 들어 선행 학습된 대규모 이미지 모델을 미세 조정하여 입력 이미지의 새 수를 반환하는 회귀 모델을 만들 수 있습니다.
미세 조정을 다음 용어와 비교 및 대조하세요.
자세한 내용은 머신러닝 단기집중과정의 미세 조정을 참고하세요.
성공 비율
ML 모델의 생성된 텍스트를 평가하기 위한 측정항목입니다. 성공 비율은 '성공'한 생성된 텍스트 출력 수를 총 생성된 텍스트 출력 수로 나눈 값입니다. 예를 들어 대규모 언어 모델이 10개의 코드 블록을 생성했는데 그중 5개가 성공했다면 성공 비율은 50%입니다.
성공률은 통계 전반에서 광범위하게 유용하지만 ML 내에서는 코드 생성이나 수학 문제와 같이 검증 가능한 작업을 측정하는 데 주로 유용합니다.
G
Gemini
Google의 가장 진보된 AI로 구성된 생태계입니다. 이 생태계의 요소는 다음과 같습니다.
- 다양한 Gemini 모델
- Gemini 모델의 대화형 대화 인터페이스입니다. 사용자가 프롬프트를 입력하면 Gemini가 해당 프롬프트에 응답합니다.
- 다양한 Gemini API
- Gemini 모델을 기반으로 하는 다양한 비즈니스 제품(예: Google Cloud용 Gemini)
Gemini 모델
Google의 최첨단 Transformer 기반 멀티모달 모델입니다. Gemini 모델은 상담사와 통합되도록 특별히 설계되었습니다.
사용자는 대화형 대화상자 인터페이스, SDK 등을 통해 다양한 방식으로 Gemini 모델과 상호작용할 수 있습니다.
생성된 텍스트
일반적으로 ML 모델이 출력하는 텍스트입니다. 대규모 언어 모델을 평가할 때 일부 측정항목은 생성된 텍스트를 참조 텍스트와 비교합니다. 예를 들어 ML 모델이 프랑스어에서 네덜란드어로 번역하는 효율성을 확인하려고 한다고 가정해 보겠습니다. 이 경우에는 다음과 같습니다.
- 생성된 텍스트는 ML 모델이 출력하는 네덜란드어 번역입니다.
- 참조 텍스트는 사람이나 소프트웨어가 생성한 네덜란드어 번역입니다.
일부 평가 전략에는 참조 텍스트가 포함되지 않습니다.
생성형 AI의
공식적인 정의가 없는 신흥 혁신 분야입니다. 하지만 대부분의 전문가는 생성형 AI 모델이 다음을 모두 충족하는 콘텐츠를 만들 수 있다고 동의합니다.
- 복잡한
- 일관된
- 원본
예를 들어 생성형 AI 모델은 정교한 에세이나 이미지를 만들 수 있습니다.
LSTM 및 RNN을 비롯한 일부 이전 기술도 독창적이고 일관된 콘텐츠를 생성할 수 있습니다. 일부 전문가는 이러한 이전 기술을 생성형 AI로 간주하는 반면, 진정한 생성형 AI에는 이전 기술에서 생성할 수 있는 것보다 더 복잡한 출력이 필요하다고 생각하는 전문가도 있습니다.
예측 ML과 대비되는 개념입니다.
황금 응답
좋은 것으로 알려진 답변입니다. 예를 들어 다음과 같은 프롬프트가 있다고 가정해 보겠습니다.
2 + 2
이상적인 응답은 다음과 같습니다.
4
H
검토자 평가
사람이 ML 모델의 출력물 품질을 판단하는 절차입니다. 예를 들어 이중 언어 사용자가 ML 번역 모델의 품질을 판단하는 경우가 여기에 해당합니다. 사람 평가는 정답이 하나도 없는 모델을 판단하는 데 특히 유용합니다.
자동 평가 및 자동 평가 도구 평가와는 대조됩니다.
인간 참여형 (HITL)
다음 중 하나를 의미할 수 있는 느슨하게 정의된 관용어입니다.
- 생성형 AI 출력을 비판적으로 또는 회의적으로 보는 정책입니다. 예를 들어 이 ML 용어집을 작성하는 인간은 대규모 언어 모델이 할 수 있는 일에 놀라지만 대규모 언어 모델이 저지르는 실수에 유의합니다.
- 사용자가 모델의 동작을 형성, 평가, 미세 조정하는 데 도움을 주는 전략 또는 시스템입니다. 인간을 참여시키면 AI가 머신 지능과 인간 지능의 이점을 모두 누릴 수 있습니다. 예를 들어 AI가 코드를 생성하고 소프트웨어 엔지니어가 검토하는 시스템은 인간이 참여하는 시스템입니다.
I
맥락적 학습
퓨샷 프롬프팅의 동의어입니다.
지침 조정
생성형 AI 모델의 안내를 따르는 기능을 개선하는 미세 조정의 한 형태입니다. 안내 조정에는 일반적으로 다양한 태스크를 다루는 일련의 안내 프롬프트에서 모델을 학습하는 것이 포함됩니다. 그러면 결과적으로 얻은 안내 조정 모델은 다양한 작업에서 제로샷 프롬프트에 유용한 대답을 생성하는 경향이 있습니다.
다음과 비교 및 대조
L
LLM
대규모 언어 모델의 약어입니다.
LLM 평가 (evals)
대규모 언어 모델 (LLM)의 성능을 평가하기 위한 일련의 측정항목 및 벤치마크입니다. LLM 평가는 대략적으로 다음과 같은 작업을 실행합니다.
- 연구원이 LLM을 개선해야 하는 영역을 파악하도록 지원합니다.
- 다양한 LLM을 비교하고 특정 작업에 가장 적합한 LLM을 식별하는 데 유용합니다.
- LLM을 안전하고 윤리적으로 사용할 수 있도록 지원합니다.
LoRA
Low-Rank Adaptability(낮은 순위 적응성)의 약어입니다.
LoRA (Low-Rank Adaptation)
모델의 사전 학습된 가중치를 '고정'하여 더 이상 수정할 수 없게 만든 다음 학습 가능한 가중치의 작은 집합을 모델에 삽입하는 미세 조정을 위한 매개변수 효율적인 기법입니다. 학습 가능한 가중치 집합('업데이트 행렬'이라고도 함)은 기본 모델보다 훨씬 작으므로 학습 속도가 훨씬 빠릅니다.
LoRA는 다음과 같은 이점을 제공합니다.
- 미세 조정이 적용되는 도메인에 대한 모델 예측의 품질을 개선합니다.
- 모델의 모든 매개변수를 미세 조정해야 하는 기법보다 빠르게 미세 조정합니다.
- 동일한 기본 모델을 공유하는 여러 전문 모델을 동시에 제공할 수 있도록 하여 추론의 계산 비용을 줄입니다.
M
기계 번역
소프트웨어(일반적으로 머신러닝 모델)를 사용하여 텍스트를 한 인간 언어에서 다른 인간 언어로 변환합니다(예: 영어에서 일본어로).
k에서의 평균 정밀도 (mAP@k)
검증 데이터 세트에서 모든 k 기준 평균 정밀도 점수의 통계적 평균입니다. k에서의 평균 평균 정밀도의 한 가지 용도는 추천 시스템에서 생성된 맞춤 콘텐츠의 품질을 판단하는 것입니다.
'평균 평균'이라는 문구는 중복된 것처럼 들리지만 측정항목의 이름은 적절합니다. 이 측정항목은 여러 k에서의 평균 정밀도 값의 평균을 구합니다.
전문가의 조합
매개변수의 하위 집합 (전문가라고 함)만 사용하여 주어진 입력 토큰 또는 예시를 처리하여 뉴런 네트워크 효율성을 높이는 스킴입니다. 게이팅 네트워크는 각 입력 토큰 또는 예시를 적절한 전문가에게 라우팅합니다.
자세한 내용은 다음 논문 중 하나를 참고하세요.
MMIT
멀티모달 명령어 조정의 약어입니다.
모델 계층 구조
특정 추론 쿼리에 가장 적합한 모델을 선택하는 시스템입니다.
매우 큰 모델 (매개변수가 많음)부터 훨씬 작은 모델 (매개변수가 훨씬 적음)까지 다양한 모델 그룹을 생각해 보세요. 매우 큰 모델은 소형 모델보다 추론 시 컴퓨팅 리소스를 더 많이 사용합니다. 그러나 매우 큰 모델은 일반적으로 더 작은 모델보다 더 복잡한 요청을 추론할 수 있습니다. 모델 계층화는 추론 쿼리의 복잡성을 결정한 후 추론을 실행할 적절한 모델을 선택합니다. 모델 계층화를 사용하는 주된 이유는 일반적으로 더 작은 모델을 선택하고 더 복잡한 쿼리의 경우에만 더 큰 모델을 선택하여 추론 비용을 줄이기 위함입니다.
작은 모델이 휴대전화에서 실행되고 더 큰 버전의 모델이 원격 서버에서 실행된다고 가정해 보겠습니다. 적절한 모델 계층 구조는 소형 모델이 간단한 요청을 처리하고 원격 모델을 호출하여 복잡한 요청만 처리하도록 하여 비용과 지연 시간을 줄입니다.
모델 라우터도 참고하세요.
모델 라우터
모델 계단식 적용에서 추론에 적합한 모델을 결정하는 알고리즘입니다. 모델 라우터는 일반적으로 특정 입력에 가장 적합한 모델을 선택하는 방법을 점진적으로 학습하는 머신러닝 모델입니다. 하지만 모델 라우터는 머신러닝이 아닌 더 간단한 알고리즘일 수도 있습니다.
MOE
전문가 집단의 약어입니다.
MT
기계 번역의 약어입니다.
N
정답이 없는 문제 (NORA)
적절한 응답이 여러 개인 프롬프트 예를 들어 다음 프롬프트에는 정답이 없습니다.
코끼리 관련 농담 한마디 해 줘.
정답이 없는 프롬프트를 평가하는 것은 쉽지 않을 수 있습니다.
NORA
정답이 없음의 약어입니다.
O
원샷 프롬프팅
대규모 언어 모델이 응답하는 방식을 보여주는 하나의 예시가 포함된 프롬프트입니다. 예를 들어 다음 프롬프트에는 대규모 언어 모델이 쿼리에 대답하는 방법을 보여주는 예시가 하나 포함되어 있습니다.
하나의 프롬프트의 일부 | 참고 |
---|---|
지정된 국가의 공식 통화는 무엇인가요? | LLM이 답변할 질문 |
프랑스: 유로 | 한 가지 예를 들어 보겠습니다. |
인도: | 실제 쿼리입니다. |
원샷 프롬프트를 다음 용어와 비교 및 대조하세요.
P
매개변수 효율적인 튜닝
전체 미세 조정보다 효율적으로 대규모 선행 학습된 언어 모델 (PLM)을 미세 조정하는 일련의 기법입니다. 매개변수 효율적 조정은 일반적으로 전체 미세 조정보다 훨씬 적은 수의 매개변수를 미세 조정하지만 일반적으로 전체 미세 조정에서 빌드된 대규모 언어 모델과 거의 동일한 성능을 발휘하는 대규모 언어 모델을 생성합니다.
매개변수 효율적인 튜닝을 다음과 비교 및 대조하세요.
매개변수 효율적인 조정은 매개변수 효율적인 미세 조정이라고도 합니다.
PLM
선행 학습된 언어 모델의 약어입니다.
학습 후 모델
일반적으로 다음 중 하나 이상의 후처리를 거친 사전 학습된 모델을 나타내는 느슨하게 정의된 용어입니다.
선행 학습된 모델
일반적으로 이미 학습된 모델입니다. 이 용어는 이전에 학습된 임베딩 벡터를 의미할 수도 있습니다.
사전 학습된 언어 모델이라는 용어는 일반적으로 이미 학습된 대규모 언어 모델을 나타냅니다.
사전 학습
대규모 데이터 세트에서 모델을 초기 학습하는 작업입니다. 일부 사전 학습된 모델은 거대하지만 부정확하므로 일반적으로 추가 학습을 통해 미세 조정해야 합니다. 예를 들어 ML 전문가는 위키피디아의 모든 영어 페이지와 같은 방대한 텍스트 데이터 세트에서 대규모 언어 모델을 사전 학습할 수 있습니다. 선행 학습 후에는 다음 기법 중 하나를 통해 결과 모델을 추가로 미세 조정할 수 있습니다.
프롬프트
대규모 언어 모델의 입력으로 입력되어 모델이 특정 방식으로 작동하도록 조정하는 텍스트입니다. 프롬프트는 문구처럼 짧을 수도 있고 소설의 전체 텍스트처럼 임의로 길 수도 있습니다. 프롬프트는 다음 표에 표시된 카테고리를 비롯하여 여러 카테고리로 분류됩니다.
프롬프트 카테고리 | 예 | 참고 |
---|---|---|
질문 | 비둘기는 얼마나 빨리 날 수 있나요? | |
안내 | 차익거래에 관한 재미있는 시를 써 줘. | 대규모 언어 모델에 무언가를 수행하도록 요청하는 프롬프트입니다. |
예 | 마크다운 코드를 HTML로 변환합니다. 예:
마크다운: * 목록 항목 HTML: <ul> <li>목록 항목</li> </ul> |
이 프롬프트의 첫 번째 문장은 안내입니다. 나머지 프롬프트는 예시입니다. |
역할 | 물리학 박사 과정에 있는 학생에게 머신러닝 학습에 경사하강법이 사용되는 이유를 설명합니다. | 문장의 첫 부분은 안내입니다. '물리학 박사'라는 문구는 역할 부분입니다. |
모델이 완료할 부분 입력 | 영국 총리는 | 부분 입력 프롬프트는 갑자기 끝날 수도 있고 (이 예와 같이) 밑줄로 끝날 수도 있습니다. |
생성형 AI 모델은 텍스트, 코드, 이미지, 임베딩, 동영상 등 거의 모든 것으로 프롬프트에 응답할 수 있습니다.
프롬프트 기반 학습
임의의 텍스트 입력 (프롬프트)에 응답하여 동작을 조정할 수 있는 특정 모델의 기능입니다. 일반적인 프롬프트 기반 학습 패러다임에서 대규모 언어 모델은 텍스트를 생성하여 프롬프트에 응답합니다. 예를 들어 사용자가 다음 프롬프트를 입력한다고 가정해 보겠습니다.
뉴턴의 운동 제3법칙을 요약하세요.
프롬프트 기반 학습을 할 수 있는 모델은 이전 프롬프트에 응답하도록 구체적으로 학습되지 않습니다. 오히려 모델은 물리학에 관한 많은 사실, 일반적인 언어 규칙에 관한 많은 사실, 일반적으로 유용한 답변을 구성하는 요소에 관한 많은 사실을 '알고' 있습니다. 이 지식은 유용한 답변을 제공하기에 충분합니다. 추가적인 인간의 피드백(예: '답변이 너무 복잡했습니다.' 또는 '어떤 반응이 있나요?')을 통해 일부 프롬프트 기반 학습 시스템은 답변의 유용성을 점진적으로 개선할 수 있습니다.
프롬프트 설계
프롬프트 엔지니어링의 동의어입니다.
프롬프트 엔지니어링
대규모 언어 모델에서 원하는 응답을 유도하는 프롬프트를 만드는 기술입니다. 사람이 프롬프트 엔지니어링을 실행합니다. 체계적인 메시지 작성은 대규모 언어 모델에서 유용한 응답을 보장하는 데 필수적인 부분입니다. 프롬프트 엔지니어링은 다음을 비롯한 여러 요인에 따라 달라집니다.
유용한 프롬프트 작성에 관한 자세한 내용은 프롬프트 설계 소개를 참고하세요.
프롬프트 설계는 프롬프트 엔지니어링의 동의어입니다.
프롬프트 조정
시스템이 실제 프롬프트 앞에 추가하는 '접두사'를 학습하는 매개변수 효율적인 조정 메커니즘입니다.
프롬프트 조정의 한 가지 변형(접두사 조정이라고도 함)은 모든 레이어에 접두사를 추가하는 것입니다. 반면 대부분의 프롬프트 조정은 입력 레이어에 접두사만 추가합니다.
R
참조 텍스트
프롬프트에 대한 전문가의 대답입니다. 예를 들어 다음과 같은 프롬프트가 표시될 수 있습니다.
'이름이 뭐야?'라는 질문을 영어에서 프랑스어로 번역하세요.
전문가의 응답은 다음과 같습니다.
Comment vous appelez-vous?
다양한 측정항목 (예: ROUGE)은 참조 텍스트가 ML 모델의 생성된 텍스트와 일치하는 정도를 측정합니다.
인간 피드백 기반 강화 학습 (RLHF)
인간 평가자의 의견을 사용하여 모델의 대답 품질을 개선합니다. 예를 들어 RLHF 메커니즘은 사용자에게 👍 또는 👎 그림 이모티콘으로 모델의 대답 품질을 평가해 달라고 요청할 수 있습니다. 그러면 시스템은 이 의견을 바탕으로 향후 응답을 조정할 수 있습니다.
역할 프롬프트
생성형 AI 모델의 응답에 대한 공유 대상 그룹을 식별하는 프롬프트의 선택적 부분입니다. 역할 프롬프트가 없으면 대규모 언어 모델은 질문하는 사람에게 유용하거나 유용하지 않을 수 있는 답변을 제공합니다. 역할 프롬프트를 사용하면 대규모 언어 모델이 특정 타겟층에 더 적합하고 유용한 방식으로 응답할 수 있습니다. 예를 들어 다음 프롬프트의 역할 프롬프트 부분은 굵은 글꼴로 표시됩니다.
- 경제학 박사 과정을 위해 이 도움말을 요약해 줘.
- 10세 아이에게 조수의 작동 원리를 설명합니다.
- 2008년 금융 위기 설명 어린 아이나 골든 리트리버에게 말하는 것처럼 말합니다.
S
조용히 프롬프트 조정
리소스 집약적인 미세 조정 없이 특정 태스크에 맞게 대규모 언어 모델을 조정하는 기법입니다. 모델의 모든 가중치를 재학습하는 대신 조용한 프롬프트 조정은 동일한 목표를 달성하기 위해 프롬프트를 자동으로 조정합니다.
텍스트 프롬프트가 주어지면 조용히 프롬프트를 조정하는 것은 일반적으로 프롬프트에 토큰 임베딩을 추가하고 역전 전파를 사용하여 입력을 최적화합니다.
'단단한' 프롬프트에는 토큰 임베딩 대신 실제 토큰이 포함됩니다.
T
기온
모델 출력의 무작위성 수준을 제어하는 초매개변수입니다. 온도가 높을수록 무작위 출력이 많아지고 온도가 낮을수록 무작위 출력이 적어집니다.
최적의 온도는 특정 애플리케이션과 모델 출력의 선호 속성에 따라 다릅니다. 예를 들어 창의적인 결과물을 생성하는 애플리케이션을 만들 때는 온도를 높일 수 있습니다. 반대로 이미지나 텍스트를 분류하는 모델을 빌드할 때는 모델의 정확성과 일관성을 개선하기 위해 온도를 낮추는 것이 좋습니다.
온도는 softmax와 함께 사용되는 경우가 많습니다.
Z
제로샷 프롬프팅
대규모 언어 모델이 응답할 방식의 예시를 제공하지 않는 프롬프트입니다. 예를 들면 다음과 같습니다.
하나의 프롬프트의 일부 | 참고 |
---|---|
지정된 국가의 공식 통화는 무엇인가요? | LLM이 답변할 질문 |
인도: | 실제 쿼리입니다. |
대규모 언어 모델은 다음 중 하나로 응답할 수 있습니다.
- 루피 기호
- INR
- ₹
- 인도 루피
- 루피
- 인도 루피
모든 답변이 올바르지만 특정 형식을 선호할 수도 있습니다.
제로 샷 프롬프트를 다음 용어와 비교 및 대조하세요.