이 페이지는 Cloud Translation API를 통해 번역되었습니다. 대규모 언어 모델: 지식 테스트 경로로 돌아가기 다음 문구에 2그램 (비그램)이 몇 개나 있나요? they visited New York last week 3 4 5 6 다른 유형의 언어 모델에 비해 더 나은 예측을 하는 데 도움이 되는 대규모 언어 모델의 특성은 무엇인가요? 해당되는 항목을 모두 선택해 주세요. 적절한 답변을 모두 선택합니다. LLM에는 더 많은 매개변수가 포함됩니다. LLM은 더 많은 컨텍스트를 캡처합니다. LLM은 그다지 많은 데이터를 학습하지 않아도 됩니다. LLM은 할루시네이션을 일으킬 수 없습니다. 참 또는 거짓: 완전한 Transformer는 인코더와 디코더로 구성됩니다. 참 거짓 LLM은 다음 예시를 포함한 대량의 데이터 코퍼스에 대해 학습됩니다. My cousin's new fashion line is so cool! LLM이 이 문장에서 '멋지다'는 것을 학습하는 데 도움이 되는 메커니즘은 무엇일까요? '훌륭하다'를 의미할 가능성이 높습니다 옷의 온도를 의미하지 않나요? 프롬프트 엔지니어링 디코더 정제 자기 집중 미세 조정과 정제에 대한 다음 설명 중 참인 것은 무엇인가요? 미세 조정은 모델의 매개변수 수를 늘리는 반면 정제는 모델의 매개변수 수를 줄입니다. 미세 조정은 일반적으로 모델 예측의 품질을 높이는 반면, 정제는 일반적으로 모델 예측의 품질을 떨어뜨립니다. 미세 조정은 텍스트 모델에서 수행되는 반면, 정제는 이미지 모델에서 수행됩니다. 해당 사항 없음 답변 제출 error_outline 퀴즈를 채점하는 중에 오류가 발생했습니다. 다시 시도해 주세요.