Gemini Code Assist 및 책임감 있는 AI
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
이 문서에서는 생성형 AI와 관련된 기능, 제한사항, 위험과 관련해 Gemini Code Assist를 어떻게 설계했는지 설명합니다.
대규모 언어 모델의 기능 및 위험
대규모 언어 모델(LLM)은 다음과 같은 여러 유용한 태스크를 수행할 수 있습니다.
- 언어를 번역합니다.
- 텍스트를 요약합니다.
- 코드를 생성하고 창의적 글쓰기를 돕습니다.
- 챗봇 및 가상 어시스턴트를 지원합니다.
- 검색엔진과 추천 시스템을 보완합니다.
한편 LLM은 발전 중인 기술이기 때문에 악용, 오용, 의도치 않거나 예측하지 못한 결과가 발생할 수 있습니다.
LLM은 불쾌감을 주거나 민감하지 않거나 사실에 맞지 않는 텍스트를 포함하여 예상치 못한 출력을 생성할 수 있습니다. LLM은 매우 다양한 용도로 사용되기 때문에 발생할 수 있는 의도치 않거나 예측하지 못한 출력의 유형을 정확히 예측하기가 어렵습니다.
이러한 위험과 복잡성을 감안하여 Gemini Code Assist는 Google의 AI 원칙을 염두에 두고 설계되었습니다. 그러나 사용자가 안전하고 책임감 있게 작업하기 위해서는 Gemini Code Assist의 몇 가지 제한사항을 이해하는 것이 중요합니다.
Gemini Code Assist 제한사항
Gemini Code Assist를 사용할 때 발생할 수 있는 몇 가지 제한사항은 다음과 같습니다 (이에 국한되지 않음).
특이한 케이스. 특이한 케이스는 학습 데이터에 잘 표현되지 않는 일반적이지 않거나 드물거나 예외적인 상황을 나타냅니다. 이러한 케이스로 인해 모델 과신, 잘못된 컨텍스트 해석 또는 부적절한 출력과 같이 Gemini Code Assist 모델 출력이 제한될 수 있습니다.
모델 할루시네이션, 근거, 사실성.
Gemini Code Assist 모델에 실제 지식, 물리적 속성 또는 정확한 이해에 대한 근거와 사실성이 부족할 수 있습니다. 이러한 제한사항으로 인해 모델 할루시네이션이 발생할 수 있습니다. 모델 할루시네이션이 발생할 경우 Gemini Code Assist가 그럴듯하게 들리지만, 실제로는 잘못되었거나 관련이 없거나 부적절하거나 무의미한 출력을 생성할 수 있습니다. 또한 존재하지 않거나 존재한 적 없는 웹페이지에 대한 링크를 조작할 수도 있습니다. 자세한 내용은 보다 효과적인 Google Cloud를 위한 Gemini 프롬프트 작성을 참조하세요.
데이터 품질 및 조정. Gemini Code Assist 제품에 입력되는 프롬프트 데이터의 품질, 정확성, 편향은 성능에 상당한 영향을 미칠 수 있습니다. 사용자가 부정확하거나 잘못된 프롬프트를 입력하면 Gemini Code Assist에서 최적이 아니거나 거짓인 응답을 반환할 수 있습니다.
편향 증폭. 언어 모델이 학습 데이터의 기존 편향을 의도치 않게 증폭시켜 사회적 편견과 특정 그룹의 불공평한 대우를 더욱 강화하는 결과가 발생할 수 있습니다.
언어 품질. Gemini Code Assist는 평가 기준이 되는 벤치마크에 관한 많은 다국어 기능을 제공하지만 대부분의 벤치마크 (모든 공정성 평가 포함)가 미국 영어를 사용합니다.
언어 모델은 사용자마다 일관성 없는 서비스 품질을 제공할 수 있습니다.
예를 들어 학습 데이터의 과소 표현으로 인해 텍스트 생성이 일부 언어나 언어 다양성에 효과적이지 않을 수 있습니다.
영어가 아닌 언어나 표현이 적은 영어와 유사한 언어의 경우 성능이 저하될 수 있습니다.
공정성 벤치마크 및 하위 그룹. Google 연구팀의 Gemini 모델에 대한 공정성 분석에서는 다양한 잠재적 위험을 포괄적으로 다루지 않습니다. 예를 들어 성별, 인종, 민족, 종교 축에 따른 편향에 초점을 맞추지만 미국 영어 데이터와 모델 출력에 대한 분석만 수행합니다.
제한된 분야 전문성. Gemini 모델은 Google Cloud 기술로 학습되었지만 고도로 전문화되거나 기술적인 주제에 대한 정확하고 자세한 응답을 제공하는 데 필요한 깊이 있는 지식이 부족하여 피상적이거나 잘못된 정보를 전달할 수 있습니다.
Gemini 안전 및 유해성 필터링
Gemini Code Assist 프롬프트와 응답은 각 사용 사례에 적용되는 포괄적인 보안 속성 목록과 대조해 확인됩니다. 이러한 안전 속성의 목표는 Google의 서비스이용 정책을 위반하는 콘텐츠를 필터링하는 것입니다. 출력이 유해한 것으로 간주되면 응답이 차단됩니다.
다음 단계
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-08-31(UTC)
[null,null,["최종 업데이트: 2025-08-31(UTC)"],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]