Gemini Code Assist ve sorumlu yapay zeka
Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
Bu dokümanda, üretken yapay zeka ile ilişkili özellikler, sınırlamalar ve riskler göz önünde bulundurularak Gemini Code Assist'in nasıl tasarlandığı açıklanmaktadır.
Büyük dil modellerinin özellikleri ve riskleri
Büyük dil modelleri (LLM'ler), aşağıdakiler gibi birçok yararlı görevi gerçekleştirebilir:
- Dili çevirin.
- Metni özetleyin.
- Kod ve yaratıcı yazı oluşturma.
- Chatbot'ları ve sanal asistanları güçlendirin.
- Arama motorlarını ve öneri sistemlerini tamamlar.
Aynı zamanda, LLM'lerin gelişen teknik özellikleri yanlış uygulama, kötüye kullanım ve istenmeyen veya öngörülemeyen sonuçlara yol açabilir.
LLM'ler rahatsız edici, duyarsız veya yanlış bilgi içeren metinler de dahil olmak üzere beklemediğiniz sonuçlar üretebilir. LLM'ler son derece çok yönlü olduğundan tam olarak ne tür istenmeyen veya öngörülemeyen sonuçlar üretebileceklerini tahmin etmek zor olabilir.
Bu riskler ve karmaşıklıklar göz önüne alındığında, Gemini Code Assist, Google'ın Yapay Zeka İlkeleri'ne göre tasarlanmıştır. Ancak kullanıcıların güvenli ve sorumlu bir şekilde çalışabilmeleri için Gemini Code Assist'in bazı sınırlamalarını anlamaları önemlidir.
Gemini Code Assist sınırlamaları
Gemini Code Assist'i kullanırken karşılaşabileceğiniz sınırlamalardan bazıları şunlardır (ancak bunlarla sınırlı değildir):
Sıra dışı durumlar Uç durumlar, eğitim verilerinde iyi temsil edilmeyen olağan dışı, nadir veya istisnai durumları ifade eder. Bu durumlar, Gemini Code Assist modellerinin çıkışında modelin aşırı güveni, bağlamın yanlış yorumlanması veya uygunsuz çıkışlar gibi sınırlamalara neden olabilir.
Halüsinasyonları, temellendirmeyi ve doğruluğu modelleyin.
Gemini Code Assist modelleri, gerçek dünyadaki bilgiler, fiziksel özellikler veya doğru anlayış açısından temelden yoksun ve gerçek dışı olabilir. Bu sınırlama, Gemini Code Assist'in makul görünen ancak gerçekte yanlış, alakasız, uygunsuz veya anlamsız sonuçlar üretebileceği model halüsinasyonlarına yol açabilir. Halüsinasyonlar, var olmayan ve hiç var olmamış web sayfalarına ait bağlantılar uydurmayı da içerebilir. Daha fazla bilgi için Google Cloud için Gemini'de daha iyi istemler yazma başlıklı makaleyi inceleyin.
Veri kalitesi ve ayarlama Gemini Code Assist ürünlerine girilen istem verilerinin kalitesi, doğruluğu ve yanlılığı, ürünlerin performansını önemli ölçüde etkileyebilir. Kullanıcılar hatalı istemler girerse Gemini Code Assist, optimum olmayan veya yanlış yanıtlar döndürebilir.
Yanlışlık amplifikasyonu. Dil modelleri, eğitim verilerindeki mevcut ön yargıları yanlışlıkla artırabilir. Bu da toplumsal ön yargıları ve belirli gruplara yönelik eşitsiz muameleyi daha da pekiştirebilecek sonuçlara yol açabilir.
Dil kalitesi. Gemini Code Assist, karşılaştırma yaptığımız karşılaştırmalarda etkileyici çok dilli özellikler sunsa da karşılaştırmalarımızın çoğu (adillik değerlendirmelerinin tümü dahil) Amerikan İngilizcesindedir.
Dil modelleri, farklı kullanıcılara tutarsız hizmet kalitesi sunabilir.
Örneğin, metin oluşturma işlemi, eğitim verilerinde yeterince temsil edilmeyen bazı lehçeler veya dil varyasyonları için o kadar etkili olmayabilir.
İngilizce olmayan diller veya daha az temsil edilen İngilizce dil varyantları için performans daha düşük olabilir.
Adil olma ölçütleri ve alt gruplar. Google Research'in Gemini modelleriyle ilgili adalet analizleri, çeşitli olası riskler hakkında kapsamlı bir açıklama sağlamaz. Örneğin, cinsiyet, ırk, etnik köken ve din eksenlerindeki önyargılara odaklanırız ancak analizi yalnızca Amerikan İngilizcesi dil verilerinde ve model çıktılarında gerçekleştiririz.
Sınırlı alan uzmanlığı. Gemini modelleri Google Cloud teknolojisi üzerinde eğitilmiştir ancak son derece uzmanlaşmış veya teknik konularda doğru ve ayrıntılı yanıtlar vermek için gereken bilgi derinliğine sahip olmayabilir. Bu da yüzeysel veya yanlış bilgilere yol açabilir.
Gemini'de güvenlik ve toksik içerik filtreleme
Gemini Code Assist istemleri ve yanıtları, her kullanım alanı için geçerli olan kapsamlı bir güvenlik özellikleri listesine göre kontrol edilir. Bu güvenlik özellikleri, Kabul Edilebilir Kullanım Politikamızı ihlal eden içerikleri filtrelemeyi amaçlar. Bir çıkış zararlı olarak kabul edilirse yanıt engellenir.
Sırada ne var?
Aksi belirtilmediği sürece bu sayfanın içeriği Creative Commons Atıf 4.0 Lisansı altında ve kod örnekleri Apache 2.0 Lisansı altında lisanslanmıştır. Ayrıntılı bilgi için Google Developers Site Politikaları'na göz atın. Java, Oracle ve/veya satış ortaklarının tescilli ticari markasıdır.
Son güncelleme tarihi: 2025-08-31 UTC.
[null,null,["Son güncelleme tarihi: 2025-08-31 UTC."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]