Dokumen ini menjelaskan cara Gemini Code Assist dirancang berdasarkan kemampuan, batasan, dan risiko yang terkait dengan AI generatif.
Kemampuan dan risiko model bahasa besar
Model bahasa besar (LLM) dapat melakukan banyak tugas yang berguna seperti berikut:
- Terjemahkan bahasa.
- Meringkas teks.
- Membuat kode dan menulis materi iklan.
- Memperkuat chatbot dan asisten virtual.
- Melengkapi mesin telusur dan sistem rekomendasi.
Pada saat yang sama, kemampuan teknis LLM yang terus berkembang menciptakan potensi penyelewengan, penyalahgunaan, dan konsekuensi yang tidak diinginkan atau tidak terduga.
LLM dapat menghasilkan output yang tidak Anda harapkan, termasuk teks yang menyinggung, tidak sensitif, atau salah secara faktual. Karena LLM sangat fleksibel, mungkin sulit untuk memprediksi dengan tepat jenis output yang tidak diinginkan atau tidak terduga yang mungkin dihasilkan.
Mengingat risiko dan kompleksitas ini, Gemini Code Assist dirancang dengan mempertimbangkan prinsip AI Google. Namun, penting bagi pengguna untuk memahami beberapa batasan Gemini Code Assist agar dapat bekerja dengan aman dan bertanggung jawab.
Batasan Gemini Code Assist
Beberapa batasan yang mungkin Anda temui saat menggunakan Gemini Code Assist mencakup (tetapi tidak terbatas pada) hal berikut:
Kasus ekstrem. Kasus khusus mengacu pada situasi yang tidak biasa, jarang, atau luar biasa yang tidak terwakili dengan baik dalam data pelatihan. Kasus-kasus ini dapat menyebabkan keterbatasan dalam output model Gemini Code Assist, seperti keyakinan berlebihan model, salah tafsir konteks, atau output yang tidak sesuai.
Membuat model halusinasi, perujukan, dan fakta. Model Gemini Code Assist mungkin tidak memiliki dasar dan fakta dalam pengetahuan dunia nyata, properti fisik, atau pemahaman yang akurat. Keterbatasan ini dapat menyebabkan halusinasi model, yaitu saat Gemini Code Assist mungkin menghasilkan output yang terdengar masuk akal, tetapi salah secara faktual, tidak relevan, tidak pantas, atau tidak masuk akal. Halusinasi juga dapat mencakup pembuatan link ke halaman web yang tidak ada dan tidak pernah ada. Untuk mengetahui informasi selengkapnya, lihat Menulis perintah yang lebih baik untuk Gemini untuk Google Cloud.
Kualitas dan penyesuaian data. Kualitas, akurasi, dan bias data prompt yang dimasukkan ke produk Gemini Code Assist dapat memberikan dampak yang signifikan terhadap performanya. Jika pengguna memasukkan perintah yang tidak akurat atau salah, Gemini Code Assist mungkin menampilkan respons yang kurang optimal atau salah.
Amplifikasi bias. Model bahasa dapat secara tidak sengaja memperkuat bias yang sudah ada dalam data pelatihannya, sehingga menghasilkan output yang dapat semakin memperkuat prasangka sosial dan perlakuan yang tidak setara terhadap kelompok tertentu.
Kualitas bahasa. Meskipun Gemini Code Assist menghasilkan kemampuan multibahasa yang mengesankan pada tolok ukur yang kami evaluasi, sebagian besar tolok ukur kami (termasuk semua evaluasi keadilan) menggunakan bahasa Inggris Amerika.
Model bahasa mungkin memberikan kualitas layanan yang tidak konsisten kepada pengguna yang berbeda. Misalnya, pembuatan teks mungkin tidak efektif untuk beberapa dialek atau varietas bahasa karena data pelatihan kurang terwakili. Performa mungkin lebih buruk untuk bahasa non-Inggris atau variasi bahasa Inggris dengan representasi yang lebih sedikit.
Sub-grup dan tolok ukur keadilan. Analisis keadilan Tim Riset Google terhadap model Gemini tidak memberikan informasi lengkap mengenai berbagai potensi risiko. Misalnya, kami berfokus pada bias terkait sumbu gender, ras, etnis, dan agama, tetapi hanya melakukan analisis pada output model dan data berbahasa Inggris Amerika.
Keahlian domain terbatas. Model Gemini telah dilatih dengan teknologi Google Cloud, tetapi mungkin tidak memiliki kedalaman pengetahuan yang diperlukan untuk memberikan respons yang akurat dan mendetail tentang topik yang sangat khusus atau teknis, sehingga menghasilkan informasi yang bersifat dangkal atau salah.
Pemfilteran keamanan dan toksisitas Gemini
Perintah dan respons Gemini Code Assist diperiksa berdasarkan daftar atribut keamanan yang komprehensif sebagaimana berlaku untuk setiap kasus penggunaan. Atribut keamanan ini bertujuan untuk memfilter konten yang melanggar Kebijakan Penggunaan yang Dapat Diterima kami. Jika output dianggap berbahaya, respons akan diblokir.
Langkah berikutnya
- Pelajari lebih lanjut cara Gemini Code Assist mengutip sumber saat membantu Anda membuat kode.