เอกสารนี้อธิบายถึงวิธีออกแบบฟีเจอร์ช่วยเขียนโค้ดของ Gemini โดยพิจารณาจากความสามารถ ข้อจํากัด และความเสี่ยงที่เชื่อมโยงกับ Generative AI
ความสามารถและความเสี่ยงของโมเดลภาษาขนาดใหญ่
โมเดลภาษาขนาดใหญ่ (LLM) สามารถทํางานต่างๆ ที่มีประโยชน์ได้มากมาย เช่น ต่อไปนี้
- แปลภาษา
- สรุปข้อความ
- สร้างโค้ดและการเขียนเชิงสร้างสรรค์
- ขับเคลื่อนแชทบ็อตและผู้ช่วยเสมือน
- เสริมเครื่องมือค้นหาและระบบการแนะนำ
ในขณะเดียวกัน ความสามารถทางเทคนิคที่พัฒนาขึ้นของ LLM ก็อาจทำให้เกิดการใช้งานที่ไม่ถูกต้อง การใช้ในทางที่ผิด และผลลัพธ์ที่ไม่ตั้งใจหรือคาดไม่ถึง
LLM อาจสร้างเอาต์พุตที่คุณไม่คาดคิด ซึ่งรวมถึงข้อความที่ไม่เหมาะสม ไม่คำนึงถึงความรู้สึกผู้อื่น หรือให้ข้อเท็จจริงที่ไม่ถูกต้อง เนื่องจาก LLM มีความอเนกประสงค์อย่างไม่น่าเชื่อ จึงคาดเดาได้ยากว่าระบบอาจสร้างเอาต์พุตประเภทใดที่ไม่ตั้งใจหรือคาดไม่ถึง
ด้วยเหตุนี้ Gemini Code Assist จึงได้รับการออกแบบโดยคำนึงถึงหลักการเกี่ยวกับ AI ของ Google อย่างไรก็ตาม ผู้ใช้ควรเข้าใจข้อจำกัดบางอย่างของฟีเจอร์ช่วยเขียนโค้ดของ Gemini เพื่อให้ทำงานได้อย่างปลอดภัยและมีความรับผิดชอบ
ข้อจำกัดของฟีเจอร์ช่วยเขียนโค้ดของ Gemini
ข้อจำกัดบางอย่างที่คุณอาจพบเมื่อใช้ฟีเจอร์ช่วยเขียนโค้ดของ Gemini มีดังนี้ (แต่ไม่จำกัดเพียง)
กรณีสุดโต่ง กรณีขอบหมายถึงสถานการณ์ที่ผิดปกติ เกิดขึ้นได้ยาก หรือพิเศษ ซึ่งไม่ได้แสดงอยู่ในข้อมูลการฝึก กรณีเหล่านี้อาจทำให้เกิดข้อจำกัดในเอาต์พุตของโมเดลการช่วยเขียนโค้ดของ Gemini เช่น โมเดลมีความมั่นใจมากเกินไป การตีความบริบทผิดพลาด หรือเอาต์พุตไม่เหมาะสม
อาการหลอนของโมเดล การเชื่อมต่อแหล่งข้อมูล และความถูกต้อง โมเดลของฟีเจอร์ช่วยเขียนโค้ดของ Gemini อาจไม่มีพื้นฐานและข้อเท็จจริงเกี่ยวกับความรู้ในชีวิตจริง คุณสมบัติทางกายภาพ หรือการเข้าใจที่ถูกต้อง ข้อจํากัดนี้อาจทําให้โมเดลหลอน ซึ่ง Gemini Code Assist อาจสร้างเอาต์พุตที่ฟังดูน่าเชื่อถือแต่ข้อเท็จจริงไม่ถูกต้อง ไม่เกี่ยวข้อง ไม่เหมาะสม หรือไร้เหตุผล ภาพหลอนยังรวมถึงการปลอมแปลงลิงก์ไปยังหน้าเว็บที่ไม่มีอยู่และไม่เคยมีอยู่ด้วย ดูข้อมูลเพิ่มเติมได้ที่หัวข้อเขียนพรอมต์ที่ดีขึ้นสำหรับ Gemini สำหรับ Google Cloud
คุณภาพของข้อมูลและการจูน คุณภาพ ความถูกต้อง และอคติของข้อมูลพรอมต์ที่ป้อนลงในผลิตภัณฑ์ของ Gemini Code Assist อาจส่งผลอย่างมากต่อประสิทธิภาพของผลิตภัณฑ์ หากผู้ใช้ป้อนพรอมต์ที่ไม่ถูกต้องหรือไม่แม่นยำ ฟีเจอร์ช่วยเขียนโค้ดของ Gemini อาจแสดงคำตอบที่ไม่ถูกต้องหรือไม่เหมาะสม
การขยายอคติ โมเดลภาษาอาจขยายอคติที่มีอยู่ในชุดข้อมูลการฝึกโดยไม่ได้ตั้งใจ ซึ่งนำไปสู่เอาต์พุตที่อาจตอกย้ำอคติทางสังคมและการให้สิทธิไม่เท่าเทียมกับบางกลุ่ม
คุณภาพของภาษา แม้ว่าเครื่องมือช่วยเขียนโค้ดของ Gemini จะมีประสิทธิภาพที่ยอดเยี่ยมในหลายภาษาในข้อมูลเปรียบเทียบที่เราประเมิน แต่ข้อมูลเปรียบเทียบส่วนใหญ่ (รวมถึงการประเมินความเป็นธรรมทั้งหมด) ของเราเป็นภาษาอังกฤษแบบอเมริกัน
โมเดลภาษาอาจให้บริการที่มีคุณภาพไม่สอดคล้องกันแก่ผู้ใช้แต่ละราย เช่น การสร้างข้อความอาจไม่มีประสิทธิภาพสำหรับภาษาถิ่นหรือภาษาย่อยบางภาษา เนื่องจากมีจำนวนไม่มากนักในข้อมูลการฝึก ประสิทธิภาพอาจแย่ลงสําหรับภาษาที่ไม่ใช่ภาษาอังกฤษหรือภาษาอังกฤษที่มีการแสดงผลน้อย
การเปรียบเทียบความยุติธรรมและกลุ่มย่อย การวิเคราะห์ความยุติธรรมของโมเดล Gemini จาก Google Research ไม่ได้กล่าวถึงความเสี่ยงที่อาจเกิดขึ้นต่างๆ อย่างละเอียด เช่น เรามุ่งเน้นที่อคติตามแกนเพศ เชื้อชาติ ชาติพันธุ์ และศาสนา แต่วิเคราะห์เฉพาะข้อมูลภาษาอังกฤษแบบอเมริกันและเอาต์พุตของโมเดลเท่านั้น
ความเชี่ยวชาญด้านโดเมนที่จำกัด โมเดลของ Gemini ได้รับการฝึกด้วยเทคโนโลยี Google Cloud แต่อาจขาดความรู้เชิงลึกที่จําเป็นในการให้คําตอบที่ถูกต้องและละเอียดเกี่ยวกับหัวข้อเฉพาะทางหรือทางเทคนิคอย่างมาก ซึ่งส่งผลให้ข้อมูลเป็นข้อมูลคร่าวๆ หรือไม่ถูกต้อง
การกรองเนื้อหาที่เป็นอันตรายและเพื่อความปลอดภัยของ Gemini
ระบบจะตรวจสอบพรอมต์และการตอบกลับของ Gemini Code Assist กับรายการแอตทริบิวต์ความปลอดภัยที่ครอบคลุมตามแต่ละกรณีการใช้งาน แอตทริบิวต์ด้านความปลอดภัยเหล่านี้มีไว้เพื่อกรองเนื้อหาที่ละเมิดนโยบายการใช้งานที่ยอมรับได้ หากระบบพิจารณาว่าเอาต์พุตเป็นอันตราย ระบบจะบล็อกการตอบกลับ
ขั้นตอนถัดไป
- ดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่เครื่องมือช่วยเขียนโค้ดของ Gemini อ้างอิงแหล่งที่มาเมื่อช่วยคุณสร้างโค้ด