Gemini Code Assist และ AI ที่รับผิดชอบ

เอกสารนี้อธิบายถึงวิธีออกแบบฟีเจอร์ช่วยเขียนโค้ดของ Gemini โดยพิจารณาจากความสามารถ ข้อจํากัด และความเสี่ยงที่เชื่อมโยงกับ Generative AI

ความสามารถและความเสี่ยงของโมเดลภาษาขนาดใหญ่

โมเดลภาษาขนาดใหญ่ (LLM) สามารถทํางานต่างๆ ที่มีประโยชน์ได้มากมาย เช่น ต่อไปนี้

  • แปลภาษา
  • สรุปข้อความ
  • สร้างโค้ดและการเขียนเชิงสร้างสรรค์
  • ขับเคลื่อนแชทบ็อตและผู้ช่วยเสมือน
  • เสริมเครื่องมือค้นหาและระบบการแนะนำ

ในขณะเดียวกัน ความสามารถทางเทคนิคที่พัฒนาขึ้นของ LLM ก็อาจทำให้เกิดการใช้งานที่ไม่ถูกต้อง การใช้ในทางที่ผิด และผลลัพธ์ที่ไม่ตั้งใจหรือคาดไม่ถึง

LLM อาจสร้างเอาต์พุตที่คุณไม่คาดคิด ซึ่งรวมถึงข้อความที่ไม่เหมาะสม ไม่คำนึงถึงความรู้สึกผู้อื่น หรือให้ข้อเท็จจริงที่ไม่ถูกต้อง เนื่องจาก LLM มีความอเนกประสงค์อย่างไม่น่าเชื่อ จึงคาดเดาได้ยากว่าระบบอาจสร้างเอาต์พุตประเภทใดที่ไม่ตั้งใจหรือคาดไม่ถึง

ด้วยเหตุนี้ Gemini Code Assist จึงได้รับการออกแบบโดยคำนึงถึงหลักการเกี่ยวกับ AI ของ Google อย่างไรก็ตาม ผู้ใช้ควรเข้าใจข้อจำกัดบางอย่างของฟีเจอร์ช่วยเขียนโค้ดของ Gemini เพื่อให้ทำงานได้อย่างปลอดภัยและมีความรับผิดชอบ

ข้อจำกัดของฟีเจอร์ช่วยเขียนโค้ดของ Gemini

ข้อจำกัดบางอย่างที่คุณอาจพบเมื่อใช้ฟีเจอร์ช่วยเขียนโค้ดของ Gemini มีดังนี้ (แต่ไม่จำกัดเพียง)

  • กรณีสุดโต่ง กรณีขอบหมายถึงสถานการณ์ที่ผิดปกติ เกิดขึ้นได้ยาก หรือพิเศษ ซึ่งไม่ได้แสดงอยู่ในข้อมูลการฝึก กรณีเหล่านี้อาจทำให้เกิดข้อจำกัดในเอาต์พุตของโมเดลการช่วยเขียนโค้ดของ Gemini เช่น โมเดลมีความมั่นใจมากเกินไป การตีความบริบทผิดพลาด หรือเอาต์พุตไม่เหมาะสม

  • อาการหลอนของโมเดล การเชื่อมต่อแหล่งข้อมูล และความถูกต้อง โมเดลของฟีเจอร์ช่วยเขียนโค้ดของ Gemini อาจไม่มีพื้นฐานและข้อเท็จจริงเกี่ยวกับความรู้ในชีวิตจริง คุณสมบัติทางกายภาพ หรือการเข้าใจที่ถูกต้อง ข้อจํากัดนี้อาจทําให้โมเดลหลอน ซึ่ง Gemini Code Assist อาจสร้างเอาต์พุตที่ฟังดูน่าเชื่อถือแต่ข้อเท็จจริงไม่ถูกต้อง ไม่เกี่ยวข้อง ไม่เหมาะสม หรือไร้เหตุผล ภาพหลอนยังรวมถึงการปลอมแปลงลิงก์ไปยังหน้าเว็บที่ไม่มีอยู่และไม่เคยมีอยู่ด้วย ดูข้อมูลเพิ่มเติมได้ที่หัวข้อเขียนพรอมต์ที่ดีขึ้นสำหรับ Gemini สำหรับ Google Cloud

  • คุณภาพของข้อมูลและการจูน คุณภาพ ความถูกต้อง และอคติของข้อมูลพรอมต์ที่ป้อนลงในผลิตภัณฑ์ของ Gemini Code Assist อาจส่งผลอย่างมากต่อประสิทธิภาพของผลิตภัณฑ์ หากผู้ใช้ป้อนพรอมต์ที่ไม่ถูกต้องหรือไม่แม่นยำ ฟีเจอร์ช่วยเขียนโค้ดของ Gemini อาจแสดงคำตอบที่ไม่ถูกต้องหรือไม่เหมาะสม

  • การขยายอคติ โมเดลภาษาอาจขยายอคติที่มีอยู่ในชุดข้อมูลการฝึกโดยไม่ได้ตั้งใจ ซึ่งนำไปสู่เอาต์พุตที่อาจตอกย้ำอคติทางสังคมและการให้สิทธิไม่เท่าเทียมกับบางกลุ่ม

  • คุณภาพของภาษา แม้ว่าเครื่องมือช่วยเขียนโค้ดของ Gemini จะมีประสิทธิภาพที่ยอดเยี่ยมในหลายภาษาในข้อมูลเปรียบเทียบที่เราประเมิน แต่ข้อมูลเปรียบเทียบส่วนใหญ่ (รวมถึงการประเมินความเป็นธรรมทั้งหมด) ของเราเป็นภาษาอังกฤษแบบอเมริกัน

    โมเดลภาษาอาจให้บริการที่มีคุณภาพไม่สอดคล้องกันแก่ผู้ใช้แต่ละราย เช่น การสร้างข้อความอาจไม่มีประสิทธิภาพสำหรับภาษาถิ่นหรือภาษาย่อยบางภาษา เนื่องจากมีจำนวนไม่มากนักในข้อมูลการฝึก ประสิทธิภาพอาจแย่ลงสําหรับภาษาที่ไม่ใช่ภาษาอังกฤษหรือภาษาอังกฤษที่มีการแสดงผลน้อย

  • การเปรียบเทียบความยุติธรรมและกลุ่มย่อย การวิเคราะห์ความยุติธรรมของโมเดล Gemini จาก Google Research ไม่ได้กล่าวถึงความเสี่ยงที่อาจเกิดขึ้นต่างๆ อย่างละเอียด เช่น เรามุ่งเน้นที่อคติตามแกนเพศ เชื้อชาติ ชาติพันธุ์ และศาสนา แต่วิเคราะห์เฉพาะข้อมูลภาษาอังกฤษแบบอเมริกันและเอาต์พุตของโมเดลเท่านั้น

  • ความเชี่ยวชาญด้านโดเมนที่จำกัด โมเดลของ Gemini ได้รับการฝึกด้วยเทคโนโลยี Google Cloud แต่อาจขาดความรู้เชิงลึกที่จําเป็นในการให้คําตอบที่ถูกต้องและละเอียดเกี่ยวกับหัวข้อเฉพาะทางหรือทางเทคนิคอย่างมาก ซึ่งส่งผลให้ข้อมูลเป็นข้อมูลคร่าวๆ หรือไม่ถูกต้อง

การกรองเนื้อหาที่เป็นอันตรายและเพื่อความปลอดภัยของ Gemini

ระบบจะตรวจสอบพรอมต์และการตอบกลับของ Gemini Code Assist กับรายการแอตทริบิวต์ความปลอดภัยที่ครอบคลุมตามแต่ละกรณีการใช้งาน แอตทริบิวต์ด้านความปลอดภัยเหล่านี้มีไว้เพื่อกรองเนื้อหาที่ละเมิดนโยบายการใช้งานที่ยอมรับได้ หากระบบพิจารณาว่าเอาต์พุตเป็นอันตราย ระบบจะบล็อกการตอบกลับ

ขั้นตอนถัดไป