จริยธรรมและความปลอดภัยเกี่ยวกับ AI และ ML

ML มีศักยภาพในการเปลี่ยนแปลงสังคมในหลายๆ ด้าน ทั้งในแง่บวกและแง่ลบ จำเป็นต้องพิจารณาผลกระทบทางจริยธรรมของโมเดลและระบบที่โมเดลเป็นส่วนหนึ่ง

เช่นเดียวกับเทคโนโลยีอื่นๆ ที่ Google พัฒนา โครงการ ML ก็ควรสร้างประโยชน์ให้แก่สังคม ไม่ควรก่อให้เกิดอันตรายหรืออ่อนไหวต่อการใช้งานในทางที่ผิด และไม่ควรทำให้อคติหรืออคติซ้ำรุนแรงขึ้นเรื่อย ๆ รวมถึงไม่ควรรวบรวมหรือใช้ข้อมูลส่วนตัวอย่างไม่มีความรับผิดชอบ

หลักการเกี่ยวกับ AI ของ Google

โปรเจ็กต์ ML ต้องเป็นไปตามหลักการเกี่ยวกับ AI ของ Google เว็บไซต์หลักปฏิบัติอัจฉริยะเกี่ยวกับ AI (RAI) ที่มีความรับผิดชอบช่วยให้ Googler พัฒนาโซลูชัน ML ที่มีหลักการและสอดคล้องกับหลักการเกี่ยวกับ AI ของ Google ได้

RAI Smart Practices คือแนวทางที่นำไปปฏิบัติได้จริงสำหรับทีมต่างๆ ที่จะนำมาใช้เพื่อพัฒนา AI และ ML อย่างมีความรับผิดชอบ โซลูชัน ML ควรเป็นไปตามคำแนะนำของ Google ในโดเมนต่อไปนี้

  • ความยุติธรรม
  • ความเป็นส่วนตัว
  • ความโปร่งใส
  • ความปลอดภัย

หากมีคำถามหรือข้อกังวลเกี่ยวกับ ML และจริยธรรม โปรดปรึกษา PCounsel และคณะทำงานด้านความเป็นส่วนตัวของผลิตภัณฑ์

ความยุติธรรม

หลีกเลี่ยงการสร้างหรือส่งเสริมอคติที่ไม่เป็นธรรม โมเดลจะแสดงความลำเอียงเมื่อข้อมูลการฝึกมีลักษณะต่อไปนี้

  • ไม่ได้สะท้อนถึงประชากรผู้ใช้ ในชีวิตจริง

  • แต่ยังคงคำตัดสินหรือผลลัพธ์ที่มีอคติ เช่น การตัดสินเกี่ยวกับกระบวนการยุติธรรมทางอาญา เช่น การจำคุก

  • ใช้ฟีเจอร์ที่มีประสิทธิภาพในการคาดการณ์มากขึ้นสำหรับกลุ่มผู้ใช้บางกลุ่ม

ตัวอย่างก่อนหน้านี้เป็นเพียงตัวอย่างบางส่วนของการมีความลำเอียง การทำความเข้าใจข้อมูลให้ละเอียดถี่ถ้วนเป็นสิ่งสำคัญในการค้นพบและแก้ไขอคติที่อาจมีอยู่ในข้อมูล ขั้นตอนแรกในการพัฒนาโมเดลที่เป็นธรรมคือ การยืนยันข้อมูลการฝึกสะท้อนให้เห็นถึงการกระจายตัวของผู้ใช้อย่างถูกต้อง ต่อไปนี้เป็นแนวทางปฏิบัติเพิ่มเติมเพื่อช่วยสร้างโมเดลที่เป็นธรรม

  • ระบุกลุ่มคนที่ไม่ได้รับการประเมินในชุดข้อมูลหรือกลุ่มการประเมินที่อาจทำให้โมเดลมีคุณภาพต่ำเมื่อเทียบกับกลุ่มอื่นๆ คุณอาจต้องสุ่มตัวอย่างกลุ่มย่อยของผู้ใช้มากเกินไปเพื่อเพิ่มการปรากฏในข้อมูลการฝึก

  • ใช้ชุดข้อมูลทองคำ (หรือที่เรียกว่าชุดข้อมูลเปรียบเทียบ) เพื่อตรวจสอบโมเดลกับปัญหาด้านความเป็นธรรมและตรวจหาอคติโดยนัย

  • หลีกเลี่ยงการใส่ฟีเจอร์ที่ละเอียดอ่อนในชุดข้อมูล เช่น เพศหรือชาติพันธุ์

  • หลีกเลี่ยงการใส่ฟีเจอร์ที่มีอำนาจในเชิงอรรถหรือคำอธิบายเพียงเล็กน้อย แต่โดยเฉพาะอย่างยิ่งในบริบทที่มีความละเอียดอ่อนซึ่งมีการใช้โมเดลที่ผ่านการฝึกนั้นเพื่อดำเนินงานที่มีผลกระทบสูงในด้านต่างๆ เช่น การดูแลสุขภาพ การเงิน การศึกษา การจ้างงาน ฯลฯ เช่น โมเดลการอนุมัติสินเชื่อบ้าน อย่าใส่ชื่อในข้อมูลการฝึกอบรม นอกจากชื่อของผู้สมัครจะไม่เกี่ยวข้องกับงานการคาดคะเนแล้ว การทิ้งคุณลักษณะที่ไม่เกี่ยวข้องไว้ในชุดข้อมูลยังอาจทำให้เกิดอคติโดยไม่รู้ตัวหรือความเสียหายในลักษณะจัดสรรได้ ตัวอย่างเช่น รูปแบบนี้อาจเชื่อมโยงชื่อผู้ชายกับ ความน่าจะเป็นในการได้รับชำระเงินคืนสูงกว่า หรือในทางกลับกัน

  • วัดผลกระทบที่ไม่พึงประสงค์ที่อาจเกิดขึ้นซึ่งการคาดการณ์ของโมเดลอาจมีต่อบางกลุ่ม และพิจารณาเทคนิคการแก้ไขความอยุติธรรมโดยเจตนาหากคุณพบผลกระทบที่ไม่พึงประสงค์ในบริบทที่ละเอียดอ่อน

ดูข้อมูลเพิ่มเติมเกี่ยวกับความเป็นธรรมของ AI และ ML ได้ที่หน้าความเป็นธรรมของแนวทางปฏิบัติอัจฉริยะและ โมดูลความยุติธรรมของหลักสูตรข้อขัดข้องของแมชชีนเลิร์นนิง

ความเป็นส่วนตัว

นำหลักการออกแบบความเป็นส่วนตัวมาใช้ตั้งแต่แรก เช่นเดียวกับฟีเจอร์หรือผลิตภัณฑ์ใหม่ๆ ที่ Google โมเดลของคุณจะต้องได้รับการตรวจสอบโดยคณะทำงานด้านความเป็นส่วนตัวของพื้นที่ผลิตภัณฑ์ของคุณ ดังนั้น ให้สร้างเอกสารการออกแบบความเป็นส่วนตัวตั้งแต่เนิ่นๆ เพื่อรับความคิดเห็นเบื้องต้น

กฎหมายและนโยบายที่เกี่ยวข้องกับความเป็นส่วนตัวที่ควรคำนึงถึงและปฏิบัติตามมีดังนี้

หลักปฏิบัติเกี่ยวกับนโยบายความเป็นส่วนตัวเฉพาะของ Google ที่ต้องปฏิบัติตามมีดังนี้

  • กฎระเบียบในการล้างข้อมูล

  • ไบนารีและรหัสการกำหนดค่า (BCID) ระดับ 4 เพื่อป้องกันไม่ให้โค้ดที่เป็นอันตรายหรือถูกบุกรุกเข้าถึงระบบของคุณ

  • นำ PII ทั้งหมดออกจากชุดข้อมูลและยืนยันว่าโมเดลและที่เก็บข้อมูลได้รับการตั้งค่าด้วยสิทธิ์ที่ถูกต้อง เช่น ไม่สามารถอ่านได้ทั่วโลก

วิดีโอต่อไปนี้จะแสดงภาพรวมระดับสูงของปัญหาเกี่ยวกับความเป็นส่วนตัว

ดูข้อมูลเพิ่มเติมเกี่ยวกับความเป็นส่วนตัวของ AI และ ML ได้ที่หน้าความเป็นส่วนตัวของแนวทางปฏิบัติอัจฉริยะ

ความโปร่งใส

มีความรับผิดชอบต่อผู้อื่น เช่น ทำให้คนอื่นเข้าใจได้ง่าย ว่าโมเดลของคุณทำยังไง ทำอย่างไร และทำไมถึงเป็นเช่นนั้น การ์ดโมเดลมีเทมเพลตสำหรับบันทึกโมเดลและสร้างอาร์ติแฟกต์ความโปร่งใส

ดูข้อมูลเพิ่มเติมเกี่ยวกับความโปร่งใสของ AI และ ML ได้ที่หน้าความโปร่งใสของแนวทางปฏิบัติอัจฉริยะ

ความปลอดภัย

ออกแบบแบบจำลองให้ทำงานได้อย่างปลอดภัยในสภาวะที่ไม่พึงประสงค์ เช่น ทดสอบโมเดลกับอินพุตที่อาจมีเจตนาร้ายเพื่อยืนยันว่าโมเดลของคุณปลอดภัย นอกจากนี้ ให้ตรวจสอบเงื่อนไขความล้มเหลวที่อาจเกิดขึ้น โดยทั่วไปทีมจะใช้ชุดข้อมูลที่ออกแบบมาเป็นพิเศษเพื่อทดสอบโมเดลด้วยอินพุตหรือเงื่อนไขที่ทำให้โมเดลล้มเหลวในอดีต

ดูข้อมูลเพิ่มเติมเกี่ยวกับความปลอดภัยได้ที่หน้า AI ที่มีความรับผิดชอบ

โปรดคำนึงถึงบริบททางสังคมที่กว้างขึ้นที่โมเดลของคุณดำเนินการอยู่เสมอ ดำเนินการเพื่อให้การจัดการข้อมูลที่ละเอียดอ่อนไม่ได้ละเมิดปัญหาด้านความเป็นส่วนตัว ลดอคติ หรือละเมิดทรัพย์สินทางปัญญาของผู้อื่น

ดูข้อมูลเกี่ยวกับจริยธรรมของ Generative AI ได้ที่ RAI Smart Practices สำหรับ Generative AI