ความปลอดภัย
ความปลอดภัยของ AI ประกอบด้วยชุดเทคนิคการออกแบบและการดำเนินการที่ควรปฏิบัติตามเพื่อหลีกเลี่ยงและควบคุมการดําเนินการที่อาจก่อให้เกิดอันตราย ไม่ว่าจะตั้งใจหรือไม่ตั้งใจก็ตาม เช่น ระบบ AI ทำงานตามที่ตั้งใจไว้ไหม แม้จะต้องเผชิญกับการละเมิดความปลอดภัยหรือการโจมตีแบบมีเป้าหมาย ระบบ AI ทำงานได้อย่างปลอดภัยแม้ถูกรบกวนหรือไม่ คุณวางแผนล่วงหน้าเพื่อป้องกันหรือหลีกเลี่ยงความเสี่ยงอย่างไร ระบบ AI ทำงานได้อย่างเสถียรและเชื่อถือได้ภายใต้แรงกดดันหรือไม่
เทคนิคด้านความปลอดภัยอย่างหนึ่งคือการทดสอบการโจมตี หรือการฝึกพยายาม "ทำลาย" แอปพลิเคชันของคุณเองเพื่อดูลักษณะการทำงานเมื่อได้รับอินพุตที่เป็นอันตรายหรือเป็นอันตรายโดยไม่ตั้งใจ ส่วนความปลอดภัยของแนวทางปฏิบัติด้าน AI อย่างมีความรับผิดชอบของ Google ระบุแนวทางปฏิบัติที่แนะนำเพื่อปกป้องระบบ AI จากการโจมตี ซึ่งรวมถึงการทดสอบการโจมตี ดูข้อมูลเพิ่มเติมเกี่ยวกับสิ่งที่ Google ทําในด้านนี้และบทเรียนที่ได้เรียนรู้ได้ในบล็อกโพสต์เกี่ยวกับคีย์เวิร์ดเรื่อง AI Red Team ของ Google: แฮ็กเกอร์ที่มีจริยธรรมที่ทําให้ AI ปลอดภัยยิ่งขึ้น หรือที่ SAIF: คู่มือของ Google สําหรับ AI ที่ปลอดภัย