ความปลอดภัยของ AI ประกอบด้วยชุดเทคนิคการออกแบบและการดำเนินการที่ควรปฏิบัติตามเพื่อหลีกเลี่ยงและควบคุมการดําเนินการที่อาจก่อให้เกิดอันตราย ไม่ว่าจะตั้งใจหรือไม่ตั้งใจก็ตาม เช่น ระบบ AI ทำงานตามที่ตั้งใจไว้ไหม แม้จะต้องเผชิญกับการละเมิดความปลอดภัยหรือการโจมตีที่มีเป้าหมาย ระบบ AI ทำงานได้อย่างปลอดภัยแม้ถูกรบกวนหรือไม่ คุณวางแผนล่วงหน้าเพื่อป้องกันหรือหลีกเลี่ยงความเสี่ยงอย่างไร ระบบ AI ทำงานได้อย่างเสถียรและเชื่อถือได้ภายใต้แรงกดดันหรือไม่
เทคนิคด้านความปลอดภัยอย่างหนึ่งคือการทดสอบการโจมตี หรือการฝึกพยายาม "ทำลาย" แอปพลิเคชันของคุณเองเพื่อดูลักษณะการทำงานเมื่อป้อนข้อมูลที่ประสงค์ร้ายหรือเป็นอันตรายโดยไม่ตั้งใจ ชุดเครื่องมือ Generative AI อย่างมีความรับผิดชอบอธิบายเพิ่มเติมเกี่ยวกับการประเมินความปลอดภัย รวมถึงการทดสอบการโจมตี ดูข้อมูลเพิ่มเติมเกี่ยวกับสิ่งที่ Google ทําในด้านนี้และบทเรียนที่ได้เรียนรู้ได้ในบล็อกโพสต์เกี่ยวกับคีย์เวิร์ดเรื่อง AI Red Team ของ Google: แฮ็กเกอร์ที่มีจริยธรรมที่ทําให้ AI ปลอดภัยยิ่งขึ้น หรือที่ SAIF: คู่มือของ Google สําหรับ AI ที่ปลอดภัย