ข้อมูลเบื้องต้นเกี่ยวกับ AI อย่างมีความรับผิดชอบ

เราจะสร้างระบบ AI อย่างมีความรับผิดชอบในวงกว้างได้อย่างไร ดูข้อมูลเกี่ยวกับ AI อย่างมีความรับผิดชอบ แนวคิดและข้อกําหนดที่เกี่ยวข้อง และวิธีนําแนวทางปฏิบัติเหล่านี้ไปใช้ในผลิตภัณฑ์

ข้อมูลเบื้องต้น

ปัญญาประดิษฐ์ (AI) ขับเคลื่อนแอปและบริการมากมายที่ผู้คนใช้ในชีวิตประจําวัน การที่ผู้ใช้ AI หลายพันล้านคนใช้ตั้งแต่ธุรกิจไปจนถึงการดูแลสุขภาพและการศึกษา จําเป็นที่บริษัท AI ชั้นนําจะต้องทํางานเพื่อให้มั่นใจว่า เทคโนโลยีเหล่านี้มีน้ําหนักมากกว่าอันตราย เพื่อสร้างประสบการณ์ ที่เป็นประโยชน์ ปลอดภัย และน่าเชื่อถือสําหรับทุกคน

AI ที่มีความรับผิดชอบจะพิจารณาผลกระทบทางสังคมของการพัฒนาและขนาดของเทคโนโลยีเหล่านี้ ซึ่งรวมถึงอันตรายและประโยชน์ที่อาจเกิดขึ้น หลักการเกี่ยวกับ AI ระบุเฟรมเวิร์กที่รวมวัตถุประสงค์ในการใช้แอปพลิเคชัน AI และแอปพลิเคชันที่เราไม่ทําตามในการพัฒนาระบบ AI

มิติข้อมูล AI อย่างมีความรับผิดชอบ

เมื่อการพัฒนา AI เป็นไปอย่างรวดเร็วและแพร่หลายมากขึ้น จึงจําเป็นอย่างยิ่งที่จะต้องนําแนวทางปฏิบัติด้าน AI ที่มีความรับผิดชอบไปใช้กับทุกขั้นตอนของกระบวนการทํางานตั้งแต่แนวคิดไปจนถึงการเปิดตัว มิติข้อมูลต่อไปนี้เป็นองค์ประกอบสําคัญของ AI ที่มีความรับผิดชอบ และเป็นสิ่งสําคัญที่ต้องพิจารณาตลอดวงจรผลิตภัณฑ์

ความยุติธรรม

ความเป็นธรรมที่จัดการกับผลลัพธ์ที่แตกต่างกันโดยสิ้นเชิงซึ่งผู้ใช้ปลายทางอาจพบซึ่งเกี่ยวข้องกับลักษณะเฉพาะที่มีความละเอียดอ่อน เช่น เชื้อชาติ รายได้ รสนิยมทางเพศ หรือเพศ ผ่านทางการตัดสินใจตามอัลกอริทึม เช่น อัลกอริทึมการว่าจ้างอาจมีการให้น้ําหนักพิเศษกับผู้สมัครที่มีชื่อเกี่ยวข้องกับเพศหรือชาติพันธุ์ที่เจาะจงหรือไม่

ดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่ระบบแมชชีนเลิร์นนิงอาจมีอคติต่อมนุษย์ ในวิดีโอนี้

อ่านข้อมูลเกี่ยวกับวิธีที่ผลิตภัณฑ์อย่างเช่น Search และ Photos ช่วยให้การแสดงออกถึงโทนสีมีความหลากหลายยิ่งขึ้น

สําหรับข้อกําหนดเพิ่มเติมที่เกี่ยวข้องกับความเป็นธรรมของ ML โปรดดูอภิธานศัพท์เกี่ยวกับแมชชีนเลิร์นนิง: ความเป็นธรรม | Google สําหรับนักพัฒนาซอฟต์แวร์ หากต้องการเรียนรู้เพิ่มเติม โมดูลความเป็นธรรมของหลักสูตรเร่งรัดเกี่ยวกับแมชชีนเลิร์นนิงจะให้คําแนะนําเกี่ยวกับความเป็นธรรมของ ML

คน + งานวิจัย AI (PAIR) นําเสนอ การสํารวจ AI แบบอินเทอร์แอกทีฟ ได้แก่ ความยุติธรรมในการวัด และการให้น้ําหนักพิเศษ เพื่อศึกษาแนวคิดเหล่านี้

ความรับผิดชอบ

ความรับผิดชอบ หมายถึง การรับผิดชอบต่อผลกระทบของระบบ AI ซึ่งรวมถึงความโปร่งใสหรือการแชร์ข้อมูลเกี่ยวกับพฤติกรรมของระบบและกระบวนการขององค์กร ซึ่งอาจรวมถึงการจัดทําเอกสารและการแชร์วิธีสร้าง การฝึกอบรม และการประเมินโมเดลและชุดข้อมูล การ์ดโมเดลและการ์ดข้อมูลเป็นตัวอย่างของอาร์ติแฟกต์แบบโปร่งใสที่ช่วยจัดระเบียบข้อเท็จจริงที่สําคัญของโมเดล ML และชุดข้อมูลอย่างเป็นระบบ

อีกมิติหนึ่งของความรับผิดชอบคือความสามารถในการตีความ ซึ่งเกี่ยวข้องกับการทําความเข้าใจการตัดสินใจเกี่ยวกับโมเดล ML ที่ซึ่งมนุษย์จะระบุฟีเจอร์ที่ทําให้เกิดการคาดการณ์ได้ ยิ่งไปกว่านั้น คําอธิบายคือความสามารถในการอธิบาย การตัดสินใจของมนุษย์โดยอัตโนมัติในลักษณะที่มนุษย์เข้าใจได้

อ่านเพิ่มเติมเกี่ยวกับการสร้างความเชื่อมั่นของผู้ใช้ในระบบ AI ในบทการอธิบายและความน่าเชื่อถือของบทผู้คน + คู่มือ AI และส่วน "การตีความ" ในแนวทางปฏิบัติด้าน AI ที่มีความรับผิดชอบของ Google

ความปลอดภัย

ความปลอดภัยของ AI มีชุดการออกแบบและเทคนิคในการปฏิบัติงานที่ควรปฏิบัติตามเพื่อหลีกเลี่ยงและมีการดําเนินการที่อาจก่อให้เกิดอันตรายทั้งโดยตั้งใจหรือไม่ตั้งใจ ตัวอย่างเช่น ระบบทํางานตามที่ผู้ใช้ตั้งใจไว้ แม้ว่าจะเผชิญหน้ากับการละเมิดด้านความปลอดภัยหรือการโจมตีเป้าหมายหรือไม่ ระบบ AI ของคุณทนทานพอที่จะทํางานอย่างปลอดภัยแม้ในขณะที่ถูกรบกวนหรือไม่ คุณวางแผนล่วงหน้าเพื่อป้องกันหรือหลีกเลี่ยงความเสี่ยงอย่างไร ระบบของคุณเชื่อถือได้และเสถียรภายใต้ความดันไหม

ส่วนความปลอดภัยของแนวทางปฏิบัติด้าน AI ที่มีความรับผิดชอบของ Google ระบุแนวทางปฏิบัติที่แนะนําเพื่อปกป้องระบบ AI จากการโจมตี รวมถึงการทดสอบความสามารถด้านการสื่อ เรียนรู้เพิ่มเติมเกี่ยวกับงานของเราในด้านนี้และบทเรียนที่ได้เรียนรู้ในบล็อกโพสต์เรื่องคําหลัก ทีม AI Red ของ Google: แฮกเกอร์ที่มีจริยธรรมในการทําให้ AI ปลอดภัยยิ่งขึ้น

ความเป็นส่วนตัว

หลักปฏิบัติของความเป็นส่วนตัวใน AI อย่างมีความรับผิดชอบ (ดูส่วนความเป็นส่วนตัวของวิธีจัดการ AI ที่มีความรับผิดชอบของ Google) เกี่ยวข้องกับการพิจารณาผลกระทบด้านความเป็นส่วนตัวที่อาจเกิดขึ้นจากการใช้ข้อมูลที่ละเอียดอ่อน ซึ่งไม่เพียงคํานึงถึงข้อกําหนดทางกฎหมายและข้อบังคับเท่านั้น แต่ยังคํานึงถึงบรรทัดฐานทางสังคมและความคาดหวังโดยทั่วไปของบุคคลด้วย เช่น ต้องนํามาตรการป้องกันใดๆ มาใช้เพื่อรับรองความเป็นส่วนตัวของบุคคล การที่โมเดล ML อาจจําหรือเปิดเผยแง่มุมต่างๆ ของข้อมูลที่เปิดเผย ขั้นตอนใดที่ต้องทําเพื่อให้มั่นใจว่าผู้ใช้จะได้รับ ความโปร่งใสและการควบคุมข้อมูลอย่างเพียงพอ

ดูข้อมูลเพิ่มเติมเกี่ยวกับความเป็นส่วนตัวของ ML ผ่านคําแนะนําแบบอินเทอร์แอกทีฟของ PAIR Explorables

AI ที่ใช้ในโมเดล/LMLM รุ่นที่มีความรับผิดชอบ

การคิดค้นโมเดลใหม่ขนาดใหญ่ได้พบกับความท้าทายใหม่ๆ ในการนําแนวทางปฏิบัติด้าน AI ที่มีความรับผิดชอบมาใช้เนื่องจากความสามารถในการแสดงผลแบบปลายเปิดและการใช้งานดาวน์สตรีมที่เป็นไปได้จํานวนมาก นอกจากหลักการ AI แล้ว Google ยังมีนโยบายการใช้งานที่ไม่ได้รับอนุญาตสําหรับ AI และคู่มือ AI สําหรับนักพัฒนาซอฟต์แวร์

อ่านเพิ่มเติมเกี่ยวกับวิธีที่ทีม Google ใช้ AI ในการสร้างประสบการณ์ใหม่สําหรับผู้ใช้ได้ที่ Google Generative AI ในเว็บไซต์นี้ เรายังมีคําแนะนําเกี่ยวกับความปลอดภัยและความเป็นธรรม วิศวกรรมที่รวดเร็ว และการทดสอบโฆษณาสําหรับโมเดลยุคใหม่ สําหรับคําแนะนําแบบอินเทอร์แอกทีฟเกี่ยวกับโมเดลภาษา โปรดดู "การสํารวจแพร์": โมเดลการเรียนรู้ภาษามีอะไรบ้าง

แหล่งข้อมูลเพิ่มเติม

ทําไมเราจึงมุ่งเน้นที่ AI – Google AI

กระบวนการตรวจสอบของ Google AI

กระบวนการตรวจสอบหลักการ AI | Google AI:

ชุดเครื่องมือ AI อย่างมีความรับผิดชอบ | TensorFlow