Introduction to Responsible AI

Bagaimana cara mem-build sistem AI secara bertanggung jawab, dalam skala besar? Pelajari AI yang Bertanggung Jawab, konsep dan istilah yang relevan, serta cara menerapkan praktik ini dalam produk.

Pengantar

Kecerdasan Buatan (AI) mendukung banyak aplikasi dan layanan yang digunakan orang dalam kehidupan sehari-hari. Dengan miliaran pengguna AI di berbagai bidang mulai dari bisnis hingga perawatan kesehatan hingga pendidikan, perusahaan digital terkemuka harus berupaya memastikan bahwa manfaat teknologi ini lebih besar dibandingkan bahayanya, untuk menciptakan pengalaman yang paling membantu, aman, dan tepercaya bagi semua.

Bertanggung jawab AI mempertimbangkan dampak sosial dari pengembangan dan skala teknologi ini, termasuk potensi bahaya dan manfaat. Prinsip AI menyediakan framework yang mencakup tujuan untuk aplikasi AI, dan aplikasi yang tidak akan kami ikuti dalam pengembangan sistem AI.

Dimensi AI yang Bertanggung Jawab

Seiring dengan makin cepat dan berkembangnya AI di mana-mana, penting untuk menerapkan praktik AI yang Bertanggung Jawab ke setiap tahap alur kerja dari pembentukan ide hingga peluncuran. Dimensi berikut adalah komponen utama untuk AI yang Bertanggung Jawab, dan penting untuk dipertimbangkan selama siklus proses produk.

Keadilan

Keadilan menangani kemungkinan hasil yang berbeda yang akan dialami pengguna akhir terkait dengan karakteristik sensitif seperti ras, pendapatan, orientasi seksual, atau gender melalui pengambilan keputusan algoritme. Misalnya, mungkinkah algoritme perekrutan memiliki bias untuk atau terhadap pelamar dengan nama yang terkait dengan gender atau etnis tertentu?

Pelajari lebih lanjut bagaimana sistem machine learning rentan terhadap bias manusia dalam video ini:

Baca tentang bagaimana produk seperti Penelusuran dan Foto meningkatkan keragaman representasi warna kulit.

Untuk istilah lain yang terkait dengan Keadilan ML, lihat Glosarium Machine Learning: Keadilan | Google untuk Developer. Untuk mempelajari lebih lanjut, modul Keadilan dalam Kursus Singkat Machine Learning memberikan pengantar ML Fairness.

People + AI Research (PAIR) menawarkan eksploitasi AI interaktif termasuk Mengukur Keadilan dan Bias Tersembunyi untuk memandu konsep ini.

Akuntabilitas

Akuntabilitas berarti bertanggung jawab atas dampak sistem AI. Hal ini mencakup transparansi, atau berbagi informasi tentang perilaku sistem dan proses organisasi, yang dapat mencakup dokumentasi dan berbagi terkait bagaimana model dan set data dibuat, dilatih, dan dievaluasi. Kartu Model dan Kartu Data adalah contoh artefak transparansi yang dapat membantu mengatur fakta penting model dan set data ML dengan cara yang terstruktur.

Dimensi akuntabilitas lainnya adalah interpretasi, yang mencakup pemahaman tentang keputusan model ML, ketika manusia dapat mengidentifikasi fitur yang mengarah pada prediksi. Selain itu, kejelasan adalah kemampuan keputusan otomatis model untuk dijelaskan agar dapat dipahami oleh manusia.

Baca selengkapnya tentang membangun kepercayaan pengguna dalam sistem AI di bab Penjelasan + Kepercayaan dalam Buku Panduan Orang + AI, dan bagian Interpretasi tentang Praktik AI yang Bertanggung Jawab dari Google.

Keamanan

Keamanan AI mencakup sekumpulan teknik desain dan operasional yang harus diikuti untuk dihindari dan berisi tindakan yang dapat menyebabkan bahaya, baik sengaja maupun tidak. Misalnya, apakah sistem berperilaku seperti yang diinginkan, bahkan saat terjadi pelanggaran keamanan atau serangan yang ditargetkan? Apakah sistem AI Anda kokoh agar dapat beroperasi dengan aman meskipun mengalami gangguan? Bagaimana rencana Anda untuk mencegah atau menghindari risiko? Apakah sistem Anda dapat diandalkan dan stabil di bawah tekanan?

Bagian Keamanan dalam Praktik AI yang Bertanggung Jawab Google menguraikan praktik yang direkomendasikan untuk melindungi sistem AI dari serangan, termasuk pengujian yang tidak wajar. Pelajari lebih lanjut pekerjaan kami di bidang ini dan pelajaran yang kami peroleh di postingan blog Kata Kunci, Tim AI Red Google: peretas yang etis membuat AI lebih aman.

Privasi

Praktik Privasi di AI yang Bertanggung Jawab (lihat bagian Privasi dalam Praktik A AI yang Bertanggung Jawab) melibatkan pertimbangan potensi implikasi privasi dalam menggunakan data sensitif. Hal ini tidak hanya mematuhi persyaratan hukum dan peraturan, tetapi juga mempertimbangkan norma sosial dan ekspektasi individu yang umum. Misalnya, perlindungan apa yang harus diterapkan untuk memastikan privasi individu, dengan mempertimbangkan bahwa model ML mungkin mengingat atau mengungkapkan aspek data yang telah terekspos? Langkah apa yang diperlukan untuk memastikan pengguna memiliki transparansi dan kontrol yang memadai atas data mereka?

Pelajari privasi ML lebih lanjut melalui panduan interaktif PAIR Explorables:

AI yang Bertanggung Jawab dalam Model Generatif/LLM

Adanya model generatif yang besar memunculkan tantangan baru untuk mengimplementasikan praktik AI yang Bertanggung Jawab karena kemampuan outputnya yang berpotensi terbuka dan banyak potensi pemanfaatan downstream. Selain Prinsip AI, Google memiliki Kebijakan Penggunaan Terlarang AI Generatif dan Panduan AI Generatif AI untuk Developer.

Baca selengkapnya tentang cara tim di Google menggunakan AI generatif untuk menciptakan pengalaman baru bagi pengguna di Google Generative AI. Di situs ini, kami juga menawarkan panduan mengenai Keselamatan dan Keadilan, Prompt Engineering, dan Adversarial Testing untuk model generatif. Untuk panduan interaktif tentang model bahasa, lihat PAIR Explorable: Apa yang Telah Dipelajari Model Bahasa?

Referensi Lainnya

Mengapa kami berfokus pada AI – Google AI

Proses Peninjauan Google AI

Proses Peninjauan Prinsip AI | Google AI:

Toolkit AI yang Bertanggung Jawab | TensorFlow