ML memiliki potensi untuk mentransformasi masyarakat dalam berbagai cara, baik secara positif maupun negatif. Penting untuk mempertimbangkan implikasi etis dari model Anda dan sistem yang mencakupnya.
Seperti teknologi yang dikembangkan di Google, project ML Anda harus memberi manfaat bagi masyarakat. Konten tersebut tidak boleh menyebabkan bahaya atau rentan terhadap penyalahgunaan. Wawasan tidak boleh menyebabkan, memperkuat, atau memperburuk bias atau prasangka. Mereka seharusnya tidak mengumpulkan atau menggunakan data pribadi secara tidak bertanggung jawab.
Prinsip AI Google
Project ML harus mematuhi Prinsip AI Google. Situs Praktik Cerdas Responsible AI (RAI) membantu Googler mengembangkan solusi ML yang benar secara etis yang selaras dengan prinsip AI Google.
Praktik Pintar RAI adalah pedoman yang dapat ditindaklanjuti oleh tim untuk diterapkan dalam mengembangkan AI dan ML secara bertanggung jawab. Solusi ML harus mematuhi panduan Google di domain berikut:
- Keadilan
- Privasi
- Transparansi
- Keamanan
Untuk pertanyaan atau masalah terkait ML dan etika, hubungi PCounsel dan Privacy Working Group untuk produk Anda.
Keadilan
Hindari menciptakan atau memperkuat bias yang tidak adil. Model menunjukkan bias saat data pelatihan mereka memiliki beberapa karakteristik berikut:
Tidak mencerminkan populasi penggunanya di dunia nyata.
Mempertahankan keputusan atau hasil yang bias, misalnya, keputusan peradilan pidana seperti waktu tahanan.
Menggunakan fitur dengan kemampuan yang lebih prediktif untuk grup pengguna tertentu.
Contoh sebelumnya hanyalah beberapa cara model menjadi bias. Memahami data Anda secara menyeluruh sangat penting untuk mengungkap dan mengatasi potensi bias yang ada di dalamnya. Langkah pertama untuk mengembangkan model yang adil adalah memverifikasi data pelatihan yang secara akurat mencerminkan distribusi pengguna Anda. Berikut adalah praktik selanjutnya untuk membantu membuat model yang adil:
Mengidentifikasi kelompok yang kurang terwakili dalam set data evaluasi atau kelompok yang mungkin mengalami kualitas model yang lebih buruk dibandingkan kelompok lain. Anda mungkin perlu mengambil sampel subgrup pengguna secara berlebihan untuk meningkatkan kehadiran mereka dalam data pelatihan.
Gunakan set data emas (juga dikenal sebagai set data tolok ukur) untuk memvalidasi model terhadap masalah keadilan dan mendeteksi bias implisit.
Hindari menyertakan fitur sensitif dalam set data, seperti gender atau etnis.
Hindari menyertakan fitur yang memiliki sedikit pengaruh empiris atau penjelasan, terutama dalam konteks sensitif, yang mana model yang telah dilatih digunakan untuk melakukan tugas berdampak tinggi di berbagai bidang seperti layanan kesehatan, keuangan, pendidikan, pekerjaan, dan sebagainya. Misalnya, pada model untuk menyetujui KPR, jangan sertakan nama dalam data pelatihan. Nama pemohon bukan hanya tidak relevan dengan tugas prediksi, tetapi membiarkan fitur yang tidak relevan tersebut dalam set data juga berpotensi menciptakan bias implisit atau kerugian allokatif. Misalnya, model mungkin menghubungkan nama laki-laki dengan probabilitas pelunasan yang lebih tinggi, atau sebaliknya.
Ukur potensi dampak buruk prediksi model terhadap kelompok tertentu, dan pertimbangkan teknik koreksi bias yang disengaja jika menemukan dampak buruk dalam konteks sensitif.
Untuk mengetahui informasi selengkapnya tentang keadilan AI dan ML, lihat halaman Keadilan Praktik Pintar dan modul Keadilan Kursus Singkat Machine Learning.
Privasi
Terapkan prinsip-prinsip desain privasi sejak awal. Seperti fitur atau produk baru apa pun di Google, model Anda perlu ditinjau oleh Privacy Working Group untuk area produk Anda. Oleh karena itu, buat Dokumen Desain Privasi lebih awal untuk mendapatkan masukan awal.
Berikut adalah hukum dan kebijakan terkait privasi yang perlu diperhatikan dan di patuhi:
Digital Markets Act (DMA) Uni Eropa terkait izin untuk membagikan atau menggunakan data pribadi.
Hukum GDPR Uni Eropa.
Berikut adalah praktik privasi khusus Google yang harus dipatuhi:
Peraturan penghapusan total.
ID Biner dan Konfigurasi (BCID) level 4 untuk mencegah kode berbahaya atau disusupi mengakses sistem Anda.
Hapus semua PII dari set data dan pastikan model serta repositori data Anda disiapkan dengan izin yang tepat, misalnya, tidak dapat dibaca secara global.
Video berikut memberikan ringkasan umum tentang masalah terkait privasi:
Untuk mengetahui informasi lebih lanjut tentang privasi AI dan ML, lihat halaman Privasi Praktik Pintar.
Transparansi
Dapat dipertanggungjawabkan kepada pengguna. Misalnya, permudah orang lain untuk memahami fungsi model Anda, cara melakukannya, dan alasannya. Kartu model menyediakan template untuk mendokumentasikan model Anda dan membuat artefak transparansi.
Untuk mengetahui informasi selengkapnya tentang transparansi AI dan ML, lihat halaman Transparansi Praktik Pintar.
Keamanan
Merancang model untuk beroperasi dengan aman dalam kondisi buruk. Misalnya, uji model Anda dengan input yang berpotensi membahayakan untuk mengonfirmasi keamanan model Anda. Selain itu, periksa kemungkinan kondisi kegagalan. Tim biasanya menggunakan set data yang dirancang khusus untuk menguji model mereka dengan input atau kondisi yang menyebabkan model gagal di masa lalu.
Untuk mengetahui informasi selengkapnya tentang keselamatan, lihat halaman responsible AI.
Selalu pertimbangkan konteks sosial yang lebih luas dalam model Anda. Pastikan penanganan data sensitif Anda tidak melanggar masalah privasi, mempertahankan bias, atau melanggar kekayaan intelektual orang lain.
Untuk mengetahui informasi tentang etika AI generatif, lihat Praktik Smart ARI untuk AI generatif.