ML berpotensi mengubah masyarakat dengan banyak cara yang bermakna, baik secara positif maupun negatif. Penting untuk mempertimbangkan implikasi etis model Anda dan sistem yang menjadi bagiannya.
Project ML Anda harus bermanfaat bagi masyarakat. Aplikasi tidak boleh menyebabkan bahaya atau rentan terhadap penyalahgunaan. Iklan tidak boleh menyebabkan, memperkuat, atau memperburuk bias atau prasangka. Mereka tidak boleh mengumpulkan atau menggunakan data pribadi secara tidak bertanggung jawab.Prinsip AI Google
Google mendukung pengembangan aplikasi ML dan AI yang mematuhi prinsip AI. Prinsip Google berfokus pada konsep berikut:
- Keadilan
- Privasi
- Transparansi
- Keamanan
Keadilan
Tidak menciptakan atau memperkuat bias yang tidak adil. Model menunjukkan bias saat data pelatihannya memiliki beberapa karakteristik berikut:
Tidak mencerminkan populasi penggunanya di dunia nyata.
Mempertahankan keputusan atau hasil yang bias, misalnya, keputusan peradilan pidana seperti waktu penahanan.
Menggunakan fitur dengan kemampuan prediktif yang lebih baik untuk grup pengguna tertentu.
Contoh sebelumnya hanyalah beberapa cara model menjadi bias. Memahami data Anda secara menyeluruh sangatlah penting untuk mengungkap dan menyelesaikan potensi bias yang ada di dalamnya. Langkah pertama untuk mengembangkan model yang adil adalah memverifikasi data pelatihan yang mencerminkan distribusi pengguna Anda secara akurat. Berikut adalah praktik lebih lanjut untuk membantu membuat model yang adil:
Identifikasi kelompok yang kurang terwakili dalam set data evaluasi atau kelompok yang mungkin mengalami kualitas model yang lebih buruk dibandingkan dengan kelompok lain. Anda mungkin perlu melakukan pengambilan sampel berlebih pada subgrup pengguna untuk meningkatkan kehadiran mereka dalam data pelatihan.
Gunakan set data golden (juga dikenal sebagai set data benchmark) untuk memvalidasi model terhadap masalah keadilan dan mendeteksi bias implisit.
Hindari menyertakan fitur sensitif dalam set data, seperti gender atau etnis.
Hindari menyertakan fitur dengan sedikit kekuatan empiris atau penjelasan, tetapi terutama dalam konteks sensitif saat model terlatih digunakan untuk melakukan tugas berdampak tinggi di bidang seperti perawatan kesehatan, keuangan, pendidikan, pekerjaan, dan sebagainya. Misalnya, dalam model untuk menyetujui pinjaman rumah, jangan sertakan nama dalam data pelatihan. Nama pelamar tidak hanya tidak relevan dengan tugas prediksi, tetapi membiarkan fitur yang tidak relevan tersebut dalam set data juga berpotensi menimbulkan bias implisit atau dampak alokasi. Misalnya, model mungkin mengaitkan nama laki-laki dengan probabilitas pembayaran yang lebih tinggi, atau sebaliknya.
Ukur potensi dampak buruk yang mungkin ditimbulkan prediksi model terhadap grup tertentu, dan pertimbangkan teknik koreksi bias yang disengaja jika Anda menemukan dampak buruk dalam konteks sensitif.
Privasi
Terapkan prinsip-prinsip desain privasi sejak awal.
Berikut adalah hukum dan kebijakan terkait privasi yang harus diketahui dan diikuti:
Digital Markets Act (DMA) Uni Eropa untuk izin berbagi atau menggunakan data pribadi.
Hukum GDPR Uni Eropa.
Selain itu, pastikan untuk menghapus semua informasi identitas pribadi (PII) dari set data dan mengonfirmasi bahwa model dan repositori data Anda disiapkan dengan izin yang tepat, misalnya, tidak dapat dibaca oleh semua orang.
Transparansi
Dapat dipertanggungjawabkan kepada masyarakat. Misalnya, buat orang lain mudah memahami apa yang dilakukan model Anda, bagaimana model melakukannya, dan mengapa model melakukannya. Kartu model menyediakan template untuk mendokumentasikan model Anda dan membuat artefak transparansi.
Keamanan
Mendesain model agar beroperasi dengan aman dalam kondisi yang tidak menguntungkan. Misalnya, uji model Anda dengan input yang berpotensi berbahaya untuk mengonfirmasi bahwa model Anda aman. Selain itu, periksa kemungkinan kondisi kegagalan. Tim biasanya menggunakan set data yang dirancang khusus untuk menguji model mereka dengan input atau kondisi yang menyebabkan model gagal sebelumnya.
Memeriksa Pemahaman Anda
Selalu pertimbangkan konteks sosial yang lebih luas tempat model Anda beroperasi. Upayakan untuk memastikan penanganan data sensitif Anda tidak melanggar masalah privasi, mempertahankan bias, atau melanggar kekayaan intelektual orang lain.