Akuntabilitas
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Akuntabilitas berarti memiliki tanggung jawab atas efek sistem AI.
Akuntabilitas biasanya melibatkan transparansi, atau berbagi informasi tentang
perilaku sistem dan proses organisasi, yang dapat mencakup mendokumentasikan dan
membagikan informasi tentang cara model dan set data dibuat, dilatih, dan dievaluasi. Situs
berikut menjelaskan dua mode dokumentasi akuntabilitas yang berharga:
Dimensi akuntabilitas lainnya adalah interpretabilitas, yang melibatkan
pemahaman keputusan model ML, dengan manusia dapat mengidentifikasi fitur
yang mengarah pada prediksi. Selain itu, penjelasan adalah kemampuan untuk
menjelaskan keputusan otomatis model dengan cara yang dapat dipahami manusia.
Baca selengkapnya tentang cara membangun kepercayaan pengguna dalam sistem AI di bagian Explainability +
Trust dalam
Buku Panduan People + AI.
Anda juga dapat melihat Referensi Explainability Google
untuk contoh nyata dan praktik terbaik.
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2025-07-27 UTC.
[null,null,["Terakhir diperbarui pada 2025-07-27 UTC."],[[["\u003cp\u003eAccountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior.\u003c/p\u003e\n"],["\u003cp\u003eTransparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets.\u003c/p\u003e\n"],["\u003cp\u003eInterpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions.\u003c/p\u003e\n"],["\u003cp\u003eFostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources.\u003c/p\u003e\n"]]],[],null,["# Accountability\n\n\u003cbr /\u003e\n\n**Accountability** means owning responsibility for the effects of an AI system.\nAccountability typically involves **transparency**, or sharing information about\nsystem behavior and organizational process, which may include documenting and\nsharing how models and datasets were created, trained, and evaluated. The\nfollowing sites explain two valuable modes of accountability documentation:\n\n- [Model Cards](https://modelcards.withgoogle.com/about)\n- [Data Cards](https://sites.research.google/datacardsplaybook/)\n\nAnother dimension of accountability is **interpretability** , which involves the\nunderstanding of ML model decisions, where humans are able to identify features\nthat lead to a prediction. Moreover, **explainability** is the ability for a\nmodel's automated decisions to be explained in a way for humans to understand.\n\nRead more about building user trust in AI systems in the [Explainability +\nTrust](https://pair.withgoogle.com/chapter/explainability-trust/) section of the\n[People + AI Guidebook](https://pair.withgoogle.com/guidebook).\nYou can also check out [Google's Explainability Resources](https://explainability.withgoogle.com/)\nfor real life examples and best practices."]]