Trách nhiệm
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Trách nhiệm giải trình có nghĩa là chịu trách nhiệm về các tác động của hệ thống AI.
Tính trách nhiệm thường liên quan đến tính minh bạch hoặc việc chia sẻ thông tin về hành vi của hệ thống và quy trình tổ chức, bao gồm cả việc ghi lại và chia sẻ cách tạo, huấn luyện và đánh giá mô hình và tập dữ liệu. Các trang web sau đây giải thích hai phương thức hữu ích để ghi nhận trách nhiệm:
Một phương diện khác của tính trách nhiệm là khả năng diễn giải, liên quan đến việc hiểu các quyết định của mô hình học máy, trong đó con người có thể xác định các đặc điểm dẫn đến một dự đoán. Hơn nữa, khả năng giải thích là khả năng giải thích các quyết định tự động của mô hình theo cách mà con người có thể hiểu được.
Hãy đọc thêm về cách tạo dựng niềm tin của người dùng đối với hệ thống AI trong phần Khả năng giải thích + Niềm tin của Hướng dẫn về con người và AI.
Bạn cũng có thể tham khảo Tài nguyên về khả năng giải thích của Google để biết các ví dụ thực tế và phương pháp hay nhất.
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-07-27 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-27 UTC."],[[["\u003cp\u003eAccountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior.\u003c/p\u003e\n"],["\u003cp\u003eTransparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets.\u003c/p\u003e\n"],["\u003cp\u003eInterpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions.\u003c/p\u003e\n"],["\u003cp\u003eFostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources.\u003c/p\u003e\n"]]],[],null,["# Accountability\n\n\u003cbr /\u003e\n\n**Accountability** means owning responsibility for the effects of an AI system.\nAccountability typically involves **transparency**, or sharing information about\nsystem behavior and organizational process, which may include documenting and\nsharing how models and datasets were created, trained, and evaluated. The\nfollowing sites explain two valuable modes of accountability documentation:\n\n- [Model Cards](https://modelcards.withgoogle.com/about)\n- [Data Cards](https://sites.research.google/datacardsplaybook/)\n\nAnother dimension of accountability is **interpretability** , which involves the\nunderstanding of ML model decisions, where humans are able to identify features\nthat lead to a prediction. Moreover, **explainability** is the ability for a\nmodel's automated decisions to be explained in a way for humans to understand.\n\nRead more about building user trust in AI systems in the [Explainability +\nTrust](https://pair.withgoogle.com/chapter/explainability-trust/) section of the\n[People + AI Guidebook](https://pair.withgoogle.com/guidebook).\nYou can also check out [Google's Explainability Resources](https://explainability.withgoogle.com/)\nfor real life examples and best practices."]]