Trách nhiệm giải trình
Trách nhiệm giải trình có nghĩa là chịu trách nhiệm về các tác động của hệ thống AI. Tính trách nhiệm thường liên quan đến tính minh bạch hoặc việc chia sẻ thông tin về hành vi của hệ thống và quy trình tổ chức, bao gồm cả việc ghi lại và chia sẻ cách tạo, huấn luyện và đánh giá mô hình và tập dữ liệu. Các trang web sau đây giải thích hai phương thức hữu ích để ghi nhận trách nhiệm:
Một phương diện khác của tính trách nhiệm là khả năng diễn giải, liên quan đến việc hiểu các quyết định của mô hình học máy, trong đó con người có thể xác định các đặc điểm dẫn đến một dự đoán. Hơn nữa, khả năng giải thích là khả năng giải thích các quyết định tự động của mô hình theo cách mà con người có thể hiểu được.
Đọc thêm về cách tạo dựng lòng tin của người dùng đối với hệ thống AI trong phần Tính giải thích được + niềm tin của Hướng dẫn về con người và AI, cũng như phần Tính giải thích được của Các phương pháp sử dụng AI có trách nhiệm của Google. Bạn cũng có thể tham khảo Tài nguyên về khả năng giải thích của Google để biết các ví dụ thực tế và phương pháp hay nhất.