Responsabilidade

Responsabilidade significa assumir a responsabilidade pelos efeitos de um sistema de IA. A responsabilidade geralmente envolve transparência, ou seja, compartilhar informações sobre o comportamento do sistema e o processo organizacional, o que pode incluir a documentação e o compartilhamento de como modelos e conjuntos de dados foram criados, treinados e avaliados. Os sites a seguir explicam dois modos valiosos de documentação de responsabilização:

Outra dimensão da responsabilidade é a interpretabilidade, que envolve a compreensão das decisões do modelo de ML, em que as pessoas conseguem identificar os recursos que levam a uma previsão. Além disso, a explicabilidade é a capacidade de explicar as decisões automatizadas de um modelo de uma maneira que as pessoas possam entender.

Leia mais sobre como criar confiança dos usuários em sistemas de IA na seção Explicabilidade + Confiança do Guia para pessoas + IA e na seção Interpretabilidade das Práticas de IA responsável do Google. Confira também os recursos de explicabilidade do Google para conferir exemplos reais e práticas recomendadas.