Responsabilidad
Responsabilidad: Significa asumir la responsabilidad de los efectos de un sistema de IA. La responsabilidad suele implicar transparencia o compartir información sobre el comportamiento del sistema y el proceso organizativo, lo que puede incluir documentar y compartir cómo se crearon, entrenaron y evaluaron los modelos y los conjuntos de datos. En los siguientes sitios, se explican dos modos valiosos de documentación de responsabilidad:
Otra dimensión de la responsabilidad es la interpretabilidad, que implica la comprensión de las decisiones de los modelos de AA, en las que las personas pueden identificar las características que llevan a una predicción. Además, la explicabilidad es la capacidad de explicar las decisiones automatizadas de un modelo de una manera que las personas puedan entender.
Obtén más información para generar confianza en los usuarios en los sistemas de IA en la sección Explicabilidad y confianza de la Guía de personas y IA y en la sección Interpretabilidad de las Prácticas de IA responsable de Google. También puedes consultar los Recursos de explicabilidad de Google para ver ejemplos reales y prácticas recomendadas.