Подотчетность
Подотчетность означает ответственность за последствия работы системы ИИ. Подотчетность обычно предполагает прозрачность или обмен информацией о поведении системы и организационных процессах, что может включать документирование и обмен информацией о том, как модели и наборы данных создавались, обучались и оценивались. На следующих сайтах описаны два ценных способа документации по подотчетности:
Еще одним измерением подотчетности является интерпретируемость , которая предполагает понимание решений модели МО, когда люди могут определять особенности, которые приводят к прогнозированию. Более того, объяснимость — это способность автоматических решений модели объясняться так, чтобы их могли понять люди.
Дополнительную информацию о формировании доверия пользователей к системам искусственного интеллекта можно найти в разделе «Объяснимость + доверие» руководства «Люди + искусственный интеллект» и в разделе «Интерпретируемость» руководства Google по ответственному использованию искусственного интеллекта . Вы также можете просмотреть Ресурсы Google по объяснению , чтобы найти примеры из реальной жизни и лучшие практики.