Подотчетность

Подотчетность означает ответственность за последствия работы системы ИИ. Подотчетность обычно предполагает прозрачность или обмен информацией о поведении системы и организационных процессах, что может включать документирование и обмен информацией о том, как модели и наборы данных были созданы, обучены и оценены. На следующих сайтах описаны два ценных способа документации по подотчетности:

Еще одним измерением подотчетности является интерпретируемость , которая предполагает понимание решений модели МО, когда люди могут определять особенности, которые приводят к прогнозированию. Более того, объяснимость — это способность автоматических решений модели объясняться так, чтобы их могли понять люди.

Подробнее о построении доверия пользователей к системам ИИ читайте в разделе «Объяснимость + доверие» руководства «Люди + ИИ» . Вы также можете просмотреть Ресурсы Google по объяснению, чтобы увидеть примеры из реальной жизни и лучшие практики.