Odpowiedzialność

Odpowiedzialność oznacza branie odpowiedzialności za skutki działania systemu AI. Odpowiedzialność zwykle obejmuje przejrzystość, czyli udostępnianie informacji o zachowaniach systemu i procesach organizacyjnych. Może to obejmować dokumentowanie i udostępnianie informacji o sposobie tworzenia, trenowania i oceny modeli oraz zbiorów danych. Na tych stronach znajdziesz 2 cenne sposoby dokumentowania odpowiedzialności:

Innym wymiarem rozliczalności jest interpretowalność, która polega na zrozumieniu decyzji modelu systemów uczących się. Dzięki temu ludzie mogą identyfikować cechy, które prowadzą do prognozy. Co więcej, wyjaśnialność to zdolność do tłumaczenia automatycznych decyzji modelu w sposób zrozumiały dla ludzi.

Więcej informacji o budowaniu zaufania użytkowników do systemów AI znajdziesz w sekcji Zrozumiałość i zaufaniePrzewodniku po AI i ludzie (AI for People). Aby zobaczyć przykłady i sprawdzone metody, możesz też zapoznać się ze zasobami Google dotyczącymi wyjaśnialności.