Odpowiedzialność
Odpowiedzialność oznacza branie odpowiedzialności za skutki działania systemu AI. Odpowiedzialność zwykle obejmuje przejrzystość lub udostępnianie informacji o zachowaniach systemu i procesach organizacyjnych. Może to obejmować dokumentowanie i udostępnianie informacji o sposobie tworzenia, trenowania i oceny modeli i zbiorów danych. Na tych stronach znajdziesz 2 cenne sposoby dokumentowania odpowiedzialności:
Innym wymiarem rozliczalności jest interpretowalność, która polega na zrozumieniu decyzji modelu systemów uczących się, w których przypadku ludzie są w stanie zidentyfikować cechy prowadzące do prognozy. Co więcej, wyjaśnialność to zdolność do tłumaczenia automatycznych decyzji modelu w sposób zrozumiały dla ludzi.
Więcej informacji o budowaniu zaufania użytkowników do systemów AI znajdziesz w sekcji Zrozumiałość i zaufanie w Przewodniku po AI i ludzkich aspektach AI oraz w sekcji Interpretowalność w Praktykach dotyczących odpowiedzialnej AI od Google. Aby zobaczyć przykłady i sprawdzone metody, możesz też zapoznać się ze zasobami Google dotyczącymi wyjaśnialności.