Bezpieczeństwo
Bezpieczeństwo AI obejmuje zestaw technik projektowania i działania, które należy stosować, aby unikać działań, które mogą celowo lub przypadkowo wyrządzić szkodę. Czy na przykład systemy AI działają zgodnie z oczekiwaniami, nawet w przypadku naruszenia bezpieczeństwa lub ukierunkowanego ataku? Czy system AI jest wystarczająco niezawodny, aby działać bezpiecznie nawet w przypadku zakłóceń? Jak planujesz z wyprzedzeniem, aby zapobiegać ryzyku lub unikać zagrożeń? Czy system AI jest niezawodny i stabilny w trudnych warunkach?
Jedną z takich technik bezpieczeństwa jest testowanie z użyciem szkodliwych danych wejściowych, czyli próba „złamania” własnej aplikacji w celu sprawdzenia, jak się zachowuje, gdy celowo lub nieumyślnie wprowadzimy do niej szkodliwe dane wejściowe. W sekcji Bezpieczeństwo w dokumentacji Odpowiedzialne praktyki w zakresie AI Google przedstawia zalecane metody ochrony systemów AI przed atakami, w tym testy kontradyktoryjne. Więcej informacji o działaniach Google w tym zakresie oraz o wynikach z nich płynących znajdziesz w poście na blogu Keyword Google's AI Red Team: the ethical hackers making AI safer (Zespół ds. AI Red Team w Google: etyczne hakerzy dbający o bezpieczeństwo AI) lub w artykule SAIF: przewodnik Google po bezpiecznej AI.