Bezpieczeństwo AI obejmuje zestaw technik projektowania i działania, które należy stosować, aby unikać działań, które mogą celowo lub przypadkowo wyrządzić szkodę. Czy na przykład systemy AI działają zgodnie z oczekiwaniami, nawet w przypadku naruszenia bezpieczeństwa lub ukierunkowanego ataku? Czy system AI jest wystarczająco niezawodny, aby działać bezpiecznie nawet w przypadku zakłóceń? Jak planujesz z wyprzedzeniem, aby zapobiegać ryzyku lub unikać zagrożeń? Czy system AI jest niezawodny i stabilny w trudnych warunkach?
Jedną z takich technik bezpieczeństwa jest testowanie z użyciem szkodliwych danych wejściowych, czyli próba „złamania” własnej aplikacji w celu poznania jej zachowania, gdy celowo lub nieumyślnie wprowadzimy do niej szkodliwe dane wejściowe. Więcej informacji o ocenie bezpieczeństwa, w tym o testach kontradyktoryjnych, znajdziesz w narzędziu do oceny odpowiedzialności generatywnej AI. Więcej informacji o działaniach Google w tym zakresie i wynikach z nich wyciągniętych znajdziesz w poście na blogu Keyword Google's AI Red Team: the ethical hackers making AI safer (zespół Google ds. AI Red Team: etyczne hakerzy, którzy dbają o bezpieczeństwo AI) lub w artykule SAIF: przewodnik Google po bezpiecznej AI.