An toàn

An toàn trong AI bao gồm một bộ kỹ thuật thiết kế và vận hành cần tuân thủ để tránh và ngăn chặn các hành động có thể gây hại, dù là cố ý hay vô tình. Ví dụ: các hệ thống AI có hoạt động như dự kiến hay không, ngay cả khi gặp phải sự cố bảo mật hoặc cuộc tấn công có chủ đích? Hệ thống AI có đủ mạnh để hoạt động an toàn ngay cả khi bị nhiễu không? Bạn lên kế hoạch trước như thế nào để ngăn chặn hoặc tránh rủi ro? Hệ thống AI có đáng tin cậy và ổn định khi chịu áp lực không?

Một trong những kỹ thuật an toàn như vậy là kiểm thử đối kháng, hoặc phương pháp cố gắng "phá vỡ" ứng dụng của riêng bạn để tìm hiểu cách ứng dụng đó hoạt động khi được cung cấp dữ liệu đầu vào độc hại hoặc vô tình gây hại. Mục An toàn trong bài viết Cách thức phát triển và sử dụng AI có trách nhiệm của Google nêu ra các phương pháp đề xuất để bảo vệ hệ thống AI khỏi các cuộc tấn công, bao gồm cả kiểm thử đối kháng. Tìm hiểu thêm về công việc của Google trong lĩnh vực này và bài học rút ra trong bài đăng trên blog của Từ khoá, Đội Đỏ của Google về AI: những tin tặc có đạo đức giúp AI an toàn hơn hoặc tại SAIF: Hướng dẫn của Google về AI bảo mật.