AI đang phát triển nhanh chóng và điều quan trọng là các chiến lược quản lý rủi ro hiệu quả sẽ phát triển cùng với nó. Khung AI bảo mật (SAIF) là một khung khái niệm dành cho các hệ thống AI bảo mật được thiết kế để giúp đạt được sự phát triển này.
Khi các chức năng trí tuệ nhân tạo (AI) ngày càng được tích hợp vào các sản phẩm trên khắp thế giới, thì việc tuân thủ một khung làm việc mạnh mẽ và có trách nhiệm sẽ càng quan trọng hơn nữa.
Mục đích của SAIF là giúp giảm thiểu rủi ro dành riêng cho các hệ thống AI, như đánh cắp mô hình, ngộ độc dữ liệu dữ liệu huấn luyện, chèn đầu vào độc hại thông qua tính năng chèn lời nhắc và trích xuất thông tin mật trong dữ liệu huấn luyện.
Khung SAIF
SAIF có sáu phần tử cốt lõi:
1. Mở rộng nền tảng bảo mật mạnh mẽ cho hệ sinh thái AI
Điều này bao gồm việc tận dụng các biện pháp bảo vệ cơ sở hạ tầng bảo mật theo mặc định và kiến thức chuyên môn được xây dựng trong hai thập kỷ qua để bảo vệ các hệ thống, ứng dụng và người dùng AI. Đồng thời, phát triển kiến thức chuyên môn của tổ chức để theo kịp các tiến bộ về AI và bắt đầu mở rộng quy mô và điều chỉnh các biện pháp bảo vệ cơ sở hạ tầng trong bối cảnh AI và các mô hình mối đe dọa ngày càng phát triển. Ví dụ: một số kỹ thuật chèn như chèn SQL đã tồn tại được một thời gian và các tổ chức có thể điều chỉnh các giải pháp giảm thiểu, chẳng hạn như dọn dẹp và hạn chế dữ liệu đầu vào, để giúp bảo vệ tốt hơn trước các cuộc tấn công kiểu chèn nhanh.
2. Mở rộng khả năng phát hiện và ứng phó để đưa AI vào thế giới mối đe doạ của một tổ chức
Tính kịp thời rất quan trọng trong việc phát hiện và ứng phó với các sự cố mạng liên quan đến AI, đồng thời mở rộng thông tin về mối đe dọa và các khả năng khác cho một tổ chức để cải thiện cả hai. Đối với tổ chức, thông tin này bao gồm việc theo dõi dữ liệu đầu vào và đầu ra của hệ thống trí tuệ nhân tạo phát hiện các điểm bất thường và sử dụng thông tin về mối đe doạ để dự đoán các cuộc tấn công. Nỗ lực này thường đòi hỏi sự cộng tác với sự tin tưởng và an toàn, thông tin chi tiết về các mối đe dọa và các nhóm chống lạm dụng.
3. Tự động bảo vệ để bắt kịp các mối đe dọa hiện có và mới
Những cải tiến mới nhất về trí tuệ nhân tạo (AI) có thể cải thiện quy mô và tốc độ nỗ lực ứng phó với sự cố bảo mật. Đối thủ sẽ có thể dùng AI để mở rộng quy mô tác động, vì vậy, điều quan trọng là phải sử dụng AI cùng các khả năng hiện tại và phát triển của AI để nhanh chóng và hiệu quả về chi phí trong việc bảo vệ mình.
4. Điều phối các chế độ kiểm soát ở cấp nền tảng để đảm bảo tính bảo mật nhất quán cho toàn tổ chức
Tính nhất quán trên các khung kiểm soát có thể hỗ trợ giảm thiểu rủi ro bằng AI và các biện pháp bảo vệ trên quy mô lớn trên nhiều nền tảng và công cụ để đảm bảo rằng tất cả ứng dụng AI đều có khả năng bảo vệ tốt nhất theo cách có thể mở rộng và tiết kiệm chi phí. Tại Google, trong đó có việc mở rộng các biện pháp bảo vệ theo mặc định, theo mặc định, cho các nền tảng trí tuệ nhân tạo như Vertex AI và Bảo mật AI Workbench, đồng thời tích hợp các biện pháp kiểm soát và bảo vệ vào vòng đời phát triển phần mềm. Các chức năng giải quyết các trường hợp sử dụng chung, như API phối cảnh, có thể giúp toàn bộ tổ chức hưởng lợi nhờ các biện pháp bảo vệ hiện đại.
5. Điều chỉnh các chế độ kiểm soát để điều chỉnh giảm thiểu và tạo vòng hồi tiếp nhanh hơn để triển khai AI
Việc kiểm thử liên tục các hoạt động triển khai thông qua công nghệ học tập liên tục có thể đảm bảo các chức năng bảo vệ và phát hiện hoạt động để giải quyết môi trường đe dọa đang thay đổi. Điều này bao gồm các kỹ thuật như củng cố học hỏi dựa trên sự cố và phản hồi của người dùng, bao gồm các bước như cập nhật tập dữ liệu huấn luyện, tinh chỉnh mô hình để phản hồi một cách có chiến lược đối với các cuộc tấn công và cho phép phần mềm được dùng để xây dựng các mô hình nhúng sâu bảo mật hơn theo ngữ cảnh (ví dụ: phát hiện hành vi bất thường). Các tổ chức cũng có thể thực hiện các nhóm bài tập màu đỏ thường xuyên để cải thiện khả năng đảm bảo an toàn cho các sản phẩm và khả năng được trí tuệ nhân tạo hỗ trợ.
6. Ngữ cảnh hoá các rủi ro của hệ thống AI trong các quy trình kinh doanh xung quanh
Cuối cùng, việc tiến hành đánh giá rủi ro toàn diện liên quan đến cách các tổ chức sẽ triển khai AI có thể giúp đưa ra quyết định. Điều này bao gồm việc đánh giá rủi ro từ đầu đến cuối cho doanh nghiệp, chẳng hạn như theo dõi dòng dữ liệu, xác thực và theo dõi hành vi cho một số loại ứng dụng. Ngoài ra, các tổ chức nên xây dựng các bước kiểm tra tự động để xác thực hiệu suất của AI.
Nguồn thông tin khác
Hướng dẫn cho người hành nghề để triển khai SAIF. Hướng dẫn này đưa ra các cân nhắc thực tế cấp cao về cách các tổ chức có thể tiến hành xây dựng phương pháp tiếp cận SAIF cho các ứng dụng AI hiện có hoặc mới.
Tại sao các nhóm Đỏ đóng vai trò trung tâm trong việc giúp các tổ chức sử dụng hệ thống AI an toàn là một báo cáo chuyên sâu khám phá một khả năng quan trọng đang được triển khai để hỗ trợ khung SAIF: Làm việc theo nhóm màu đỏ. Điều này bao gồm ba lĩnh vực quan trọng:
- Nhóm màu đỏ là gì và tại sao nhóm này lại quan trọng?
- Các loại tấn công mà các đội đỏ mô phỏng
- Những bài học đã rút ra và chúng ta có thể chia sẻ với mọi người