An toàn
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
An toàn của AI bao gồm một bộ kỹ thuật thiết kế và vận hành cần tuân thủ để tránh và ngăn chặn các hành động có thể gây hại, dù là cố ý hay vô tình.
Ví dụ: các hệ thống AI có hoạt động như dự kiến hay không, ngay cả khi gặp phải sự cố bảo mật hoặc cuộc tấn công có chủ đích? Hệ thống AI có đủ mạnh để hoạt động an toàn ngay cả khi bị nhiễu không? Bạn lên kế hoạch trước như thế nào để ngăn chặn hoặc tránh rủi ro? Hệ thống AI có đáng tin cậy và ổn định khi chịu áp lực không?
Một trong những kỹ thuật an toàn như vậy là kiểm thử đối kháng, hay việc cố gắng "phá vỡ" ứng dụng của chính bạn để tìm hiểu cách ứng dụng đó hoạt động khi được cung cấp dữ liệu đầu vào độc hại hoặc vô tình gây hại. Bộ công cụ AI tạo sinh có trách nhiệm giải thích thêm về việc đánh giá tính an toàn, bao gồm cả kiểm thử đối kháng. Tìm hiểu thêm về công việc của Google trong lĩnh vực này và các bài học rút ra trong bài đăng trên blog về Từ khoá, Đội Đỏ của Google về AI: những tin tặc có đạo đức giúp AI an toàn hơn hoặc tại SAIF: Hướng dẫn của Google về AI bảo mật.
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-07-27 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-27 UTC."],[[["\u003cp\u003eAI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack.\u003c/p\u003e\n"],["\u003cp\u003eAdversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks.\u003c/p\u003e\n"]]],[],null,["# Safety\n\n\u003cbr /\u003e\n\nAI **safety** includes a set of design and operational techniques to follow to\navoid and contain actions that can cause harm, intentionally or unintentionally.\nFor example, do AI systems behave as intended, even in the face of a security\nbreach or targeted attack? Is the AI system robust enough to operate safely\neven when perturbed? How do you plan ahead to prevent or avoid risks? Is the AI\nsystem reliable and stable under pressure?\n\nOne such safety technique is [adversarial testing](/machine-learning/guides/adv-testing),\nor the practice of trying to \"break\" your own application to learn how it\nbehaves when provided with malicious or inadvertently harmful input. The\n[Responsible Generative AI Toolkit](https://ai.google.dev/responsible/docs/evaluation)\nexplains more about safety evaluations, including adversarial testing. Learn\nmore about Google's work in this area and lessons\nlearned in the Keyword blog post, [Google's AI Red Team: the ethical hackers\nmaking AI\nsafer](https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/)\nor at [SAIF: Google's Guide to Secure AI](https://saif.google/)."]]