Keamanan
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Keamanan AI mencakup serangkaian teknik desain dan operasional yang harus diikuti untuk
menghindari dan membatasi tindakan yang dapat menyebabkan bahaya, baik disengaja maupun tidak disengaja.
Misalnya, apakah sistem AI berperilaku sebagaimana mestinya, bahkan saat terjadi pelanggaran keamanan
atau serangan yang ditargetkan? Apakah sistem AI cukup andal untuk beroperasi dengan aman
meskipun terganggu? Bagaimana cara Anda merencanakan ke depan untuk mencegah atau menghindari risiko? Apakah sistem
AI andal dan stabil dalam tekanan?
Salah satu teknik keamanan tersebut adalah pengujian adversarial,
atau praktik mencoba "merusak" aplikasi Anda sendiri untuk mempelajari perilakunya
saat diberi input berbahaya atau yang tidak sengaja membahayakan. Responsible Generative AI Toolkit menjelaskan lebih lanjut evaluasi keamanan, termasuk pengujian adversarial. Pelajari
lebih lanjut upaya Google di bidang ini dan pelajaran
yang diperoleh dalam postingan blog Kata Kunci, Red Team AI Google: peretas etis
yang membuat AI
lebih aman
atau di SAIF: Panduan Google untuk AI Aman.
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2025-07-27 UTC.
[null,null,["Terakhir diperbarui pada 2025-07-27 UTC."],[[["\u003cp\u003eAI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack.\u003c/p\u003e\n"],["\u003cp\u003eAdversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks.\u003c/p\u003e\n"]]],[],null,["# Safety\n\n\u003cbr /\u003e\n\nAI **safety** includes a set of design and operational techniques to follow to\navoid and contain actions that can cause harm, intentionally or unintentionally.\nFor example, do AI systems behave as intended, even in the face of a security\nbreach or targeted attack? Is the AI system robust enough to operate safely\neven when perturbed? How do you plan ahead to prevent or avoid risks? Is the AI\nsystem reliable and stable under pressure?\n\nOne such safety technique is [adversarial testing](/machine-learning/guides/adv-testing),\nor the practice of trying to \"break\" your own application to learn how it\nbehaves when provided with malicious or inadvertently harmful input. The\n[Responsible Generative AI Toolkit](https://ai.google.dev/responsible/docs/evaluation)\nexplains more about safety evaluations, including adversarial testing. Learn\nmore about Google's work in this area and lessons\nlearned in the Keyword blog post, [Google's AI Red Team: the ethical hackers\nmaking AI\nsafer](https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/)\nor at [SAIF: Google's Guide to Secure AI](https://saif.google/)."]]