סייפטי
קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
בטיחות של AI כוללת קבוצה של שיטות תכנון ותפעול שצריך לפעול לפיהן כדי למנוע פעולות שעלולות לגרום נזק, בכוונה או בטעות, ולעצור אותן.
לדוגמה, האם מערכות ה-AI פועלות כמצופה, גם במקרה של פרצת אבטחה או התקפה ממוקדת? האם מערכת ה-AI חזקה מספיק כדי לפעול בבטחה גם כשהיא מופרעת? איך אתם מתכננים מראש כדי למנוע סיכונים או להימנע מהם? האם מערכת ה-AI אמינה ויציבה במצבי לחץ?
אחת משיטות הבטיחות האלה היא בדיקת כוונות זדון, כלומר ניסיון 'לשבור' את האפליקציה שלכם כדי ללמוד איך היא מתנהגת כשמספקים לה קלט זדוני או קלט שעלול להזיק בטעות. בערכת הכלים ל-AI גנרטיבי אחראי מוסבר בהרחבה על בדיקות ביקורתיות, כולל בדיקות יריבות. מידע נוסף על העבודה של Google בתחום הזה ועל הלקחים שהופקו ממנה זמין בפוסט בבלוג Keyword, צוות Red של Google בנושאי AI: האקרים אתיים שעוזרים לשפר את הבטיחות של AI, או במדריך SAIF: מדריך של Google לאבטחת AI.
אלא אם צוין אחרת, התוכן של דף זה הוא ברישיון Creative Commons Attribution 4.0 ודוגמאות הקוד הן ברישיון Apache 2.0. לפרטים, ניתן לעיין במדיניות האתר Google Developers. Java הוא סימן מסחרי רשום של חברת Oracle ו/או של השותפים העצמאיים שלה.
עדכון אחרון: 2025-07-27 (שעון UTC).
[null,null,["עדכון אחרון: 2025-07-27 (שעון UTC)."],[[["\u003cp\u003eAI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack.\u003c/p\u003e\n"],["\u003cp\u003eAdversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness.\u003c/p\u003e\n"],["\u003cp\u003eGoogle's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks.\u003c/p\u003e\n"]]],[],null,["# Safety\n\n\u003cbr /\u003e\n\nAI **safety** includes a set of design and operational techniques to follow to\navoid and contain actions that can cause harm, intentionally or unintentionally.\nFor example, do AI systems behave as intended, even in the face of a security\nbreach or targeted attack? Is the AI system robust enough to operate safely\neven when perturbed? How do you plan ahead to prevent or avoid risks? Is the AI\nsystem reliable and stable under pressure?\n\nOne such safety technique is [adversarial testing](/machine-learning/guides/adv-testing),\nor the practice of trying to \"break\" your own application to learn how it\nbehaves when provided with malicious or inadvertently harmful input. The\n[Responsible Generative AI Toolkit](https://ai.google.dev/responsible/docs/evaluation)\nexplains more about safety evaluations, including adversarial testing. Learn\nmore about Google's work in this area and lessons\nlearned in the Keyword blog post, [Google's AI Red Team: the ethical hackers\nmaking AI\nsafer](https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/)\nor at [SAIF: Google's Guide to Secure AI](https://saif.google/)."]]