בטיחות
בטיחות של AI כוללת קבוצה של שיטות תכנון ותפעול שצריך לפעול לפיהן כדי למנוע פעולות שעלולות לגרום נזק, בכוונה או בטעות, ולעצור אותן. לדוגמה, האם מערכות ה-AI פועלות כמצופה, גם במקרה של פרצת אבטחה או התקפה ממוקדת? האם מערכת ה-AI חזקה מספיק כדי לפעול בבטחה גם כשהיא מופרעת? איך אתם מתכננים מראש כדי למנוע סיכונים או להימנע מהם? האם מערכת ה-AI אמינה ויציבה במצבי לחץ?
אחת משיטות הבטיחות האלה היא בדיקת כוונות זדון, כלומר ניסיון 'לשבור' את האפליקציה שלכם כדי ללמוד איך היא מתנהגת כשמספקים לה קלט זדוני או קלט שעלול להזיק בטעות. בקטע 'בטיחות' במסמך שיטות לשימוש אחראי ב-AI מבית Google מפורטות שיטות מומלצות להגנה על מערכות AI מפני התקפות, כולל בדיקות יריבים. מידע נוסף על העבודה של Google בתחום הזה ועל הלקחים שלמדנו זמין בפוסט בבלוג Keyword, צוות Red של Google בנושאי AI: האקרים אתיים שעוזרים לשפר את הבטיחות של AI, או במדריך של Google לאבטחת AI: SAIF.