פרטיות
שיטות פרטיות ב-AI אחראי כוללות שיקול של ההשלכות האפשריות של שימוש במידע אישי רגיש. המשמעות היא לא רק כיבוד הדרישות המשפטיות והרגולטוריות, אלא גם התחשבות בנורמות חברתיות ובציפיות אישיות אופייניות. לדוגמה, אילו אמצעי הגנה צריך להפעיל כדי להבטיח את הפרטיות של אנשים פרטיים, בהתחשב בכך שמודלים של למידת מכונה עשויים לזכור או לחשוף היבטים של הנתונים שהם נחשפו אליהם? אילו פעולות נדרשות כדי להבטיח למשתמשים שקיפות מספקת ושליטה בנתונים שלהם?
מידע נוסף על פרטיות ב-ML זמין במדריכים האינטראקטיביים של PAIR Explorables:
אלא אם צוין אחרת, התוכן של דף זה הוא ברישיון Creative Commons Attribution 4.0 ודוגמאות הקוד הן ברישיון Apache 2.0. לפרטים, ניתן לעיין במדיניות האתר Google Developers. Java הוא סימן מסחרי רשום של חברת Oracle ו/או של השותפים העצמאיים שלה.
עדכון אחרון: 2025-02-25 (שעון UTC).
[null,null,["עדכון אחרון: 2025-02-25 (שעון UTC)."],[[["Responsible AI privacy practices involve respecting legal and regulatory requirements, social norms, and individual expectations regarding sensitive data."],["Safeguards are crucial to ensure individual privacy, as ML models can retain and potentially reveal aspects of the data used in training."],["Transparency and user control over their data are essential considerations in responsible AI development."],["Google's PAIR Explorables offer interactive learning experiences to deepen your understanding of ML privacy concepts like randomized response, federated learning, and data leakage."]]],[]]