الخصوصية
تشمل ممارسات الخصوصية في الذكاء الاصطناعي المسؤول
النظر في الآثار المحتملة لاستخدام data
الحسّاسة. ويشمل ذلك عدم الالتزام بالمتطلبات القانونية والتنظيمية فقط، بل
الالتزام أيضًا بالمعايير الاجتماعية والتوقعات الفردية المعتادة. على سبيل المثال،
ما هي الإجراءات الوقائية التي يجب اتخاذها لضمان خصوصية الأفراد،
مع الأخذ في الاعتبار أنّ نماذج تعلُّم الآلة قد تتذكر أو تكشف جوانب من البيانات التي
تم تحليلها؟ ما هي الخطوات اللازمة لضمان منح المستخدمين شفافية وإمكانية تحكّم كافية في بياناتهم؟
اطّلِع على مزيد من المعلومات حول خصوصية الذكاء الاصطناعي من خلال الاطّلاع على الخطوات التفاعلية في PAIR Explorables:
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Responsible AI privacy practices involve respecting legal and regulatory requirements, social norms, and individual expectations regarding sensitive data."],["Safeguards are crucial to ensure individual privacy, as ML models can retain and potentially reveal aspects of the data used in training."],["Transparency and user control over their data are essential considerations in responsible AI development."],["Google's PAIR Explorables offer interactive learning experiences to deepen your understanding of ML privacy concepts like randomized response, federated learning, and data leakage."]]],[]]