নিরাপত্তা

AI নিরাপত্তার মধ্যে এমন একটি সেট ডিজাইন এবং অপারেশনাল কৌশল রয়েছে যা ইচ্ছাকৃত বা অনিচ্ছাকৃতভাবে ক্ষতির কারণ হতে পারে এমন ক্রিয়াগুলি এড়াতে এবং থাকতে পারে। উদাহরণ স্বরূপ, AI সিস্টেমগুলি কি উদ্দেশ্য অনুযায়ী আচরণ করে, এমনকি নিরাপত্তা লঙ্ঘন বা লক্ষ্যযুক্ত আক্রমণের মুখেও? এআই সিস্টেম কি যথেষ্ট মজবুত এমনকি বিচলিত হলেও নিরাপদে কাজ করতে পারে? ঝুঁকি প্রতিরোধ বা এড়াতে আপনি কীভাবে আগাম পরিকল্পনা করবেন? চাপের মধ্যে এআই সিস্টেম কি নির্ভরযোগ্য এবং স্থিতিশীল?

এই ধরনের একটি নিরাপত্তা কৌশল হল প্রতিপক্ষের পরীক্ষা , অথবা দূষিত বা অসাবধানতাবশত ক্ষতিকারক ইনপুট দেওয়া হলে এটি কীভাবে আচরণ করে তা শিখতে আপনার নিজের অ্যাপ্লিকেশনটিকে "ব্রেক" করার চেষ্টা করার অনুশীলন। Google-এর দায়বদ্ধ AI অনুশীলনের সুরক্ষা বিভাগে AI সিস্টেমগুলিকে আক্রমণ থেকে রক্ষা করার জন্য প্রস্তাবিত অনুশীলনের রূপরেখা রয়েছে, যার মধ্যে প্রতিপক্ষের পরীক্ষাও রয়েছে৷ এই ক্ষেত্রে Google এর কাজ এবং কীওয়ার্ড ব্লগ পোস্টে শেখা পাঠ সম্পর্কে আরও জানুন, Google এর AI রেড টিম: নৈতিক হ্যাকাররা AI কে নিরাপদ করে বা SAIF এ: Google এর গাইড টু সিকিউর AI