এআই এবং এমএল নীতিশাস্ত্র এবং নিরাপত্তা

ML এর ইতিবাচক বা নেতিবাচকভাবে অনেক অর্থপূর্ণ উপায়ে সমাজকে রূপান্তরিত করার সম্ভাবনা রয়েছে। আপনার মডেলগুলির নৈতিক প্রভাব এবং তারা যে সিস্টেমগুলির একটি অংশ তা বিবেচনা করা গুরুত্বপূর্ণ৷

Google-এ বিকশিত যেকোন প্রযুক্তির মতো, আপনার ML প্রকল্পগুলি সমাজকে উপকৃত করবে। তাদের ক্ষতি করা উচিত নয় বা অপব্যবহারের জন্য সংবেদনশীল হওয়া উচিত নয়। তাদের পক্ষপাত বা কুসংস্কারকে স্থায়ী করা, শক্তিশালী করা বা বাড়িয়ে দেওয়া উচিত নয়। তাদের দায়িত্বজ্ঞানহীনভাবে ব্যক্তিগত তথ্য সংগ্রহ বা ব্যবহার করা উচিত নয়।

গুগলের এআই নীতি

ML প্রকল্পগুলিকে অবশ্যই Google-এর AI নীতিগুলি মেনে চলতে হবে৷ দায়বদ্ধ AI (RAI) স্মার্ট প্র্যাকটিস সাইটটি Googlersকে নৈতিকভাবে ভালো ML সলিউশন তৈরি করতে সাহায্য করে যা Google-এর AI নীতির সাথে সামঞ্জস্যপূর্ণ।

AI এবং ML দায়িত্বশীলভাবে বিকাশ করার জন্য RAI স্মার্ট প্র্যাকটিসগুলি টিমের জন্য কার্যকরী নির্দেশিকা। ML সমাধানগুলিকে নিম্নলিখিত ডোমেনে Google-এর নির্দেশিকা মেনে চলতে হবে:

  • ন্যায্যতা
  • গোপনীয়তা
  • স্বচ্ছতা
  • নিরাপত্তা

ML এবং নৈতিকতা সম্পর্কিত প্রশ্ন বা উদ্বেগের জন্য, আপনার পণ্যের PCcounsel এবং গোপনীয়তা ওয়ার্কিং গ্রুপের সাথে পরামর্শ করুন।

ন্যায্যতা

অন্যায্য পক্ষপাত তৈরি বা শক্তিশালী করা এড়িয়ে চলুন। মডেলগুলি পক্ষপাত প্রদর্শন করে যখন তাদের প্রশিক্ষণের ডেটাতে নিম্নলিখিত কিছু বৈশিষ্ট্য থাকে:

  • তাদের ব্যবহারকারীদের বাস্তব-বিশ্বের জনসংখ্যাকে প্রতিফলিত করে না।

  • পক্ষপাতমূলক সিদ্ধান্ত বা ফলাফল সংরক্ষণ করে, উদাহরণস্বরূপ, ফৌজদারি বিচারের সিদ্ধান্ত যেমন কারাগারের সময়।

  • ব্যবহারকারীদের নির্দিষ্ট গ্রুপের জন্য আরও ভবিষ্যদ্বাণী করার ক্ষমতা সহ বৈশিষ্ট্যগুলি ব্যবহার করে।

পূর্ববর্তী উদাহরণগুলি শুধুমাত্র কিছু উপায়ে মডেলগুলি পক্ষপাতদুষ্ট হয়ে ওঠে৷ আপনার ডেটা পুঙ্খানুপুঙ্খভাবে বোঝা এটিতে থাকা যেকোনো সম্ভাব্য পক্ষপাতগুলিকে উন্মোচন এবং সমাধান করার জন্য গুরুত্বপূর্ণ। ন্যায্য মডেল তৈরির প্রথম ধাপ হল প্রশিক্ষণের ডেটা যাচাই করা যা আপনার ব্যবহারকারীদের বিতরণকে সঠিকভাবে প্রতিফলিত করে। ন্যায্য মডেল তৈরি করতে সাহায্য করার জন্য নিম্নলিখিত আরও অনুশীলনগুলি রয়েছে:

  • মূল্যায়ন ডেটাসেট বা গোষ্ঠীতে নিম্ন-উপস্থিত গোষ্ঠীগুলি সনাক্ত করুন যা অন্যান্য গোষ্ঠীর তুলনায় খারাপ মডেলের গুণমান অনুভব করতে পারে। প্রশিক্ষণ ডেটাতে তাদের উপস্থিতি বাড়ানোর জন্য আপনাকে আপনার ব্যবহারকারীদের একটি সাবগ্রুপকে ওভারস্যাম্পল করতে হতে পারে।

  • ন্যায্যতার সমস্যাগুলির বিরুদ্ধে মডেলটিকে যাচাই করতে এবং অন্তর্নিহিত পক্ষপাত সনাক্ত করতে সোনালী ডেটাসেট (বেঞ্চমার্ক ডেটাসেট হিসাবেও পরিচিত) ব্যবহার করুন৷

  • লিঙ্গ বা জাতিগততার মতো ডেটাসেটে সংবেদনশীল বৈশিষ্ট্যগুলি অন্তর্ভুক্ত করা এড়িয়ে চলুন।

  • সামান্য অভিজ্ঞতামূলক বা ব্যাখ্যামূলক ক্ষমতা সহ বৈশিষ্ট্যগুলি অন্তর্ভুক্ত করা এড়িয়ে চলুন, তবে বিশেষত সংবেদনশীল প্রেক্ষাপটে যেখানে প্রশিক্ষিত মডেলটি স্বাস্থ্যসেবা, অর্থ, শিক্ষা, কর্মসংস্থান এবং আরও অনেক ক্ষেত্রে উচ্চ-প্রভাবিত কাজগুলি সম্পাদন করতে ব্যবহৃত হয়। উদাহরণস্বরূপ, হোম লোন অনুমোদনের মডেলে, প্রশিক্ষণের ডেটাতে নাম অন্তর্ভুক্ত করবেন না। শুধুমাত্র একজন আবেদনকারীর নাম ভবিষ্যদ্বাণী কাজের জন্যই অপ্রাসঙ্গিক নয়, কিন্তু ডেটাসেটে এমন একটি অপ্রাসঙ্গিক বৈশিষ্ট্য রেখে যাওয়ার ফলেও অন্তর্নিহিত পক্ষপাতিত্ব বা বরাদ্দমূলক ক্ষতির সম্ভাবনা রয়েছে। উদাহরণ স্বরূপ, মডেলটি পুরুষের নামের সাথে ঋণ পরিশোধের উচ্চ সম্ভাবনার সাথে সম্পর্কযুক্ত হতে পারে, বা বিপরীতে।

  • একটি মডেলের ভবিষ্যদ্বাণী নির্দিষ্ট গোষ্ঠীর উপর হতে পারে সম্ভাব্য প্রতিকূল প্রভাব পরিমাপ করুন, এবং যদি আপনি একটি সংবেদনশীল প্রেক্ষাপটে প্রতিকূল প্রভাব খুঁজে পান তবে ইচ্ছাকৃত পক্ষপাত সংশোধনের কৌশলগুলি বিবেচনা করুন।

AI এবং ML ন্যায্যতা সম্পর্কে আরও তথ্যের জন্য, স্মার্ট প্র্যাকটিস ফেয়ারনেস পৃষ্ঠা এবং মেশিন লার্নিং ক্র্যাশ কোর্স ফেয়ারনেস মডিউল দেখুন৷

গোপনীয়তা

প্রথম থেকেই গোপনীয়তা নকশা নীতিগুলি অন্তর্ভুক্ত করুন। Google-এর যেকোনো নতুন বৈশিষ্ট্য বা পণ্যের মতো, আপনার মডেলটিকে আপনার পণ্য এলাকার গোপনীয়তা ওয়ার্কিং গ্রুপ দ্বারা পর্যালোচনা করতে হবে। অতএব, প্রাথমিক প্রতিক্রিয়া পেতে তাড়াতাড়ি একটি গোপনীয়তা ডিজাইন নথি তৈরি করুন।

নিম্নলিখিতগুলি গোপনীয়তা সম্পর্কিত আইন এবং নীতিগুলি সম্পর্কে সচেতন এবং মেনে চলতে হবে:

নিম্নলিখিতগুলি মেনে চলার জন্য Google-নির্দিষ্ট গোপনীয়তা অনুশীলনগুলি রয়েছে:

  • প্রবিধান মুছে ফেলা .

  • বাইনারি এবং কনফিগারেশন আইডি (BCID) লেভেল 4 আপনার সিস্টেম অ্যাক্সেস করা থেকে ক্ষতিকারক বা আপোসকৃত কোড প্রতিরোধ করতে।

  • ডেটাসেট থেকে সমস্ত PII সরান এবং নিশ্চিত করুন যে আপনার মডেল এবং ডেটা সংগ্রহস্থলগুলি সঠিক অনুমতির সাথে সেট আপ করা হয়েছে, উদাহরণস্বরূপ, বিশ্ব-পঠনযোগ্য নয়৷

নিম্নলিখিত ভিডিওটি গোপনীয়তা সম্পর্কিত সমস্যাগুলির একটি উচ্চ-স্তরের ওভারভিউ প্রদান করে:

AI এবং ML গোপনীয়তা সম্পর্কে আরও তথ্যের জন্য, স্মার্ট অনুশীলন গোপনীয়তা পৃষ্ঠাটি দেখুন।

স্বচ্ছতা

মানুষের কাছে জবাবদিহি করতে হবে। উদাহরণস্বরূপ, আপনার মডেল কী করে, এটি কীভাবে করে এবং কেন এটি করে তা বোঝার জন্য এটি সহজ করুন৷ মডেল কার্ডগুলি আপনার মডেল নথিভুক্ত করতে এবং স্বচ্ছতা শিল্পকর্ম তৈরি করতে একটি টেমপ্লেট প্রদান করে।

AI এবং ML স্বচ্ছতা সম্পর্কে আরও তথ্যের জন্য, স্মার্ট প্র্যাকটিস ট্রান্সপারেন্সি পৃষ্ঠাটি দেখুন।

নিরাপত্তা

প্রতিকূল পরিস্থিতিতে নিরাপদে কাজ করার জন্য ডিজাইন মডেল। উদাহরণস্বরূপ, আপনার মডেল সুরক্ষিত তা নিশ্চিত করতে সম্ভাব্য প্রতিকূল ইনপুটগুলির সাথে আপনার মডেল পরীক্ষা করুন। উপরন্তু, সম্ভাব্য ব্যর্থতার অবস্থার জন্য পরীক্ষা করুন. দলগুলি সাধারণত তাদের মডেলগুলিকে ইনপুট বা শর্তগুলির সাথে পরীক্ষা করার জন্য বিশেষভাবে ডিজাইন করা ডেটাসেটগুলি ব্যবহার করে যার কারণে মডেলটি অতীতে ব্যর্থ হয়েছিল৷

নিরাপত্তা সম্পর্কে আরও তথ্যের জন্য, দায়িত্বশীল AI পৃষ্ঠাটি দেখুন।

সর্বদা আপনার মডেলগুলির মধ্যে কাজ করে এমন বৃহত্তর সামাজিক প্রেক্ষাপটগুলি বিবেচনা করুন৷ আপনার সংবেদনশীল ডেটা হ্যান্ডলিং গোপনীয়তা সমস্যা, চিরতরে পক্ষপাতিত্ব বা অন্য কারো বৌদ্ধিক সম্পত্তি লঙ্ঘন না করে তা নিশ্চিত করার জন্য কাজ করুন।

জেনারেটিভ এআই নীতিশাস্ত্র সম্পর্কে তথ্যের জন্য, জেনারেটিভ এআই-এর জন্য RAI স্মার্ট অনুশীলন দেখুন।