ML این پتانسیل را دارد که جامعه را به طرق معنادار متحول کند، چه مثبت و چه منفی. در نظر گرفتن پیامدهای اخلاقی مدل های خود و سیستم هایی که آنها بخشی از آن هستند بسیار مهم است.
پروژه های ML شما باید به نفع جامعه باشد.آنها نباید باعث آسیب شوند یا مستعد استفاده نادرست باشند. آنها نباید تعصبات یا تعصبات را تداوم بخشند، تقویت کنند یا تشدید کنند. آنها نباید اطلاعات شخصی را غیرمسئولانه جمع آوری یا استفاده کنند.اصول هوش مصنوعی گوگل
گوگل از توسعه برنامه های کاربردی ML و AI که به اصول هوش مصنوعی آن پایبند هستند، حمایت می کند. اصول گوگل حول مفاهیم زیر است:
- انصاف
- حریم خصوصی
- شفافیت
- ایمنی
انصاف
از ایجاد یا تقویت تعصب ناعادلانه خودداری کنید. مدلها زمانی که دادههای آموزشی آنها برخی از ویژگیهای زیر را داشته باشد، سوگیری نشان میدهند:
جمعیت واقعی کاربران خود را منعکس نمی کند.
تصمیمات یا نتایج مغرضانه را حفظ می کند، به عنوان مثال، تصمیمات عدالت کیفری مانند زمان حبس.
از ویژگی هایی با قدرت پیش بینی بیشتر برای گروه های خاصی از کاربران استفاده می کند.
مثالهای قبلی فقط برخی از راههایی هستند که مدلها مغرضانه میشوند. درک کامل داده های شما برای کشف و حل هر گونه سوگیری احتمالی موجود در آن بسیار مهم است. اولین گام برای توسعه مدلهای منصفانه این است که تأیید کنید دادههای آموزشی به طور دقیق توزیع کاربران شما را منعکس میکند. اقدامات زیر برای کمک به ایجاد مدل های منصفانه است:
گروههایی که کمتر در مجموعه دادههای ارزیابی حضور دارند یا گروههایی که ممکن است کیفیت مدل بدتری را در مقایسه با گروههای دیگر تجربه کنند، شناسایی کنید. ممکن است لازم باشد زیر گروهی از کاربران خود را بیش از حد نمونه برداری کنید تا حضور آنها در داده های آموزشی افزایش یابد.
از مجموعه دادههای طلایی (همچنین به عنوان مجموعه دادههای معیار شناخته میشود) برای اعتبارسنجی مدل در برابر مسائل عادلانه و تشخیص سوگیری ضمنی استفاده کنید.
از قرار دادن ویژگیهای حساس در مجموعه دادهها، مانند جنسیت یا قومیت خودداری کنید.
از گنجاندن ویژگیهایی با قدرت تجربی یا توضیحی کم خودداری کنید، به ویژه در زمینههای حساس که در آن مدل آموزشدیده برای انجام وظایف پرتأثیر در زمینههایی مانند مراقبتهای بهداشتی، مالی، آموزش، اشتغال و غیره استفاده میشود. به عنوان مثال، در مدلی برای تایید وام مسکن، نامی را در داده های آموزشی درج نکنید. نه تنها نام متقاضی به وظیفه پیشبینی بیربط است، بلکه باقی ماندن چنین ویژگی نامربوطی در مجموعه داده نیز پتانسیل ایجاد سوگیری ضمنی یا آسیبهای تخصیصی را دارد. به عنوان مثال، این مدل ممکن است نام های مردانه را با احتمال بیشتری برای بازپرداخت مرتبط کند، یا برعکس.
اثرات نامطلوب احتمالی پیشبینیهای یک مدل را که ممکن است بر گروههای خاص داشته باشد را اندازهگیری کنید و اگر تأثیر نامطلوب را در یک زمینه حساس پیدا کردید، تکنیکهای اصلاح تعصب عمدی را در نظر بگیرید.
حریم خصوصی
اصول طراحی حریم خصوصی را از ابتدا در نظر بگیرید.
قوانین و سیاستهای مربوط به حریم خصوصی که باید از آنها مطلع باشید و به آنها پایبند باشید، به شرح زیر است:
قانون بازارهای دیجیتال اتحادیه اروپا (DMA) برای رضایت به اشتراک گذاری یا استفاده از داده های شخصی.
قوانین GDPR اتحادیه اروپا
علاوه بر این، مطمئن شوید که تمام اطلاعات شناسایی شخصی (PII) را از مجموعه دادهها حذف کرده و تأیید کنید که مدل و مخازن دادههای شما با مجوزهای مناسب تنظیم شدهاند، به عنوان مثال، قابل خواندن در جهان نیستند.
شفافیت
در قبال مردم پاسخگو باشید. به عنوان مثال، درک اینکه مدل شما چه کار می کند، چگونه آن را انجام می دهد و چرا آن را انجام می دهد، برای دیگران آسان کنید.کارت های مدلالگویی برای مستندسازی مدل خود و ایجاد مصنوعات شفاف ارائه دهید.
ایمنی
مدل هایی را طراحی کنید تا در شرایط خصمانه ایمن عمل کنند. به عنوان مثال، مدل خود را با ورودی های خصمانه بالقوه آزمایش کنید تا مطمئن شوید که مدل شما ایمن است. علاوه بر این، شرایط شکست احتمالی را بررسی کنید. تیم ها معمولاً از مجموعه داده های طراحی شده ویژه برای آزمایش مدل های خود با ورودی ها یا شرایطی استفاده می کنند که باعث شکست مدل در گذشته شده است.
درک خود را بررسی کنید
همیشه زمینه های اجتماعی گسترده تری را در نظر بگیرید که مدل های شما در آن عمل می کنند. کار کنید تا مطمئن شوید که مدیریت شما با دادههای حساس، مسائل حریم خصوصی را نقض نمیکند، تعصبات را تداوم نمیبخشد، یا مالکیت معنوی دیگران را نقض نمیکند.