ML این پتانسیل را دارد که جامعه را به طرق معنادار متحول کند، چه مثبت و چه منفی. در نظر گرفتن پیامدهای اخلاقی مدل های خود و سیستم هایی که آنها بخشی از آن هستند بسیار مهم است.
مانند هر فناوری توسعه یافته در Google، پروژه های ML شما باید به نفع جامعه باشد. آنها نباید باعث آسیب شوند یا مستعد استفاده نادرست باشند. آنها نباید تعصبات یا تعصبات را تداوم بخشند، تقویت کنند یا تشدید کنند. آنها نباید اطلاعات شخصی را غیرمسئولانه جمع آوری یا استفاده کنند.
اصول هوش مصنوعی گوگل
پروژه های ML باید از اصول هوش مصنوعی گوگل پیروی کنند. سایت Responsible AI (RAI) Smart Practices به کارمندان Google کمک می کند تا راه حل های اخلاقی ML را توسعه دهند که با اصول هوش مصنوعی Google همخوانی دارد.
روشهای هوشمند RAI دستورالعملهای قابل اجرا برای تیمها هستند تا بهمنظور توسعه مسئولانه هوش مصنوعی و ML اجرا شوند. راهحلهای ML باید از دستورالعملهای Google در حوزههای زیر پیروی کنند:
- انصاف
- حریم خصوصی
- شفافیت
- ایمنی
برای سؤالات یا نگرانیهای مربوط به ML و اخلاق، با گروه کاری PCCounsel و Privacy محصول خود مشورت کنید.
انصاف
از ایجاد یا تقویت تعصب ناعادلانه خودداری کنید. مدلها زمانی که دادههای آموزشی آنها برخی از ویژگیهای زیر را داشته باشد، سوگیری نشان میدهند:
جمعیت واقعی کاربران خود را منعکس نمی کند.
تصمیمات یا نتایج مغرضانه را حفظ می کند، به عنوان مثال، تصمیمات عدالت کیفری مانند زمان حبس.
از ویژگی هایی با قدرت پیش بینی بیشتر برای گروه های خاصی از کاربران استفاده می کند.
مثالهای قبلی فقط برخی از راههایی هستند که مدلها مغرضانه میشوند. درک کامل داده های شما برای کشف و حل هر گونه سوگیری احتمالی موجود در آن بسیار مهم است. اولین گام برای توسعه مدلهای منصفانه این است که تأیید کنید دادههای آموزشی به طور دقیق توزیع کاربران شما را منعکس میکند. اقدامات زیر برای کمک به ایجاد مدل های منصفانه است:
گروههایی که کمتر در مجموعه دادههای ارزیابی حضور دارند یا گروههایی که ممکن است کیفیت مدل بدتری را در مقایسه با گروههای دیگر تجربه کنند، شناسایی کنید. ممکن است لازم باشد زیر گروهی از کاربران خود را بیش از حد نمونه برداری کنید تا حضور آنها در داده های آموزشی افزایش یابد.
از مجموعه دادههای طلایی (همچنین به عنوان مجموعه دادههای معیار شناخته میشود) برای اعتبارسنجی مدل در برابر مسائل عادلانه و تشخیص سوگیری ضمنی استفاده کنید.
از قرار دادن ویژگیهای حساس در مجموعه دادهها، مانند جنسیت یا قومیت خودداری کنید.
از گنجاندن ویژگیهایی با قدرت تجربی یا توضیحی کم خودداری کنید، به ویژه در زمینههای حساس که در آن مدل آموزشدیده برای انجام وظایف پرتأثیر در زمینههایی مانند مراقبتهای بهداشتی، مالی، آموزش، اشتغال و غیره استفاده میشود. به عنوان مثال، در مدلی برای تایید وام مسکن، نامی را در داده های آموزشی درج نکنید. نه تنها نام متقاضی به وظیفه پیشبینی بیربط است، بلکه باقی ماندن چنین ویژگی نامربوطی در مجموعه داده نیز پتانسیل ایجاد سوگیری ضمنی یا آسیبهای تخصیصی را دارد. به عنوان مثال، این مدل ممکن است نام های مردانه را با احتمال بیشتری برای بازپرداخت مرتبط کند، یا برعکس.
اثرات نامطلوب احتمالی پیشبینیهای یک مدل را که ممکن است بر گروههای خاص داشته باشد را اندازهگیری کنید و اگر تأثیر نامطلوب را در یک زمینه حساس پیدا کردید، تکنیکهای اصلاح تعصب عمدی را در نظر بگیرید.
برای اطلاعات بیشتر در مورد عدالت هوش مصنوعی و ML، صفحه Smart Practices Fairness و ماژول Machine Learning Crash Course Fairness را ببینید.
حریم خصوصی
اصول طراحی حریم خصوصی را از ابتدا در نظر بگیرید. مانند هر ویژگی یا محصول جدیدی در Google، مدل شما باید توسط گروه کاری حریم خصوصی منطقه محصول شما بررسی شود. بنابراین، برای دریافت بازخورد اولیه، زودتر یک سند طراحی حریم خصوصی ایجاد کنید.
قوانین و سیاستهای مربوط به حریم خصوصی که باید از آنها مطلع باشید و به آنها پایبند باشید، به شرح زیر است:
قانون بازارهای دیجیتال اتحادیه اروپا (DMA) برای رضایت به اشتراک گذاری یا استفاده از داده های شخصی.
قوانین GDPR اتحادیه اروپا
موارد زیر روشهای حفظ حریم خصوصی Google هستند که باید به آنها پایبند باشید:
مقررات پاک کردن
شناسه باینری و پیکربندی (BCID) سطح 4 برای جلوگیری از دسترسی کدهای مخرب یا در معرض خطر به سیستم شما.
تمام PII را از مجموعه دادهها حذف کنید و تأیید کنید که مدل و مخازن داده شما با مجوزهای مناسب تنظیم شدهاند، به عنوان مثال، قابل خواندن در جهان نیستند.
ویدیوی زیر یک نمای کلی از مسائل مربوط به حریم خصوصی در سطح بالا ارائه می دهد:
برای اطلاعات بیشتر در مورد حریم خصوصی هوش مصنوعی و ML، صفحه حریم خصوصی Smart Practices را ببینید.
شفافیت
در قبال مردم پاسخگو باشید. به عنوان مثال، درک اینکه مدل شما چه کار می کند، چگونه آن را انجام می دهد و چرا آن را انجام می دهد، برای دیگران آسان کنید. کارت های مدل الگویی برای مستندسازی مدل شما و ایجاد مصنوعات شفاف ارائه می دهند.
برای اطلاعات بیشتر در مورد شفافیت هوش مصنوعی و ML، به صفحه شفافیت شیوه های هوشمند مراجعه کنید.
ایمنی
مدل هایی را طراحی کنید تا در شرایط خصمانه ایمن عمل کنند. به عنوان مثال، مدل خود را با ورودی های خصمانه بالقوه آزمایش کنید تا مطمئن شوید که مدل شما ایمن است. علاوه بر این، شرایط شکست احتمالی را بررسی کنید. تیم ها معمولاً از مجموعه داده های طراحی شده ویژه برای آزمایش مدل های خود با ورودی ها یا شرایطی استفاده می کنند که باعث شکست مدل در گذشته شده است.
برای اطلاعات بیشتر در مورد ایمنی، به صفحه هوش مصنوعی مسئول مراجعه کنید.
همیشه زمینه های اجتماعی گسترده تری را در نظر بگیرید که مدل های شما در آن عمل می کنند. کار کنید تا مطمئن شوید که مدیریت شما با دادههای حساس، مسائل حریم خصوصی را نقض نمیکند، تعصبات را تداوم نمیبخشد، یا مالکیت معنوی دیگران را نقض نمیکند.
برای کسب اطلاعات در مورد اخلاق هوش مصنوعی مولد، به تمرینات هوشمند RAI برای هوش مصنوعی مولد مراجعه کنید.