اخلاق و ایمنی هوش مصنوعی و ML

ML این پتانسیل را دارد که جامعه را به طرق معنادار متحول کند، چه مثبت و چه منفی. در نظر گرفتن پیامدهای اخلاقی مدل های خود و سیستم هایی که آنها بخشی از آن هستند بسیار مهم است.

مانند هر فناوری توسعه یافته در Google، پروژه های ML شما باید به نفع جامعه باشد. آنها نباید باعث آسیب شوند یا مستعد استفاده نادرست باشند. آنها نباید تعصبات یا تعصبات را تداوم بخشند، تقویت کنند یا تشدید کنند. آنها نباید اطلاعات شخصی را غیرمسئولانه جمع آوری یا استفاده کنند.

اصول هوش مصنوعی گوگل

پروژه های ML باید از اصول هوش مصنوعی گوگل پیروی کنند. سایت Responsible AI (RAI) Smart Practices به کارمندان Google کمک می کند تا راه حل های اخلاقی ML را توسعه دهند که با اصول هوش مصنوعی Google همخوانی دارد.

روش‌های هوشمند RAI دستورالعمل‌های قابل اجرا برای تیم‌ها هستند تا به‌منظور توسعه مسئولانه هوش مصنوعی و ML اجرا شوند. راه‌حل‌های ML باید از دستورالعمل‌های Google در حوزه‌های زیر پیروی کنند:

  • انصاف
  • حریم خصوصی
  • شفافیت
  • ایمنی

برای سؤالات یا نگرانی‌های مربوط به ML و اخلاق، با گروه کاری PCCounsel و Privacy محصول خود مشورت کنید.

انصاف

از ایجاد یا تقویت تعصب ناعادلانه خودداری کنید. مدل‌ها زمانی که داده‌های آموزشی آن‌ها برخی از ویژگی‌های زیر را داشته باشد، سوگیری نشان می‌دهند:

  • جمعیت واقعی کاربران خود را منعکس نمی کند.

  • تصمیمات یا نتایج مغرضانه را حفظ می کند، به عنوان مثال، تصمیمات عدالت کیفری مانند زمان حبس.

  • از ویژگی هایی با قدرت پیش بینی بیشتر برای گروه های خاصی از کاربران استفاده می کند.

مثال‌های قبلی فقط برخی از راه‌هایی هستند که مدل‌ها مغرضانه می‌شوند. درک کامل داده های شما برای کشف و حل هر گونه سوگیری احتمالی موجود در آن بسیار مهم است. اولین گام برای توسعه مدل‌های منصفانه این است که تأیید کنید داده‌های آموزشی به طور دقیق توزیع کاربران شما را منعکس می‌کند. اقدامات زیر برای کمک به ایجاد مدل های منصفانه است:

  • گروه‌هایی که کمتر در مجموعه داده‌های ارزیابی حضور دارند یا گروه‌هایی که ممکن است کیفیت مدل بدتری را در مقایسه با گروه‌های دیگر تجربه کنند، شناسایی کنید. ممکن است لازم باشد زیر گروهی از کاربران خود را بیش از حد نمونه برداری کنید تا حضور آنها در داده های آموزشی افزایش یابد.

  • از مجموعه داده‌های طلایی (همچنین به عنوان مجموعه داده‌های معیار شناخته می‌شود) برای اعتبارسنجی مدل در برابر مسائل عادلانه و تشخیص سوگیری ضمنی استفاده کنید.

  • از قرار دادن ویژگی‌های حساس در مجموعه داده‌ها، مانند جنسیت یا قومیت خودداری کنید.

  • از گنجاندن ویژگی‌هایی با قدرت تجربی یا توضیحی کم خودداری کنید، به ویژه در زمینه‌های حساس که در آن مدل آموزش‌دیده برای انجام وظایف پرتأثیر در زمینه‌هایی مانند مراقبت‌های بهداشتی، مالی، آموزش، اشتغال و غیره استفاده می‌شود. به عنوان مثال، در مدلی برای تایید وام مسکن، نامی را در داده های آموزشی درج نکنید. نه تنها نام متقاضی به وظیفه پیش‌بینی بی‌ربط است، بلکه باقی ماندن چنین ویژگی نامربوطی در مجموعه داده نیز پتانسیل ایجاد سوگیری ضمنی یا آسیب‌های تخصیصی را دارد. به عنوان مثال، این مدل ممکن است نام های مردانه را با احتمال بیشتری برای بازپرداخت مرتبط کند، یا برعکس.

  • اثرات نامطلوب احتمالی پیش‌بینی‌های یک مدل را که ممکن است بر گروه‌های خاص داشته باشد را اندازه‌گیری کنید و اگر تأثیر نامطلوب را در یک زمینه حساس پیدا کردید، تکنیک‌های اصلاح تعصب عمدی را در نظر بگیرید.

برای اطلاعات بیشتر در مورد عدالت هوش مصنوعی و ML، صفحه Smart Practices Fairness و ماژول Machine Learning Crash Course Fairness را ببینید.

حریم خصوصی

اصول طراحی حریم خصوصی را از ابتدا در نظر بگیرید. مانند هر ویژگی یا محصول جدیدی در Google، مدل شما باید توسط گروه کاری حریم خصوصی منطقه محصول شما بررسی شود. بنابراین، برای دریافت بازخورد اولیه، زودتر یک سند طراحی حریم خصوصی ایجاد کنید.

قوانین و سیاست‌های مربوط به حریم خصوصی که باید از آن‌ها مطلع باشید و به آن‌ها پایبند باشید، به شرح زیر است:

موارد زیر روش‌های حفظ حریم خصوصی Google هستند که باید به آن‌ها پایبند باشید:

  • مقررات پاک کردن

  • شناسه باینری و پیکربندی (BCID) سطح 4 برای جلوگیری از دسترسی کدهای مخرب یا در معرض خطر به سیستم شما.

  • تمام PII را از مجموعه داده‌ها حذف کنید و تأیید کنید که مدل و مخازن داده شما با مجوزهای مناسب تنظیم شده‌اند، به عنوان مثال، قابل خواندن در جهان نیستند.

ویدیوی زیر یک نمای کلی از مسائل مربوط به حریم خصوصی در سطح بالا ارائه می دهد:

برای اطلاعات بیشتر در مورد حریم خصوصی هوش مصنوعی و ML، صفحه حریم خصوصی Smart Practices را ببینید.

شفافیت

در قبال مردم پاسخگو باشید. به عنوان مثال، درک اینکه مدل شما چه کار می کند، چگونه آن را انجام می دهد و چرا آن را انجام می دهد، برای دیگران آسان کنید. کارت های مدل الگویی برای مستندسازی مدل شما و ایجاد مصنوعات شفاف ارائه می دهند.

برای اطلاعات بیشتر در مورد شفافیت هوش مصنوعی و ML، به صفحه شفافیت شیوه های هوشمند مراجعه کنید.

ایمنی

مدل هایی را طراحی کنید تا در شرایط خصمانه ایمن عمل کنند. به عنوان مثال، مدل خود را با ورودی های خصمانه بالقوه آزمایش کنید تا مطمئن شوید که مدل شما ایمن است. علاوه بر این، شرایط شکست احتمالی را بررسی کنید. تیم ها معمولاً از مجموعه داده های طراحی شده ویژه برای آزمایش مدل های خود با ورودی ها یا شرایطی استفاده می کنند که باعث شکست مدل در گذشته شده است.

برای اطلاعات بیشتر در مورد ایمنی، به صفحه هوش مصنوعی مسئول مراجعه کنید.

همیشه زمینه های اجتماعی گسترده تری را در نظر بگیرید که مدل های شما در آن عمل می کنند. کار کنید تا مطمئن شوید که مدیریت شما با داده‌های حساس، مسائل حریم خصوصی را نقض نمی‌کند، تعصبات را تداوم نمی‌بخشد، یا مالکیت معنوی دیگران را نقض نمی‌کند.

برای کسب اطلاعات در مورد اخلاق هوش مصنوعی مولد، به تمرینات هوشمند RAI برای هوش مصنوعی مولد مراجعه کنید.