اخلاق و ایمنی هوش مصنوعی و ML

ML این پتانسیل را دارد که جامعه را به طرق معنادار متحول کند، چه مثبت و چه منفی. در نظر گرفتن پیامدهای اخلاقی مدل های خود و سیستم هایی که آنها بخشی از آن هستند بسیار مهم است.

پروژه های ML شما باید به نفع جامعه باشد.آنها نباید باعث آسیب شوند یا مستعد استفاده نادرست باشند. آنها نباید تعصبات یا تعصبات را تداوم بخشند، تقویت کنند یا تشدید کنند. آنها نباید اطلاعات شخصی را غیرمسئولانه جمع آوری یا استفاده کنند.

اصول هوش مصنوعی گوگل

گوگل از توسعه برنامه های کاربردی ML و AI که به اصول هوش مصنوعی آن پایبند هستند، حمایت می کند. اصول گوگل حول مفاهیم زیر است:

  • انصاف
  • حریم خصوصی
  • شفافیت
  • ایمنی

انصاف

از ایجاد یا تقویت تعصب ناعادلانه خودداری کنید. مدل‌ها زمانی که داده‌های آموزشی آن‌ها برخی از ویژگی‌های زیر را داشته باشد، سوگیری نشان می‌دهند:

  • جمعیت واقعی کاربران خود را منعکس نمی کند.

  • تصمیمات یا نتایج مغرضانه را حفظ می کند، به عنوان مثال، تصمیمات عدالت کیفری مانند زمان حبس.

  • از ویژگی هایی با قدرت پیش بینی بیشتر برای گروه های خاصی از کاربران استفاده می کند.

مثال‌های قبلی فقط برخی از راه‌هایی هستند که مدل‌ها مغرضانه می‌شوند. درک کامل داده های شما برای کشف و حل هر گونه سوگیری احتمالی موجود در آن بسیار مهم است. اولین گام برای توسعه مدل‌های منصفانه این است که تأیید کنید داده‌های آموزشی به طور دقیق توزیع کاربران شما را منعکس می‌کند. اقدامات زیر برای کمک به ایجاد مدل های منصفانه است:

  • گروه‌هایی که کمتر در مجموعه داده‌های ارزیابی حضور دارند یا گروه‌هایی که ممکن است کیفیت مدل بدتری را در مقایسه با گروه‌های دیگر تجربه کنند، شناسایی کنید. ممکن است لازم باشد زیر گروهی از کاربران خود را بیش از حد نمونه برداری کنید تا حضور آنها در داده های آموزشی افزایش یابد.

  • از مجموعه داده‌های طلایی (همچنین به عنوان مجموعه داده‌های معیار شناخته می‌شود) برای اعتبارسنجی مدل در برابر مسائل عادلانه و تشخیص سوگیری ضمنی استفاده کنید.

  • از قرار دادن ویژگی‌های حساس در مجموعه داده‌ها، مانند جنسیت یا قومیت خودداری کنید.

  • از گنجاندن ویژگی‌هایی با قدرت تجربی یا توضیحی کم خودداری کنید، به ویژه در زمینه‌های حساس که در آن مدل آموزش‌دیده برای انجام وظایف پرتأثیر در زمینه‌هایی مانند مراقبت‌های بهداشتی، مالی، آموزش، اشتغال و غیره استفاده می‌شود. به عنوان مثال، در مدلی برای تایید وام مسکن، نامی را در داده های آموزشی درج نکنید. نه تنها نام متقاضی به وظیفه پیش‌بینی بی‌ربط است، بلکه باقی ماندن چنین ویژگی نامربوطی در مجموعه داده نیز پتانسیل ایجاد سوگیری ضمنی یا آسیب‌های تخصیصی را دارد. به عنوان مثال، این مدل ممکن است نام های مردانه را با احتمال بیشتری برای بازپرداخت مرتبط کند، یا برعکس.

  • اثرات نامطلوب احتمالی پیش‌بینی‌های یک مدل را که ممکن است بر گروه‌های خاص داشته باشد را اندازه‌گیری کنید و اگر تأثیر نامطلوب را در یک زمینه حساس پیدا کردید، تکنیک‌های اصلاح تعصب عمدی را در نظر بگیرید.

حریم خصوصی

اصول طراحی حریم خصوصی را از ابتدا در نظر بگیرید.

قوانین و سیاست‌های مربوط به حریم خصوصی که باید از آن‌ها مطلع باشید و به آن‌ها پایبند باشید، به شرح زیر است:

علاوه بر این، مطمئن شوید که تمام اطلاعات شناسایی شخصی (PII) را از مجموعه داده‌ها حذف کرده و تأیید کنید که مدل و مخازن داده‌های شما با مجوزهای مناسب تنظیم شده‌اند، به عنوان مثال، قابل خواندن در جهان نیستند.

شفافیت

در قبال مردم پاسخگو باشید. به عنوان مثال، درک اینکه مدل شما چه کار می کند، چگونه آن را انجام می دهد و چرا آن را انجام می دهد، برای دیگران آسان کنید.کارت های مدلالگویی برای مستندسازی مدل خود و ایجاد مصنوعات شفاف ارائه دهید.

ایمنی

مدل هایی را طراحی کنید تا در شرایط خصمانه ایمن عمل کنند. به عنوان مثال، مدل خود را با ورودی های خصمانه بالقوه آزمایش کنید تا مطمئن شوید که مدل شما ایمن است. علاوه بر این، شرایط شکست احتمالی را بررسی کنید. تیم ها معمولاً از مجموعه داده های طراحی شده ویژه برای آزمایش مدل های خود با ورودی ها یا شرایطی استفاده می کنند که باعث شکست مدل در گذشته شده است.

درک خود را بررسی کنید

شما در حال توسعه مدلی برای تایید سریع وام های خودرو هستید. چه پیامدهای اخلاقی را باید در نظر بگیرید؟
آیا این مدل تعصبات یا کلیشه های موجود را تداوم می بخشد؟
درست است. مدل‌ها باید بر روی مجموعه داده‌های با کیفیت بالا که برای سوگیری‌ها یا تعصبات ضمنی بالقوه بازرسی شده‌اند، آموزش ببینند.
آیا این مدل پیش‌بینی‌هایی با تأخیر به اندازه کافی کم ارائه می‌کند؟
آیا می‌توان این مدل را در دستگاه‌هایی مانند تلفن‌ها مستقر کرد؟

همیشه زمینه های اجتماعی گسترده تری را در نظر بگیرید که مدل های شما در آن عمل می کنند. کار کنید تا مطمئن شوید که مدیریت شما با داده‌های حساس، مسائل حریم خصوصی را نقض نمی‌کند، تعصبات را تداوم نمی‌بخشد، یا مالکیت معنوی دیگران را نقض نمی‌کند.