چگونه سیستم های هوش مصنوعی را مسئولانه و در مقیاس بسازیم؟ درباره هوش مصنوعی مسئولیت پذیر، مفاهیم و اصطلاحات مرتبط و نحوه پیاده سازی این شیوه ها در محصولات بیاموزید.
معرفی
هوش مصنوعی (AI) بسیاری از اپلیکیشنها و خدماتی را که مردم در زندگی روزمره از آنها استفاده میکنند، نیرو میدهد. با میلیاردها کاربر هوش مصنوعی در زمینههای مختلف، از کسب و کار گرفته تا مراقبتهای بهداشتی و آموزشی، بسیار مهم است که شرکتهای پیشرو هوش مصنوعی تلاش کنند تا اطمینان حاصل کنند که مزایای این فناوریها بیشتر از مضرات آن است تا مفیدترین، ایمنترین و قابل اعتمادترین تجربیات را برای همه ایجاد کنند. .
هوش مصنوعی مسئول تأثیر اجتماعی توسعه و مقیاس این فناوریها، از جمله مضرات و مزایای بالقوه را در نظر میگیرد. اصول هوش مصنوعی چارچوبی را ارائه می دهد که شامل اهداف برنامه های کاربردی هوش مصنوعی است و برنامه هایی که ما در توسعه سیستم های هوش مصنوعی دنبال نمی کنیم.
ابعاد هوش مصنوعی مسئول
از آنجایی که توسعه هوش مصنوعی تسریع میشود و فراگیرتر میشود، ترکیب شیوههای هوش مصنوعی مسئول در هر مرحله گردش کار از ایدهپردازی تا راهاندازی بسیار مهم است. ابعاد زیر مؤلفههای کلیدی هوش مصنوعی مسئول هستند و در طول چرخه عمر محصول باید در نظر گرفته شوند.
انصاف
انصاف به پیامدهای متفاوت احتمالی که کاربران نهایی ممکن است در ارتباط با ویژگی های حساس مانند نژاد، درآمد، گرایش جنسی یا جنسیت از طریق تصمیم گیری الگوریتمی تجربه کنند، می پردازد. به عنوان مثال، ممکن است یک الگوریتم استخدام سوگیری هایی برای یا علیه متقاضیان با نام هایی داشته باشد که با جنسیت یا قومیت خاصی مرتبط هستند؟
در این ویدیو درباره اینکه چگونه سیستم های یادگیری ماشینی ممکن است در معرض سوگیری انسانی قرار بگیرند بیشتر بیاموزید:
در مورد اینکه چگونه محصولاتی مانند جستجو و عکس ها تنوع رنگ پوست را بهبود می بخشند، بخوانید.
برای اطلاعات بیشتر مربوط به ML Fairness، لطفاً به واژه نامه یادگیری ماشینی: Fairness | مراجعه کنید Google for Developers برای کسب اطلاعات بیشتر، ماژول انصاف در دوره تصادف یادگیری ماشین مقدمه ای بر عدالت ML ارائه می دهد.
People + AI Research (PAIR) برای گذر از این مفاهیم، قابلیتهای کاوشپذیر هوش مصنوعی از جمله اندازهگیری انصاف و تعصب پنهان را ارائه میدهد.
مسئوليت
مسئولیت پذیری به معنای مسئول دانستن اثرات یک سیستم هوش مصنوعی است. این شامل شفافیت ، یا به اشتراک گذاری اطلاعات در مورد رفتار سیستم و فرآیند سازمانی است، که ممکن است شامل مستندسازی و به اشتراک گذاری نحوه ایجاد، آموزش و ارزیابی مدل ها و مجموعه داده ها باشد. کارتهای مدل و کارتهای داده نمونههایی از مصنوعات شفافیت هستند که میتوانند به سازماندهی واقعیات اساسی مدلها و مجموعه دادههای ML به روشی ساختاریافته کمک کنند.
بعد دیگر مسئولیتپذیری، تفسیرپذیری است که شامل درک تصمیمات مدل ML است، جایی که انسانها قادر به شناسایی ویژگیهایی هستند که منجر به پیشبینی میشوند. بهعلاوه، توضیحپذیری ، توانایی تصمیمهای خودکار یک مدل است تا بهگونهای توضیح داده شود که انسانها آن را بفهمند.
درباره ایجاد اعتماد کاربران به سیستمهای هوش مصنوعی در بخش توضیحپذیری + اعتماد کتاب راهنمای افراد + هوش مصنوعی و بخش تفسیرپذیری شیوههای هوش مصنوعی مسئول Google بخوانید.
ایمنی
ایمنی هوش مصنوعی شامل مجموعهای از تکنیکهای طراحی و عملیاتی است که باید دنبال کرد تا از اقداماتی که میتوانند بهطور عمدی یا غیرعمدی آسیب وارد کنند، اجتناب شود و شامل آن شود. به عنوان مثال، آیا سیستمها، حتی در مواجهه با نقض امنیتی یا حمله هدفمند، آنطور که در نظر گرفته شده است، رفتار میکنند؟ آیا سیستم هوش مصنوعی شما به اندازه کافی قوی است که حتی در مواقع آشفتگی ایمن کار کند؟ چگونه از قبل برای پیشگیری یا اجتناب از خطرات برنامه ریزی می کنید؟ آیا سیستم شما تحت فشار قابل اعتماد و پایدار است؟
بخش ایمنی از شیوههای هوش مصنوعی مسئولیتپذیر Google، اقدامات توصیهشده برای محافظت از سیستمهای هوش مصنوعی در برابر حملات، از جمله آزمایشهای متخاصم را تشریح میکند. درباره کار ما در این زمینه و درسهای آموختهشده در پست وبلاگ کلیدواژه، تیم قرمز هوش مصنوعی Google: هکرهای اخلاقی که هوش مصنوعی را ایمنتر میکنند، بیشتر بیاموزید.
حریم خصوصی
شیوههای حفظ حریم خصوصی در هوش مصنوعی مسئولیتپذیر (به بخش حریم خصوصی شیوههای هوش مصنوعی مسئول Google مراجعه کنید) شامل در نظر گرفتن پیامدهای بالقوه حریم خصوصی در استفاده از دادههای حساس است. این نه تنها شامل رعایت الزامات قانونی و مقرراتی، بلکه در نظر گرفتن هنجارهای اجتماعی و انتظارات معمولی فردی نیز می شود. به عنوان مثال، با توجه به اینکه مدلهای ML ممکن است جنبههایی از دادههایی را که در معرض آن قرار گرفتهاند به خاطر بسپارند یا آشکار کنند، برای اطمینان از حریم خصوصی افراد، چه تدابیری باید اعمال شود؟ چه مراحلی لازم است تا اطمینان حاصل شود که کاربران شفافیت و کنترل کافی بر داده های خود دارند؟
از طریق راهنماهای تعاملی PAIR Explorables درباره حریم خصوصی ML بیشتر بیاموزید:
- چگونه پاسخ تصادفی می تواند به جمع آوری اطلاعات حساس به طور مسئولانه کمک کند
- چگونه آموزش فدرال از حریم خصوصی محافظت می کند
- چرا برخی از مدل ها داده ها را نشت می کنند؟
هوش مصنوعی مسئول در مدلهای مولد/LLM
ظهور مدلهای بزرگ و مولد به دلیل قابلیتهای خروجی بالقوه باز و بسیاری از کاربردهای بالقوه پایین دستی، چالشهای جدیدی را برای اجرای شیوههای هوش مصنوعی مسئول ایجاد میکند. گوگل علاوه بر اصول هوش مصنوعی، خط مشی استفاده ممنوعه از هوش مصنوعی و راهنمای هوش مصنوعی تولیدی برای توسعه دهندگان دارد.
درباره نحوه استفاده تیمهای Google از هوش مصنوعی مولد برای ایجاد تجربیات جدید برای کاربران در Google Generative AI بیشتر بخوانید. در این سایت، ما همچنین راهنمایی هایی در مورد ایمنی و انصاف ، مهندسی سریع ، و آزمایش دشمن برای مدل های تولیدی ارائه می دهیم. برای بررسی تعاملی در مورد مدلهای زبان، به PAIR Explorable مراجعه کنید: مدلهای زبان چه آموختهاند؟
منابع اضافی
چرا ما روی هوش مصنوعی تمرکز می کنیم - هوش مصنوعی گوگل
فرآیند بررسی اصول هوش مصنوعی | هوش مصنوعی گوگل: