مقدمه ای بر هوش مصنوعی مسئولیت پذیر

چگونه سیستم های هوش مصنوعی را مسئولانه و در مقیاس بسازیم؟ درباره هوش مصنوعی مسئولیت پذیر، مفاهیم و اصطلاحات مرتبط و نحوه پیاده سازی این شیوه ها در محصولات بیاموزید.

معرفی

هوش مصنوعی (AI) بسیاری از اپلیکیشن‌ها و خدماتی را که مردم در زندگی روزمره از آن‌ها استفاده می‌کنند، نیرو می‌دهد. با میلیاردها کاربر هوش مصنوعی در زمینه‌های مختلف، از کسب و کار گرفته تا مراقبت‌های بهداشتی و آموزشی، بسیار مهم است که شرکت‌های پیشرو هوش مصنوعی تلاش کنند تا اطمینان حاصل کنند که مزایای این فناوری‌ها بیشتر از مضرات آن است تا مفیدترین، ایمن‌ترین و قابل اعتمادترین تجربیات را برای همه ایجاد کنند. .

هوش مصنوعی مسئول تأثیر اجتماعی توسعه و مقیاس این فناوری‌ها، از جمله مضرات و مزایای بالقوه را در نظر می‌گیرد. اصول هوش مصنوعی چارچوبی را ارائه می دهد که شامل اهداف برنامه های کاربردی هوش مصنوعی است و برنامه هایی که ما در توسعه سیستم های هوش مصنوعی دنبال نمی کنیم.

ابعاد هوش مصنوعی مسئول

از آنجایی که توسعه هوش مصنوعی تسریع می‌شود و فراگیرتر می‌شود، ترکیب شیوه‌های هوش مصنوعی مسئول در هر مرحله گردش کار از ایده‌پردازی تا راه‌اندازی بسیار مهم است. ابعاد زیر مؤلفه‌های کلیدی هوش مصنوعی مسئول هستند و در طول چرخه عمر محصول باید در نظر گرفته شوند.

انصاف

انصاف به پیامدهای متفاوت احتمالی که کاربران نهایی ممکن است در ارتباط با ویژگی های حساس مانند نژاد، درآمد، گرایش جنسی یا جنسیت از طریق تصمیم گیری الگوریتمی تجربه کنند، می پردازد. به عنوان مثال، ممکن است یک الگوریتم استخدام سوگیری هایی برای یا علیه متقاضیان با نام هایی داشته باشد که با جنسیت یا قومیت خاصی مرتبط هستند؟

در این ویدیو درباره اینکه چگونه سیستم های یادگیری ماشینی ممکن است در معرض سوگیری انسانی قرار بگیرند بیشتر بیاموزید:

در مورد اینکه چگونه محصولاتی مانند جستجو و عکس ها تنوع رنگ پوست را بهبود می بخشند، بخوانید.

برای اطلاعات بیشتر مربوط به ML Fairness، لطفاً به واژه نامه یادگیری ماشینی: Fairness | مراجعه کنید Google for Developers برای کسب اطلاعات بیشتر، ماژول انصاف در دوره تصادف یادگیری ماشین مقدمه ای بر عدالت ML ارائه می دهد.

People + AI Research (PAIR) برای گذر از این مفاهیم، ​​قابلیت‌های کاوش‌پذیر هوش مصنوعی از جمله اندازه‌گیری انصاف و تعصب پنهان را ارائه می‌دهد.

مسئوليت

مسئولیت پذیری به معنای مسئول دانستن اثرات یک سیستم هوش مصنوعی است. این شامل شفافیت ، یا به اشتراک گذاری اطلاعات در مورد رفتار سیستم و فرآیند سازمانی است، که ممکن است شامل مستندسازی و به اشتراک گذاری نحوه ایجاد، آموزش و ارزیابی مدل ها و مجموعه داده ها باشد. کارت‌های مدل و کارت‌های داده نمونه‌هایی از مصنوعات شفافیت هستند که می‌توانند به سازماندهی واقعیات اساسی مدل‌ها و مجموعه داده‌های ML به روشی ساختاریافته کمک کنند.

بعد دیگر مسئولیت‌پذیری، تفسیرپذیری است که شامل درک تصمیمات مدل ML است، جایی که انسان‌ها قادر به شناسایی ویژگی‌هایی هستند که منجر به پیش‌بینی می‌شوند. به‌علاوه، توضیح‌پذیری ، توانایی تصمیم‌های خودکار یک مدل است تا به‌گونه‌ای توضیح داده شود که انسان‌ها آن را بفهمند.

درباره ایجاد اعتماد کاربران به سیستم‌های هوش مصنوعی در بخش توضیح‌پذیری + اعتماد کتاب راهنمای افراد + هوش مصنوعی و بخش تفسیرپذیری شیوه‌های هوش مصنوعی مسئول Google بخوانید.

ایمنی

ایمنی هوش مصنوعی شامل مجموعه‌ای از تکنیک‌های طراحی و عملیاتی است که باید دنبال کرد تا از اقداماتی که می‌توانند به‌طور عمدی یا غیرعمدی آسیب وارد کنند، اجتناب شود و شامل آن شود. به عنوان مثال، آیا سیستم‌ها، حتی در مواجهه با نقض امنیتی یا حمله هدفمند، آنطور که در نظر گرفته شده است، رفتار می‌کنند؟ آیا سیستم هوش مصنوعی شما به اندازه کافی قوی است که حتی در مواقع آشفتگی ایمن کار کند؟ چگونه از قبل برای پیشگیری یا اجتناب از خطرات برنامه ریزی می کنید؟ آیا سیستم شما تحت فشار قابل اعتماد و پایدار است؟

بخش ایمنی از شیوه‌های هوش مصنوعی مسئولیت‌پذیر Google، اقدامات توصیه‌شده برای محافظت از سیستم‌های هوش مصنوعی در برابر حملات، از جمله آزمایش‌های متخاصم را تشریح می‌کند. درباره کار ما در این زمینه و درس‌های آموخته‌شده در پست وبلاگ کلیدواژه، تیم قرمز هوش مصنوعی Google: هکرهای اخلاقی که هوش مصنوعی را ایمن‌تر می‌کنند، بیشتر بیاموزید.

حریم خصوصی

شیوه‌های حفظ حریم خصوصی در هوش مصنوعی مسئولیت‌پذیر (به بخش حریم خصوصی شیوه‌های هوش مصنوعی مسئول Google مراجعه کنید) شامل در نظر گرفتن پیامدهای بالقوه حریم خصوصی در استفاده از داده‌های حساس است. این نه تنها شامل رعایت الزامات قانونی و مقرراتی، بلکه در نظر گرفتن هنجارهای اجتماعی و انتظارات معمولی فردی نیز می شود. به عنوان مثال، با توجه به اینکه مدل‌های ML ممکن است جنبه‌هایی از داده‌هایی را که در معرض آن قرار گرفته‌اند به خاطر بسپارند یا آشکار کنند، برای اطمینان از حریم خصوصی افراد، چه تدابیری باید اعمال شود؟ چه مراحلی لازم است تا اطمینان حاصل شود که کاربران شفافیت و کنترل کافی بر داده های خود دارند؟

از طریق راهنماهای تعاملی PAIR Explorables درباره حریم خصوصی ML بیشتر بیاموزید:

هوش مصنوعی مسئول در مدل‌های مولد/LLM

ظهور مدل‌های بزرگ و مولد به دلیل قابلیت‌های خروجی بالقوه باز و بسیاری از کاربردهای بالقوه پایین دستی، چالش‌های جدیدی را برای اجرای شیوه‌های هوش مصنوعی مسئول ایجاد می‌کند. گوگل علاوه بر اصول هوش مصنوعی، خط مشی استفاده ممنوعه از هوش مصنوعی و راهنمای هوش مصنوعی تولیدی برای توسعه دهندگان دارد.

درباره نحوه استفاده تیم‌های Google از هوش مصنوعی مولد برای ایجاد تجربیات جدید برای کاربران در Google Generative AI بیشتر بخوانید. در این سایت، ما همچنین راهنمایی هایی در مورد ایمنی و انصاف ، مهندسی سریع ، و آزمایش دشمن برای مدل های تولیدی ارائه می دهیم. برای بررسی تعاملی در مورد مدل‌های زبان، به PAIR Explorable مراجعه کنید: مدل‌های زبان چه آموخته‌اند؟

منابع اضافی

چرا ما روی هوش مصنوعی تمرکز می کنیم - هوش مصنوعی گوگل

فرآیند بررسی هوش مصنوعی گوگل

فرآیند بررسی اصول هوش مصنوعی | هوش مصنوعی گوگل:

جعبه ابزار هوش مصنوعی مسئول | TensorFlow