Sorumlu AI'ya giriş

AI sistemlerini geniş ölçekte, sorumlu bir şekilde nasıl geliştiriyoruz? Sorumlu AI, ilgili kavram ve şartlar hakkında bilgi edinin ve bu uygulamaları ürünlere nasıl uygulayacağınızı öğrenin.

Giriş

Yapay zeka (AI), insanların günlük yaşamda kullandığı pek çok uygulamayı ve hizmeti destekler. İşletmelerden sağlık hizmetlerine ve eğitime kadar çeşitli alanlarda milyarlarca AI kullanıcısı olan lider AI şirketlerinin, herkes için en faydalı, güvenli ve güvenilir deneyimleri oluşturmak amacıyla bu teknolojilerin avantajlarının zararlara ağır bastığından emin olmak büyük önem taşıyor.

Sorumlu AI, potansiyel zararlar ve avantajlar dahil olmak üzere, bu teknolojilerin toplum üzerindeki etkisini ve ölçeğini göz önünde bulundurur. AI İlkeleri, AI uygulamaları için hedefleri ve AI sistemlerinin geliştirilmesinde izleyemeyecekleri uygulamaları içeren bir çerçeve sağlar.

Sorumlu AI Boyutları

AI geliştirme süreci hızlanıp her geçen gün daha yaygın hale geldikçe, Sorumlu AI uygulamalarını fikir aşamasından lansmana kadar her iş akışı aşamasına dahil etmek son derece önemlidir. Aşağıdaki boyutlar, Sorumlu AI'nın temel bileşenleridir ve ürün yaşam döngüsü boyunca dikkate alınması gerekir.

Adalet

Adillik, son kullanıcıların ırk, gelir, cinsel yönelim veya cinsiyet gibi hassas olaylarla ilgili algoritmik karar alma yoluyla karşılaşabileceği farklı sonuçları ele alır. Örneğin, bir işe alma algoritmasının, belirli bir cinsiyet veya etnik kökenle ilişkili adları olan başvuranlara karşı veya ön yargıları olabilir mi?

Makine öğrenimi sistemlerinin insani ön yargılara nasıl açık olabileceği hakkında daha fazla bilgi için bu videoyu izleyin:

Arama ve Fotoğraflar gibi ürünlerin cildi temsil etme çeşitliliğini nasıl iyileştirdiğini öğrenin.

ML Fairness ile ilgili diğer terimler için Makine Öğrenimi Sözlüğü: Adalet | Geliştiriciler İçin Google konusuna bakın. Daha fazla bilgi için Machine Learning Crash Course'un Adillik modülü, ML Fairness ile ilgili temel bilgiler sunar.

People + AI Research (PAIR) bu kavramları adım adım incelemek için Adilliği Ölçme ve Gizli Ön Yargı gibi etkileşimli AI Keşfedilebilirlik olanakları sunuyor.

Hesap Verebilirlik

Sorumluluk, yapay zeka sisteminin etkilerinden sorumlu tutulmak anlamına gelir. Buna şeffaflık veya sistem davranışı ve kuruluş süreci ile ilgili bilgiler dahildir. Bu bilgiler, modellerin ve veri kümelerinin nasıl oluşturulduğunu, eğitildiğini ve değerlendirildiğini belgeleyip paylaşmayı içerebilir. Model Kartları ve Veri Kartları, ML modellerinin ve veri kümelerinin temel yönlerini yapılandırılmış bir şekilde düzenlemenize yardımcı olabilecek şeffaflık yapıları örnekleridir.

Sorumluluğun bir başka boyutu da insanlar tarafından bir tahmine yol açan özelliklerin belirlenebileceği makine öğrenimi modeli kararlarının anlaşılmasını içeren yorumlanabilirliktir. Buna ek olarak, açıklanabilirlik, bir modelin otomatik kararlarının insanlar tarafından anlaşılabilecek şekilde açıklanabilmesidir.

AI sistemlerine kullanıcı güveni inşa etme hakkında daha fazla bilgi edinmek için Kişiler + AI Kılavuzu'nun Açıklanabilirlik + Güven bölümüne ve Google'ın Sorumlu AI Uygulamaları'nın Yorumlanabilirlik bölümüne bakın.

Güvenlik

AI güvenliği, kasıtlı olarak veya istemeden zarar verebilecek eylemlerden kaçınmak ve bu işlemleri gerçekleştirmek için gerçekleştirilecek bir dizi tasarım ve operasyonel teknik içerir. Örneğin, sistem bir güvenlik ihlali veya hedeflenmiş saldırı karşısında bile amaçlandığı gibi davranıyor mu? AI sisteminiz, boğuk olsa bile güvenli bir şekilde çalışmaya yetecek kadar etkili mi? Riskleri önlemek veya önlemek için nasıl plan yapıyorsunuz? Sisteminiz baskı altında güvenilir ve kararlı mı?

Google'ın Sorumlu AI Uygulamaları'nın Güvenlik bölümünde, yapay zeka sistemlerini saldırı testi de dahil olmak üzere saldırılardan korumak için önerilen uygulamalar özetlenmektedir. Bu alandaki çalışmalarımız ve Google'ın AI Red Ekibi: AI'yı korumaya çalışan etik bilgisayar korsanları blog yayınından dersler hakkında daha fazla bilgi edinin.

Gizlilik

Sorumlu AI'daki gizlilik uygulamaları (Google Sorumlu AI Uygulamaları'nın Gizlilik bölümüne bakın) hassas verilerin kullanımındaki potansiyel gizlilik etkilerinin değerlendirilmesini içerir. Yasal ve düzenleyici şartların yanı sıra sosyal normlara ve bireysel bireysel beklentilere de uyulması gerekir. Örneğin, bireylerin gizliliğini sağlamak için makine öğrenimi modellerinin maruz kaldığı verilerin belirli yönlerini hatırlayabileceğini veya ortaya koyabileceğini düşünerek hangi önlemleri alınması gerekir? Kullanıcıların verilerinin yeterli şeffaflık ve kontrole sahip olmasını sağlamak için hangi adımlar gerçekleştirilmelidir?

PAIR Explorables'ın etkileşimli adım adım açıklamalı kılavuzlarıyla makine öğrenimi gizliliği hakkında daha fazla bilgi edinin:

Oluşturma Modelleri/LLM'lerde Sorumlu AI

Büyük, üretken modellerin ortaya çıkması, açık uçlu çıktı kapasiteleri ve olası aşağı akış kullanımlarından dolayı Sorumlu AI uygulamalarını gerçekleştirme konusunda yeni zorluklar yaratır. Google, AI İlkeleri'nin yanı sıra Gener AI for Yasak Kullanım Politikası ve Geliştiriciler İçin Jeneratik AI Kılavuzu'na sahiptir.

Google'daki ekiplerin Google Generative AI'daki kullanıcılar için yeni deneyimler oluşturmak amacıyla genel yapay zekayı nasıl kullandığı hakkında daha fazla bilgi edinin. Ayrıca bu sitede, üretken modeller için Güvenlik ve Adalet, Mühendislik Hızlılığı ve Yardımcı Testler hakkında yol gösterici bilgiler sağlıyoruz. Dil modelleriyle ilgili etkileşimli adım adım açıklamalı kılavuz için EPS Keşfedilebilirliği bölümüne göz atın: Neler Dil Modelleri Öğrendi?

Ek Kaynaklar

Neden yapay zekaya odaklanıyoruz? – Google AI

Google AI İnceleme Süreci

AI İlkeleri İnceleme Süreci | Google AI:

Sorumlu AI Araç Seti | TensorFlow