AI ve makine öğrenimi etiği ve güvenliği

Makine öğrenimi, toplumu olumlu veya olumsuz birçok anlamlı şekilde dönüştürme potansiyeline sahiptir. Modellerinizin ve parçası oldukları sistemlerin etik sonuçlarını göz önünde bulundurmak çok önemlidir.

Google'da geliştirilen her teknoloji gibi makine öğrenimi projeleriniz de topluma fayda sağlamalıdır. Bu özellikler, kullanıcılara zarar vermemeli ve kötüye kullanıma açık olmamalıdır. Önyargıları veya önyargıları yaymamalı, güçlendirmemeli ya da hafifletmemelidir. Kişisel verileri sorumsuz bir şekilde toplamamalı veya kullanmamalıdırlar.

Google'ın yapay zeka ilkeleri

Makine öğrenimi projeleri Google'ın Yapay Zeka İlkeleri'ne uygun olmalıdır. Sorumlu AI (RAI) Akıllı Uygulamalar sitesi, Google çalışanlarının Google'ın yapay zeka ilkelerine uygun, etik açıdan güçlü makine öğrenimi çözümleri geliştirmesine yardımcı olur.

RAI Akıllı Uygulamaları, ekiplerin yapay zeka ve makine öğrenimini sorumlu bir şekilde geliştirmek için uygulayabileceği uygulanabilir yönergelerdir. Makine öğrenimi çözümleri, aşağıdaki alanlarda Google'ın yönergelerine uygun olmalıdır:

  • Adalet
  • Gizlilik
  • Şeffaflık
  • Güvenlik

Makine öğrenimi ve etik ile ilgili sorularınız veya endişeleriniz için ürününüzün PCounsel ve Privacy Working Group'a danışın.

Adalet

Adil olmayan taraflar oluşturmaktan veya bunları pekiştirmekten kaçının. Eğitim verileri aşağıdaki özelliklerden bazılarına sahip olduğunda modeller yanlılık gösterir:

  • Kullanıcıların gerçek dünyadaki nüfusunu yansıtmaz.

  • Tutukluluk süreleri gibi ceza adaleti kararları gibi taraflı kararları veya sonuçları korur.

  • Belirli kullanıcı grupları için daha tahmin gücüne sahip özellikleri kullanır.

Önceki örnekler, modellerin taraflı hale gelme yöntemlerinden yalnızca birkaçıdır. Verilerinizi kapsamlı olarak anlamak, içerdikleri olası önyargıları ortaya çıkarmak ve çözümlemek açısından çok önemlidir. Adil modeller geliştirmenin ilk adımı, eğitim verilerinin, kullanıcılarınızın dağılımını doğru şekilde yansıttığını doğrulamaktır. Aşağıda, adil modeller oluşturmaya yardımcı olacak diğer uygulamalar verilmiştir:

  • Değerlendirme veri kümelerinde yeterince temsil edilmeyen grupları veya diğer gruplara kıyasla daha kötü model kalitesi yaşayabilecek grupları belirleyin. Eğitim verilerindeki varlıklarını artırmak için bir kullanıcı alt grubunda fazla örneklem oluşturmanız gerekebilir.

  • Modeli adalet sorunlarına göre doğrulamak ve örtülü önyargıyı tespit etmek için golden veri kümelerini (karşılaştırma veri kümeleri olarak da bilinir) kullanın.

  • Veri kümelerine cinsiyet veya etnik köken gibi hassas özellikler eklemekten kaçının.

  • Çok az deneysel veya açıklama gücü olan özellikleri eklemekten kaçının, ancak özellikle eğitilen modelin sağlık, finans, eğitim ve istihdam gibi alanlarda yüksek etkili görevleri gerçekleştirmek için kullanıldığı hassas bağlamlarda. Örneğin, ev kredilerini onaylamak için kullanılan bir modelde, eğitim verilerine isim eklemeyin. Bir başvuru sahibinin adının tahmin göreviyle alakasız olmasının yanı sıra, veri kümesinde bu kadar alakasız bir özelliğin bırakılması, örtülü önyargılara veya ayırma amaçlı zararlara yol açma potansiyeline de sahiptir. Örneğin model, erkek isimleri daha yüksek geri ödeme olasılığıyla (veya tam tersi) ilişkilendirebilir.

  • Bir modelin tahminlerinin belirli gruplar üzerinde olası olumsuz etkisini ölçün ve hassas bir bağlamda olumsuz bir etki bulursanız kasıtlı yanlılık düzeltme tekniklerini değerlendirin.

AI ve makine öğreniminde adil olma hakkında daha fazla bilgi için Akıllı Uygulamalarda Adalet sayfasını ve Makine Öğrenimi Crash Kursu Adalet modülünü inceleyin.

Gizlilik

En baştan gizlilik tasarımı ilkelerine yer verin. Google'daki tüm yeni özellikler veya ürünlerde olduğu gibi, modelinizin de ürün bölgenizin Gizlilik Çalışma Grubu tarafından incelenmesi gerekir. Bu nedenle, ilk geri bildirimi almak için erkenden bir Gizlilik Tasarım Belgesi oluşturun.

Gizlilikle ilgili dikkate alınması ve uyulması gereken yasalar ve politikalar aşağıda verilmiştir:

Uyulması gereken Google'a özel gizlilik uygulamaları aşağıda verilmiştir:

  • Temizleme yönetmelikleri.

  • Kötü amaçlı veya güvenliği ihlal edilmiş kodların sisteminize erişmesini önlemek için İkili Program ve Yapılandırma Kimliği (BCID) düzey 4.

  • Veri kümelerinden tüm kimliği tanımlayabilecek bilgileri kaldırın ve modelinizin ve veri depolarınızın, herkes tarafından okunamayan, doğru izinlerle ayarlandığını onaylayın.

Aşağıdaki video, gizlilikle ilgili sorunlara genel bakış sunar:

Yapay zeka ve makine öğrenimi gizliliği hakkında daha fazla bilgi için Akıllı Uygulamalar Gizlilik sayfasına bakın.

Şeffaflık

İnsanlara karşı sorumlu olun. Örneğin, diğer kullanıcıların modelinizin ne yaptığını, bunu nasıl ve neden yaptığını kolayca anlamalarını sağlayın. Model kartları, modelinizi belgelemek ve şeffaflık yapıları oluşturmak için bir şablon sağlar.

AI ve makine öğrenimi şeffaflığı hakkında daha fazla bilgi için Akıllı Uygulamalar Şeffaflığı sayfasını inceleyin.

Güvenlik

Modeller, zorlu koşullarda güvenli bir şekilde çalışacak şekilde tasarlanır. Örneğin, modelinizin güvende olduğunu onaylamak için modelinizi olası zararlı girişlerle test edin. Ayrıca olası hata koşullarını da kontrol edin. Ekipler genellikle modellerini, geçmişte başarısız olmasına neden olan giriş veya koşullarla test etmek için özel olarak tasarlanmış veri kümeleri kullanır.

Güvenlik hakkında daha fazla bilgi için Sorumlu Yapay Zeka sayfasına bakın.

Her zaman modellerinizin faaliyet gösterdiği daha geniş sosyal bağlamları göz önünde bulundurun. Hassas verileri işlemenizin gizlilik sorunlarını ihlal etmediğinden, ön yargıyı devam ettirmediğinden veya başkasının fikri mülkiyetini ihlal etmediğinden emin olmaya çalışın.

Üretken yapay zeka etiği hakkında bilgi edinmek için Üretken yapay zeka için RAI Akıllı Uygulamaları başlıklı makaleyi inceleyin.