Etyka i bezpieczeństwo związane z AI i ML

Systemy uczące się mogą zmienić społeczeństwo na wiele istotnych sposobów, zarówno pozytywnych, jak i negatywnych. Ważne jest, aby rozważyć etyczne konsekwencje modeli i systemów, w których należą.

Podobnie jak w przypadku innych technologii opracowanych w Google, projekty ML powinny przynosić korzyści społeczeństwu. Nie powinny powodować szkód ani być podatne na nadużycia. Nie powinny utrwalać, wzmacniać ani wzmacniać uprzedzeń i uprzedzeń. Nie powinny gromadzić ani wykorzystywać danych osobowych w sposób nieodpowiedzialny.

Zasady Google dotyczące AI

Projekty wykorzystujące systemy uczące się muszą być zgodne z zasadami Google dotyczącymi AI. Strona poświęcona odpowiedzialnej AI (RAI) dotyczącej inteligentnych metod pomaga pracownikom Google opracowywać etyczne rozwiązania ML zgodne z zasadami Google dotyczącymi AI.

Inteligentne metody RAI to praktyczne wskazówki dla zespołów, które warto wdrożyć, aby odpowiedzialnie rozwijać sztuczną inteligencję i systemy uczące się. Rozwiązania ML powinny być zgodne z wytycznymi Google w tych domenach:

  • Obiektywność
  • Prywatność
  • Przejrzystość
  • Bezpieczeństwo

W przypadku pytań lub wątpliwości związanych z systemami uczącymi się i etyką skonsultuj się z PCounsel za Twoją usługę i grupą roboczą ds. prywatności.

Obiektywność

Unikaj tworzenia i umacniania niesprawiedliwych uprzedzeń. Modele wykazują odchylenie, gdy ich dane treningowe cechują się jedną z tych cech:

  • nie odzwierciedla rzeczywistej liczby użytkowników.

  • Pomaga w zachowaniu stronniczych decyzji i wyników, np. decyzji sądowych w sprawie karnej, np. o terminie pozbawienia wolności.

  • Korzysta z funkcji z większym potencjałem przewidywań w przypadku określonych grup użytkowników.

Poprzednie przykłady to tylko kilka sposobów tendencyjności modeli. Dokładne zrozumienie danych jest kluczowe dla wykrywania i eliminowania potencjalnych uprzedzeń, które mogą się w nich wiązać. Pierwszym krokiem na drodze do opracowania uczciwych modeli jest sprawdzenie, czy dane treningowe dokładnie odzwierciedlają rozkład użytkowników. Oto dodatkowe metody, które pomagają tworzyć sprawiedliwe modele:

  • Zidentyfikuj niedostatecznie reprezentowane grupy w zbiorach danych lub grupach oceny, w przypadku których jakość modelu może być gorsza niż w przypadku innych grup. Może być konieczne spróbkowanie zbyt dużej części użytkowników w celu zwiększenia ich obecności w danych treningowych.

  • Używaj złotych zbiorów danych (nazywanych też zbiorami danych porównawczych), aby sprawdzać poprawność modelu pod kątem obiektywności i wykrywać niejawne uprzedzenia.

  • Unikaj umieszczania w zbiorach danych informacji poufnych, takich jak płeć czy przynależność etniczna.

  • Unikaj uwzględniania cech o niewielkich możliwościach empirycznych i wyjaśniających, ale szczególnie w kontekście wrażliwych, gdy wytrenowany model jest używany do wykonywania zadań o dużej sile oddziaływania w takich dziedzinach jak opieka zdrowotna, finanse, edukacja, zatrudnienie itp. Na przykład w modelu zatwierdzania kredytów hipotecznych nie umieszczaj w danych treningowych imion i nazwisk. Nie tylko imię i nazwisko wnioskodawcy nie mają związku z zadaniem prognozowania, ale pozostawienie tak nieistotnej funkcji w zbiorze danych może również przyczynić się do powstania niejawnych uprzedzeń lub szkód alokacyjnych. Model może na przykład skorelować imiona męskie z większym prawdopodobieństwem spłaty lub odwrotnie.

  • Mierz potencjalny niekorzystny wpływ prognoz modelu na określone grupy. Jeśli zauważysz negatywny wpływ w kontekście wrażliwym, rozważ zastosowanie technik celowej korekcji odchylenia.

Więcej informacji na temat obiektywności systemów uczących się i sztucznej inteligencji znajdziesz na stronie dotyczącej obiektywności inteligentnych metod i module uczciwości kursu w ramach systemów uczących się.

Prywatność

Podczas projektowania należy uwzględniać zasady ochrony prywatności. Podobnie jak w przypadku każdej nowej funkcji i usługi w Google Twój model musi zostać sprawdzony przez grupę roboczą ds. prywatności danego obszaru usługi. Dlatego najpierw utwórz dokument projektu ochrony prywatności, aby uzyskać wstępne opinie.

Oto przepisy i zasady związane z ochroną prywatności, o których należy pamiętać i których należy przestrzegać:

Poniżej znajdują się procedury ochrony prywatności stosowane w przypadku poszczególnych usług Google:

  • Przepisy dotyczące usuwania danych.

  • Binary and Configuration ID (Plik binarny i identyfikator konfiguracji) poziomu 4, by zapobiec dostępowi złośliwego lub przejętego kodu do systemu.

  • Usuń ze zbiorów danych wszystkie informacje umożliwiające identyfikację osób i sprawdź, czy model i repozytoria danych są skonfigurowane z odpowiednimi uprawnieniami (np. nie są możliwe do odczytania na całym świecie).

Ten film zawiera ogólne omówienie problemów związanych z prywatnością:

Więcej informacji o prywatności w zakresie AI i systemów uczących się znajdziesz na stronie z informacjami o prywatności dotyczących inteligentnych metod.

Przejrzystość

Podlegać ludzkiej ocenie. Na przykład pozwól innym zrozumieć, do czego służy Twój model, jak działa i dlaczego to robi. Karty modeli to szablon umożliwiający dokumentowanie modelu i tworzenie artefaktów przezroczystości.

Więcej informacji o przejrzystości sztucznej inteligencji i systemów uczących się znajdziesz na stronie dotyczącej przejrzystości metod inteligentnych.

Bezpieczeństwo

Zaprojektuj modele do bezpiecznego działania w kontrowersyjnych warunkach. Możesz na przykład przetestować model z użyciem potencjalnie szkodliwych danych wejściowych, aby potwierdzić, że jest bezpieczny. Sprawdź też potencjalne błędy. Zespoły zwykle używają specjalnie zaprojektowanych zbiorów danych do testowania swoich modeli z użyciem danych wejściowych lub warunków, które powodowały błąd modelu w przeszłości.

Więcej informacji o bezpieczeństwie znajdziesz na stronie dotyczącej odpowiedzialnej AI.

Zawsze bierz pod uwagę szersze konteksty społeczne, w których działają Twoje modele. Zadbaj o to, aby postępowanie z danymi wrażliwymi nie naruszało kwestii dotyczących prywatności, nie utrwalało uprzedzeń ani nie naruszało własności intelektualnej innych osób.

Więcej informacji na temat etyki generatywnej AI znajdziesz w artykule Inteligentne metody dotyczące RAI dla generatywnej AI.