Wprowadzenie do odpowiedzialnej sztucznej inteligencji

Jak tworzymy odpowiedzialne systemy AI na dużą skalę? Dowiedz się więcej o odpowiedzialnej sztucznej inteligencji, istotnych pojęciach i terminach oraz o sposobach wdrażania tych praktyk w usługach.

Wprowadzenie

Sztuczna inteligencja (AI) obsługuje wiele aplikacji i usług, z których użytkownicy korzystają na co dzień. Biorąc pod uwagę miliardy użytkowników sztucznej inteligencji – od biznesu przez opiekę zdrowotną po edukację – czołowe firmy zajmujące się sztuczną inteligencją dbają o to, aby korzyści płynące z tych technologii były jak najbardziej szkodliwe. Dzięki temu możemy tworzyć najbardziej pomocne, bezpieczne i zaufane rozwiązania dla wszystkich.

Odpowiedzialna sztuczna inteligencja uwzględnia wpływ społeczny rozwoju i skalowania tych technologii, w tym potencjalnych szkód i korzyści. Zasady dotyczące sztucznej inteligencji tworzą ramowe założenia dla zastosowań związanych ze sztuczną inteligencją oraz aplikacje, których nie będziemy rozwijać.

Wymiary odpowiedzialnego AI

W miarę jak sztuczna inteligencja rozwija się i staje się coraz bardziej wszechobecna, kluczowe jest uwzględnianie odpowiedzialnych działań AI na każdym etapie przepływu pracy od pomysłu do wdrożenia. Poniższe wymiary są kluczowymi elementami składowej odpowiedzialnej sztucznej inteligencji i warto je brać pod uwagę w całym cyklu życia usługi.

Obiektywność

Uczciwa odpowiedź, która może posłużyć do odmiennych wyników, jakie mogą ponieść użytkownicy, takich jak rasa, przychody, orientacja seksualna czy płeć, na podstawie decyzji. Czy na przykład algorytm rekrutacji może wpływać na kandydatów lub nazwiska kojarzonych z określoną płcią lub przynależnością etniczną?

Z tego filmu dowiesz się więcej o tym, jak systemy uczące się mogą być narażone na błędy poznawcze człowieka:

Dowiedz się, jak usługi takie jak wyszukiwarka czy Zdjęcia poprawiają reprezentację odcieni skóry.

Więcej informacji o uczciwości systemów uczących się znajdziesz na stronie Słowniczek systemów uczących się: uczciwość | Google dla deweloperów. Moduł Fairness w kursie Machine Learning Crash pozwala zapoznać się z uczciwością systemów uczących się.

Organizacja People + AI Research (PAIR) oferuje interaktywne badania, w tym pomiar uczciwości i ukrytą tendencyjność, które pomogą Ci w opanowaniu tych pojęć.

Odpowiedzialność

Odpowiedzialność oznacza, że ponosi odpowiedzialność za efekty działania systemu AI. Obejmuje to przejrzystość lub udostępnianie informacji o zachowaniu użytkowników i procesie organizacji, co może obejmować udokumentowanie i udostępnienie sposobów tworzenia, trenowania i oceny modeli oraz zbiorów danych. Karty modelu i karty danych to przykłady artefaktów przejrzystości, które pozwalają uporządkować najważniejsze fakty dotyczące modeli i zbiorów systemów uczących się w uporządkowany sposób.

Innym aspektem odpowiedzialności jest zrozumiałość – interpretacja decyzji dotyczących systemów uczących się, w której ludzie mogą zidentyfikować funkcje prowadzące do prognoz. Ponadto wyjaśnienie to zdolność do automatycznego zrozumienia modelu w sposób zrozumiały dla ludzi.

Więcej informacji o budowaniu zaufania użytkowników do systemów AI znajdziesz w rozdziale Wyjaśnialność + Zaufanie w Przewodniku po użytkownikach i sztucznej inteligencji oraz w sekcji Sprawdzone metody Google dotyczące sztucznej inteligencji w sekcji „Interpretalność”.

Bezpieczeństwo

Bezpieczeństwo w sztucznej inteligencji obejmuje szereg technik projektowych i operacyjnych, których należy unikać, a także działania, które mogą spowodować szkody, zarówno celowe, jak i nieumyślne. Czy na przykład działania systemów działają w obliczu zamierzonego naruszenia bezpieczeństwa lub ataku? Czy Twój system AI jest wystarczający, aby zapewnić bezpieczne działanie nawet mimo zakłóceń? Jak planujesz z wyprzedzeniem zapobiegać ryzyku? Czy system jest niezawodny i stabilny pod ciśnieniem?

Sekcja „Bezpieczeństwo” w artykule Odpowiedzialne praktyki w zakresie sztucznej inteligencji przedstawia zalecane metody ochrony systemów AI przed atakami, w tym testy zapobiegawcze. Więcej informacji o naszej pracy w tym zakresie i wnioski znajdziesz w poście na blogu dotyczącym słów kluczowych, zespole Google ds. sztucznej inteligencji (Red. AI) – etycznymi hakerami, którzy dbają o bezpieczeństwo sztucznej inteligencji.

Prywatność

Praktyki prywatności w odpowiedzialnej AI (zobacz sekcję „Prywatność” w artykule Odpowiedzialne praktyki związane z sztuczną inteligencją) umożliwiają uwzględnianie potencjalnych implikacji związanych z wykorzystywaniem danych wrażliwych. Obejmuje to nie tylko respektowanie wymagań prawnych i regulacyjnych, ale także przestrzeganie norm społecznych i typowych oczekiwań indywidualnych. Na przykład, jakie środki ochrony należy zastosować, aby zapewnić ochronę prywatności, biorąc pod uwagę, że modele systemów uczących się mogą zapamiętywać lub ujawniać pewne dane. Co należy zrobić, aby zapewnić użytkownikom odpowiednią przejrzystość i kontrolę nad ich danymi?

Dowiedz się więcej o ochronie prywatności systemów uczących się w interaktywnych przewodnikach w aplikacji PAIR Explorables:

Odpowiedzialna sztuczna inteligencja w modelach genetycznych

Powstanie dużych modeli generacyjnych wiąże się z nowymi wyzwaniami w zakresie wdrażania odpowiedzialnych metod związanych z AI ze względu na ich potencjalne możliwości otwarte i wiele potencjalnych zastosowań. Oprócz zasad dotyczących sztucznej inteligencji Google ma też zasady dotyczące zabronionych zastosowań AI i przewodnik po sztucznej inteligencji dla deweloperów.

Dowiedz się więcej o tym, jak zespoły w Google korzystają z generatywnej sztucznej inteligencji do tworzenia nowych rozwiązań dla użytkowników w Google Generative AI. Na tej stronie znajdują się również wskazówki dotyczące bezpieczeństwa i uczciwości, inżynierii błyskawicznej oraz testów administracyjnych w modelach generacyjnych. Interaktywny przewodnik po modelach językowych zawiera artykuł PAIR Explorable: What Have Language Modelly?

Materiały dodatkowe

Dlaczego koncentrujemy się na AI – Google AI

Proces sprawdzania sztucznej inteligencji Google

Proces sprawdzania zasad AI | Google AI:

Odpowiedzialny zestaw narzędzi AI | TensorFlow