ML hat das Potenzial, die Gesellschaft auf viele sinnvolle Weisen zu verändern, entweder positiv oder negativ. Es ist wichtig, die ethischen Auswirkungen Ihrer Modelle und der Systeme, in denen sie verwendet werden, zu berücksichtigen.
Ihre ML-Projekte sollten der Gesellschaft zugutekommen. Sie dürfen keinen Schaden verursachen oder anfällig für Missbrauch sein. Sie sollten Voreingenommenheiten oder Vorurteile nicht aufrechterhalten, verstärken oder verschärfen. Sie dürfen personenbezogene Daten nicht unverantwortlich erheben oder verwenden.Die KI-Grundsätze von Google
Google befürwortet die Entwicklung von ML- und KI-Anwendungen, die den KI-Grundsätzen von Google entsprechen. Die Grundsätze von Google drehen sich um die folgenden Konzepte:
- Fairness
- Datenschutz
- Transparenz
- Sicherheit
Fairness
Vermeiden Sie die Schaffung oder Verstärkung von Bias. Modelle weisen Verzerrungen auf, wenn ihre Trainingsdaten einige der folgenden Merkmale aufweisen:
spiegelt nicht die reale Nutzerpopulation wider.
Beeinflusst Entscheidungen oder Ergebnisse, die auf Voreingenommenheit beruhen, z. B. Entscheidungen im Strafrecht wie die Dauer der Inhaftierung.
Für bestimmte Nutzergruppen werden Funktionen mit höherer Vorhersagekraft verwendet.
Die vorherigen Beispiele sind nur einige Möglichkeiten, wie Modelle verzerrt werden. Wenn Sie potenzielle Verzerrungen in Ihren Daten aufdecken und beheben möchten, ist es wichtig, dass Sie Ihre Daten genau kennen. Der erste Schritt beim Entwickeln fairer Modelle besteht darin, zu prüfen, ob die Trainingsdaten die Verteilung Ihrer Nutzer genau widerspiegeln. Die folgenden Praktiken tragen ebenfalls dazu bei, faire Modelle zu erstellen:
Unterrepräsentierte Gruppen in Bewertungsdatensätzen oder Gruppen mit möglicherweise schlechterer Modellqualität im Vergleich zu anderen Gruppen identifizieren Möglicherweise müssen Sie eine Untergruppe Ihrer Nutzer überrepräsentieren, um ihre Präsenz in den Trainingsdaten zu erhöhen.
Verwenden Sie Goldene Datasets (auch als Benchmark-Datasets bezeichnet), um das Modell auf Fairness-Probleme zu prüfen und implizite Verzerrungen zu erkennen.
Vermeiden Sie es, sensible Merkmale wie Geschlecht oder ethnische Zugehörigkeit in Datasets aufzunehmen.
Vermeiden Sie die Verwendung von Merkmalen mit wenig empirischer oder erklärender Kraft, insbesondere in sensiblen Kontexten, in denen das trainierte Modell für wichtige Aufgaben in Bereichen wie Gesundheitswesen, Finanzen, Bildung, Beschäftigung usw. verwendet wird. Fügen Sie beispielsweise in einem Modell zur Genehmigung von Hypotheken keine Namen in die Trainingsdaten ein. Der Name eines Bewerbers ist nicht nur für die Vorhersage irrelevant, sondern das Belassen eines solchen irrelevanten Merkmals im Datensatz kann auch zu impliziten Voreingenommenheiten oder Allokationsschäden führen. Das Modell könnte beispielsweise männliche Namen mit einer höheren Wahrscheinlichkeit für die Rückzahlung in Verbindung bringen oder umgekehrt.
Messen Sie die potenziellen negativen Auswirkungen, die die Vorhersagen eines Modells auf bestimmte Gruppen haben könnten, und ziehen Sie Techniken zur Korrektur von Voreingenommenheit in Betracht, wenn Sie negative Auswirkungen in einem sensiblen Kontext feststellen.
Datenschutz
Berücksichtigen Sie Datenschutzgrundsätze von Anfang an.
Im Folgenden finden Sie datenschutzbezogene Gesetze und Richtlinien, die Sie kennen und einhalten müssen:
Gesetz über digitale Märkte (GDM) der Europäischen Union für die Einwilligung zur Weitergabe oder Nutzung personenbezogener Daten
Außerdem müssen Sie alle personenidentifizierbaren Informationen aus den Datensätzen entfernen und prüfen, ob Ihr Modell und Ihre Datenspeicher mit den richtigen Berechtigungen eingerichtet sind, z. B. nicht für alle lesbar.
Transparenz
Menschen in der Verantwortung Sie sollten es anderen beispielsweise leicht machen zu verstehen, was Ihr Modell tut, wie es das tut und warum es das tut. Modellkarten sind eine Vorlage, mit der Sie Ihr Modell dokumentieren und Transparenzartefakte erstellen können.
Sicherheit
Entwerfen Sie Modelle, die auch unter widrigen Bedingungen sicher funktionieren. Testen Sie Ihr Modell beispielsweise mit potenziell schädlichen Eingaben, um sicherzustellen, dass es sicher ist. Prüfen Sie außerdem, ob es potenzielle Fehlerbedingungen gibt. Teams verwenden in der Regel speziell entwickelte Datasets, um ihre Modelle mit Eingaben oder Bedingungen zu testen, die in der Vergangenheit zu Fehlern geführt haben.
Wissen testen
Berücksichtigen Sie immer den breiteren sozialen Kontext, in dem Ihre Modelle verwendet werden. Achten Sie darauf, dass der Umgang mit sensiblen Daten nicht gegen den Datenschutz verstößt, Voreingenommenheit aufrechterhält oder das geistige Eigentum anderer verletzt.