Ethik und Sicherheit bei KI und ML

ML hat das Potenzial, die Gesellschaft auf viele sinnvolle Weise zu transformieren, entweder positiv oder negativ. Es ist wichtig, die ethischen Auswirkungen Ihrer Modelle und der Systeme, zu denen sie gehören, zu berücksichtigen.

Wie jede bei Google entwickelte Technologie sollten auch Ihre ML-Projekte der Gesellschaft zugutekommen. Sie sollten keinen Schaden verursachen und anfällig für Missbrauch sein. Sie sollten Vorurteile oder Vorurteile nicht fortführen, verstärken oder verschärfen. Sie sollten keine personenbezogenen Daten unverantwortliche erheben oder verwenden.

KI-Grundsätze von Google

ML-Projekte müssen den KI-Grundsätzen von Google entsprechen. Die Website für Responsible AI (RAI) Smart Practices unterstützt Google-Mitarbeiter dabei, ethisch solide ML-Lösungen zu entwickeln, die den KI-Grundsätzen von Google entsprechen.

RAI Smart Practices sind umsetzbare Richtlinien, die Teams implementieren können, um KI und ML verantwortungsvoll zu entwickeln. ML-Lösungen sollten den Richtlinien von Google für die folgenden Bereiche entsprechen:

  • Fairness
  • Datenschutz
  • Transparenz
  • Sicherheit

Bei Fragen oder Bedenken im Zusammenhang mit ML und Ethik wenden Sie sich an die PCounsel- und Privacy Working Group des Produkts.

Fairness

Vermeide es, unfaire Voreingenommenheiten zu schaffen oder zu bestärken. Modelle sind verzerrt, wenn ihre Trainingsdaten einige der folgenden Merkmale aufweisen:

  • Sie spiegelt nicht die reale Bevölkerung der Nutzenden wider.

  • Bewahrt voreingenommene Entscheidungen oder Ergebnisse wie Strafurteile wie Inhaftierungszeiten auf.

  • Für bestimmte Nutzergruppen werden Funktionen mit besserer Vorhersagefähigkeit verwendet.

Die vorherigen Beispiele sind nur einige Möglichkeiten, wie Modelle verzerrt werden. Ein gründliches Verständnis Ihrer Daten ist wichtig, um die darin enthaltenen potenziellen Voreingenommenheiten zu erkennen und zu beseitigen. Der erste Schritt zur Entwicklung fairer Modelle besteht darin, zu prüfen, ob die Trainingsdaten die Verteilung Ihrer Nutzer korrekt widerspiegeln. Im Folgenden finden Sie weitere Vorgehensweisen zum Erstellen fairer Modelle:

  • Identifizieren Sie unterrepräsentierte Gruppen in Bewertungs-Datasets oder Gruppen, bei denen die Modellqualität im Vergleich zu anderen Gruppen möglicherweise schlechter ist. Möglicherweise müssen Sie eine Untergruppe von Nutzern überbeziehen, um ihre Präsenz in den Trainingsdaten zu erhöhen.

  • Verwenden Sie goldene Datasets (auch als Benchmark-Datasets bezeichnet), um das Modell anhand von Fairness-Problemen zu validieren und implizite Verzerrungen zu erkennen.

  • Vermeiden Sie die Aufnahme sensibler Merkmale in Datasets, z. B. Geschlecht oder ethnische Zugehörigkeit.

  • Vermeiden Sie es, Features mit wenig empirischer oder erklärender Aussagekraft einzubinden, insbesondere in sensiblen Kontexten, in denen das trainierte Modell zur Ausführung von Aufgaben mit hohem Auswirkungen in Bereichen wie Gesundheitswesen, Finanzen, Bildung, Beschäftigung usw. verwendet wird. Nehmen Sie in einem Modell zur Genehmigung von Hypotheken beispielsweise keine Namen in die Trainingsdaten auf. Der Name des Bewerbers ist für die Vorhersageaufgabe nicht nur irrelevant, es kann auch das Risiko einer impliziten Verzerrung oder zuordenativen Schäden entstehen, wenn ein so irrelevantes Merkmal im Datensatz belassen wird. Beispielsweise könnte das Modell Männernamen mit einer höheren Wahrscheinlichkeit einer Rückzahlung in Beziehung setzen oder umgekehrt.

  • Messen Sie die potenziellen negativen Auswirkungen, die die Vorhersagen eines Modells auf bestimmte Gruppen haben könnten. Ziehen Sie auch Techniken zur Korrektur von Verzerrungen in Betracht, wenn Sie in einem sensiblen Kontext nachteilige Auswirkungen feststellen.

Weitere Informationen zu Fairness bei KI und ML finden Sie auf der Seite Fairness bei Smart Practices und im Fairness-Modul zum Machine Learning Crashkurs.

Datenschutz

Sie binden Datenschutzprinzipien von Anfang an ein. Wie bei allen neuen Funktionen oder Produkten bei Google muss auch Ihr Modell von der Arbeitsgruppe zum Datenschutz Ihres Produktbereichs überprüft werden. Erstellen Sie daher frühzeitig ein Dokument zum Datenschutz, um erstes Feedback zu erhalten.

Im Folgenden finden Sie datenschutzbezogene Gesetze und Richtlinien, die Sie kennen und einhalten sollten:

Nachfolgend finden Sie die Google-spezifischen Datenschutzpraktiken, die Sie einhalten müssen:

  • Verordnungen zum Löschen von Daten

  • Binär- und Konfigurations-ID (BCID-Ebene 4), um zu verhindern, dass schädlicher oder manipulierter Code auf Ihr System zugreift.

  • Entfernen Sie alle personenidentifizierbaren Informationen aus Datasets und prüfen Sie, ob Ihr Modell und Ihre Daten-Repositories mit den richtigen Berechtigungen eingerichtet sind, z. B. „Nicht weltweit lesbar“.

Das folgende Video bietet einen allgemeinen Überblick über Probleme im Zusammenhang mit dem Datenschutz:

Weitere Informationen zum Datenschutz bei KI und ML finden Sie auf der Seite zum Datenschutz bei Smart Practices.

Transparenz

Menschen in der Verantwortung Machen Sie es beispielsweise für andere leicht zu verstehen, was Ihr Modell tut, wie es dies tut und warum es es tut. Modellkarten bieten eine Vorlage, um Ihr Modell zu dokumentieren und Transparenzartefakte zu erstellen.

Weitere Informationen zur Transparenz bei KI und ML finden Sie auf der Seite Smart Practices Transparency.

Sicherheit

Modelle für einen sicheren Betrieb unter widrigen Bedingungen entwerfen Testen Sie Ihr Modell beispielsweise mit potenziell schädlichen Eingaben, um zu prüfen, ob es sicher ist. Prüfen Sie außerdem auf mögliche Fehlerbedingungen. Teams verwenden in der Regel speziell entwickelte Datasets, um ihre Modelle mit Eingaben oder Bedingungen zu testen, die in der Vergangenheit zum Fehlschlagen des Modells geführt haben.

Weitere Informationen zur Sicherheit finden Sie auf der Seite Responsible AI.

Berücksichtigen Sie immer die breiteren sozialen Kontexte, in denen sich Ihre Modelle befinden. Achten Sie darauf, dass Ihr Umgang mit sensiblen Daten nicht gegen Datenschutzprobleme verstößt, Verzerrungen fortsetzt oder das geistige Eigentum anderer verletzt.

Informationen zur Ethik mit generativer KI finden Sie unter RAI Smart Practices for Generative AI.