Einführung in verantwortungsbewusste KI

Wie können wir KI-Systeme verantwortungsvoll erstellen? Erfahren Sie mehr über verantwortungsbewusste KI, relevante Konzepte und Begriffe und erfahren Sie, wie Sie diese Praktiken in Produkten implementieren.

Einführung

Künstliche Intelligenz (KI) steht für viele Anwendungen und Dienste, die in unserem Alltag verwendet werden. Bei Milliarden von Nutzern von KI in verschiedenen Bereichen, vom Geschäfts- über das Gesundheitswesen bis zum Bildungswesen ist es von entscheidender Bedeutung, dass führende KI-Unternehmen dafür sorgen, dass die Vorteile dieser Technologien die Nachteile wiegen, um die hilfreichsten, sichersten und vertrauenswürdigsten Angebote für alle zu schaffen.

Verantwortungsbewusste KI berücksichtigt die gesellschaftlichen Auswirkungen der Entwicklung und des Umfangs dieser Technologien, einschließlich potenzieller Schäden und Vorteile. Die KI-Prinzipien stellen ein Framework bereit, das Ziele für KI-Anwendungen sowie Anwendungen enthält, die wir bei der Entwicklung von KI-Systemen nicht verfolgen werden.

Verantwortungsbewusste KI-Dimensionen

Die KI-Entwicklung beschleunigt sich und wird immer gängiger. Deshalb ist es wichtig, verantwortungsbewusste KI-Praktiken in alle Workflow-Phasen von der Idee bis zur Markteinführung einzubinden. Die folgenden Dimensionen sind wichtige Komponenten für verantwortungsbewusste KI und wichtig im gesamten Produktlebenszyklus.

Fairness

Fairness bezieht sich auf die unterschiedlichen Ergebnisse, die Endnutzer im Zusammenhang mit sensiblen Merkmalen wie ethnische Herkunft, Einkommen, sexuelle Orientierung oder Geschlecht durch algorithmische Entscheidungsfindung erleben können. Beispielsweise könnte es bei einem Algorithmus bei der Bewerbung Verzerrungen bei Bewerbungen mit Namen geben, die mit einem bestimmten Geschlecht oder ethnischen Zugehörigkeit verknüpft sind.

In diesem Video erfahren Sie, wie Systeme für maschinelles Lernen anfällig für menschliche Vorurteile sein können:

Sieh dir an, wie Produkte wie die Google Suche und Google Fotos die Vielfalt der Hauttondarstellungen verbessert haben.

Weitere Begriffe im Zusammenhang mit ML-Fairness findest du im Machine Learning-Glossar: Fairness | Google for Developers. Weitere Informationen finden Sie im Modul Fairness im Machine Learning Crash Course. Dort wird die ML-Fairness vorgestellt.

People + AI Research (PAIR) bietet interaktive KI-explorative Datenanalysen, einschließlich der Messung von Fairness und Ausgeblendete Vorurteile, um diese Konzepte durchzugehen.

Rechenschaftspflicht

Rechenschaftspflicht bezeichnet die Verantwortung für die Auswirkungen eines KI-Systems. Dazu gehören die Transparenz oder die Weitergabe von Informationen zum Systemverhalten und zum Organisationsprozess. Dazu gehört auch die Dokumentation und Weitergabe von Modellen und Datasets, wie Modelle erstellt und trainiert wurden. Modellkarten und Datenkarten sind Beispiele für Transparenzartefakte, mit denen Sie die wesentlichen Fakten von ML-Modellen und -Datasets strukturiert organisieren können.

Eine weitere Dimension der Rechenschaftspflicht ist die Interpretierbarkeit. Dabei geht es um das Verständnis von ML-Modellentscheidungen, bei denen Menschen Features erkennen können, die zu einer Vorhersage führen. Darüber hinaus ist die Erklärung die Möglichkeit, die automatisierten Entscheidungen eines Modells so zu erklären, dass Menschen sie verstehen können.

Weitere Informationen zum Aufbau von Nutzervertrauen in KI-Systeme finden Sie im Kapitel Erklärung + Vertrauen des Leitfadens zu Personal und KI sowie im Abschnitt zur Interpretation von Verantwortungsbewusste KI-Praktiken von Google.

Sicherheit

Die KI-Sicherheit umfasst eine Reihe von Design- und Betriebstechniken, die befolgt werden müssen, um Handlungen zu vermeiden, die absichtlich oder ungewollt Schaden verursachen können. Verhalten sich Systeme beispielsweise wie vorgesehen, selbst bei einem Sicherheitsverstoß oder gezielten Angriff? Ist Ihr KI-System staut genug, um sicher zu laufen, selbst wenn dies gefährdet wird? Wie planen Sie voraus, um Risiken zu vermeiden oder zu vermeiden? Ist Ihr System zuverlässig und stabil unter Druck?

Im Abschnitt „Sicherheit“ der Best Practices für verantwortungsbewusste KI von Google werden die empfohlenen Praktiken beschrieben, die zum Schutz von KI-Systemen vor Angriffen, einschließlich kontroverser Tests, dienen. Weitere Informationen zu unserer Arbeit in diesem Bereich und zu den Erkenntnissen, die wir im Keyword-Blogpost AI AI Red Team von Google: Die ethischen Hacker, die KI sicherer machen, herausstellen

Datenschutz

Der Datenschutz in den Abschnitten zum Thema verantwortungsbewusste KI (siehe Abschnitt „Datenschutz“ unter Verantwortungsbewusste KI-Praktiken) bezieht sich auf die Berücksichtigung potenzieller Auswirkungen auf den Datenschutz bei der Verwendung vertraulicher Daten. Dazu gehören nicht nur die Einhaltung rechtlicher und gesetzlicher Auflagen, sondern auch die Berücksichtigung von sozialen Normen und typischen individuellen Erwartungen. Welche Vorkehrungen müssen beispielsweise getroffen werden, um die Privatsphäre von Einzelpersonen zu schützen, wenn ML-Modelle sich daran erinnern oder Aspekte der Daten offenlegen, mit denen sie konfrontiert wurden? Welche Schritte sind erforderlich, um Nutzern eine ausreichende Transparenz und Kontrolle über ihre Daten zu bieten?

In den interaktiven Schritt-für-Schritt-Anleitungen von PAIR Explorables erfahren Sie mehr über ML-Datenschutz:

Verantwortungsbewusste KI in generativen Modellen/LLMs

Das Erscheinen großer, generativer Modelle wirft neue Herausforderungen bei der Implementierung von verantwortungsbewusster KI-Praktiken aufgrund ihrer potenziell offenen Ausgabefunktionen und vieler potenzieller nachgelagerter Verwendungen auf. Zusätzlich zu den KI-Grundsätzen gibt es bei Google eine Generative AI Prohibited Use Policy und einen Generative AI Guide for Developers (in englischer Sprache).

Weitere Informationen dazu, wie Teams bei Google mithilfe von generativer KI neue Funktionen für Nutzer erstellen, finden Sie unter Google Generative AI. Auf dieser Website finden Sie auch Anleitungen zu den Themen Sicherheit und Fairness, Prompt Engineering und widrige Tests für generative Modelle. Eine interaktive Schritt-für-Schritt-Anleitung zu Sprachmodellen finden Sie unter Exploratives Analysetool: Was haben Sprachmodelle gelernt?

Zusätzliche Ressourcen

Warum wir uns auf KI konzentrieren – Google AI

KI-Überprüfungsprozess von Google

Überprüfung der KI-Prinzipien | Google AI:

Verantwortungsbewusstes KI-Toolkit | TensorFlow