Die nächste Herausforderung
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Das Aufkommen großer generativer Modelle stellt aufgrund ihrer potenziell offenen Ausgabefunktionen und vielen potenziellen Folgenutzungen neue Herausforderungen bei der Implementierung verantwortungsbewusster KI-Praktiken dar. Zusätzlich zu den KI-Prinzipien hat Google eine Richtlinie zur unzulässigen Nutzung von generativer KI und ein Toolkit für Entwickler für generative KI.
Google bietet außerdem folgende Informationen zu generativen KI-Modellen an:
Zusammenfassung
Die Bewertung von KI-Technologien im Hinblick auf Fairness, Rechenschaftspflicht, Sicherheit und Datenschutz ist der Schlüssel zur verantwortungsvollen Entwicklung von KI. Diese Prüfungen sollten in jede Phase des Produktlebenszyklus einbezogen werden, um die Entwicklung sicherer, fairer und zuverlässiger Produkte für alle zu ermöglichen.
Weiterführende Informationen
Warum wir uns auf KI konzentrieren – Google AI
Generative AI von Google
PAIR Explorable: What Have Language Models Learned?
Responsible AI Toolkit | TensorFlow
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-07-27 (UTC).
[null,null,["Zuletzt aktualisiert: 2025-07-27 (UTC)."],[[["\u003cp\u003eGenerative AI models present new challenges to Responsible AI due to their open-ended output and varied uses, prompting the need for guidelines like Google's Generative AI Prohibited Use Policy and Toolkit for Developers.\u003c/p\u003e\n"],["\u003cp\u003eGoogle provides further resources on crucial aspects of generative AI, including safety, fairness, prompt engineering, and adversarial testing.\u003c/p\u003e\n"],["\u003cp\u003eBuilding AI responsibly requires thorough assessment of fairness, accountability, safety, and privacy throughout the entire product lifecycle.\u003c/p\u003e\n"],["\u003cp\u003eGoogle emphasizes the importance of Responsible AI and offers additional resources like the AI Principles, Generative AI information, and toolkits for developers.\u003c/p\u003e\n"]]],[],null,["# The next challenge\n\n\u003cbr /\u003e\n\nThe advent of large, generative models\nintroduces new challenges to implementing Responsible AI practices due to their\npotentially open-ended output capabilities and many potential downstream uses. In addition to the AI Principles, Google has a [Generative AI Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy)\nand [Generative AI Toolkit for Developers](https://ai.google.dev/responsible/docs).\n\nGoogle also offers guidance about generative AI models on:\n\n- [Safety](https://ai.google.dev/gemini-api/docs/safety-guidance)\n- [Prompt Engineering](/machine-learning/resources/prompt-eng)\n- [Adversarial Testing](/machine-learning/guides/adv-testing)\n\nSummary\n-------\n\nAssessing AI technologies for fairness, accountability, safety, and privacy is\nkey to building AI responsibly. These checks should be incorporated into every\nstage of the product lifecycle to ensure the development of safe, equitable, and\nreliable products for all.\n\nFurther learning\n----------------\n\n[Why we focus on AI -- Google AI](https://ai.google/why-ai/)\n\n[Google Generative AI](https://ai.google/discover/generativeai/)\n\n[PAIR Explorable: What Have Language Models Learned?](https://pair.withgoogle.com/explorables/fill-in-the-blank/)\n\n[Responsible AI Toolkit \\| TensorFlow](https://www.tensorflow.org/responsible_ai)"]]