El siguiente desafío
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
El surgimiento de modelos generativos grandes plantea nuevos desafíos para la implementación de prácticas de IA responsable debido a sus capacidades de salida potencialmente abiertas y a muchos usos potenciales en el embudo descendente. Además de los principios de IA, Google tiene una Política de Uso Prohibido de IA Generativas y un Kit de herramientas de IA generativa para desarrolladores.
Google también ofrece orientación sobre los modelos de IA generativa en los siguientes recursos:
Resumen
Evaluar las tecnologías de IA en términos de equidad, responsabilidad, seguridad y privacidad es clave para desarrollar la IA de forma responsable. Estas verificaciones deben incorporarse en cada etapa del ciclo de vida del producto para garantizar el desarrollo de productos seguros, equitativos y confiables para todos.
Más aprendizaje
Por qué nos enfocamos en la IA: IA de Google
IA generativa de Google
PAIR Explorable: ¿Qué aprendieron los modelos de lenguaje?
Kit de herramientas de IA responsable | TensorFlow
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-07-27 (UTC)
[null,null,["Última actualización: 2025-07-27 (UTC)"],[[["\u003cp\u003eGenerative AI models present new challenges to Responsible AI due to their open-ended output and varied uses, prompting the need for guidelines like Google's Generative AI Prohibited Use Policy and Toolkit for Developers.\u003c/p\u003e\n"],["\u003cp\u003eGoogle provides further resources on crucial aspects of generative AI, including safety, fairness, prompt engineering, and adversarial testing.\u003c/p\u003e\n"],["\u003cp\u003eBuilding AI responsibly requires thorough assessment of fairness, accountability, safety, and privacy throughout the entire product lifecycle.\u003c/p\u003e\n"],["\u003cp\u003eGoogle emphasizes the importance of Responsible AI and offers additional resources like the AI Principles, Generative AI information, and toolkits for developers.\u003c/p\u003e\n"]]],[],null,["# The next challenge\n\n\u003cbr /\u003e\n\nThe advent of large, generative models\nintroduces new challenges to implementing Responsible AI practices due to their\npotentially open-ended output capabilities and many potential downstream uses. In addition to the AI Principles, Google has a [Generative AI Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy)\nand [Generative AI Toolkit for Developers](https://ai.google.dev/responsible/docs).\n\nGoogle also offers guidance about generative AI models on:\n\n- [Safety](https://ai.google.dev/gemini-api/docs/safety-guidance)\n- [Prompt Engineering](/machine-learning/resources/prompt-eng)\n- [Adversarial Testing](/machine-learning/guides/adv-testing)\n\nSummary\n-------\n\nAssessing AI technologies for fairness, accountability, safety, and privacy is\nkey to building AI responsibly. These checks should be incorporated into every\nstage of the product lifecycle to ensure the development of safe, equitable, and\nreliable products for all.\n\nFurther learning\n----------------\n\n[Why we focus on AI -- Google AI](https://ai.google/why-ai/)\n\n[Google Generative AI](https://ai.google/discover/generativeai/)\n\n[PAIR Explorable: What Have Language Models Learned?](https://pair.withgoogle.com/explorables/fill-in-the-blank/)\n\n[Responsible AI Toolkit \\| TensorFlow](https://www.tensorflow.org/responsible_ai)"]]