Следующий вызов
Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
Появление крупных генеративных моделей ставит новые проблемы при внедрении практик ответственного ИИ из-за их потенциально неограниченных выходных возможностей и множества потенциальных вариантов дальнейшего использования. В дополнение к Принципам ИИ у Google есть Политика запрещенного использования генеративного ИИ и Набор инструментов генеративного ИИ для разработчиков .
Google также предлагает рекомендации по генеративным моделям ИИ по следующим вопросам:
Краткое содержание
Оценка технологий ИИ на предмет справедливости, подотчетности, безопасности и конфиденциальности является ключом к ответственному созданию ИИ. Эти проверки должны быть включены в каждый этап жизненного цикла продукта, чтобы обеспечить разработку безопасных, справедливых и надежных продуктов для всех.
Дальнейшее обучение
Почему мы фокусируемся на искусственном интеллекте – Google AI
Генеративный искусственный интеллект Google
PAIR Explorable: чему научились языковые модели?
Инструментарий ответственного ИИ | Тензорфлоу
Если не указано иное, контент на этой странице предоставляется по лицензии Creative Commons "С указанием авторства 4.0", а примеры кода – по лицензии Apache 2.0. Подробнее об этом написано в правилах сайта. Java – это зарегистрированный товарный знак корпорации Oracle и ее аффилированных лиц.
Последнее обновление: 2025-07-29 UTC.
[null,null,["Последнее обновление: 2025-07-29 UTC."],[[["\u003cp\u003eGenerative AI models present new challenges to Responsible AI due to their open-ended output and varied uses, prompting the need for guidelines like Google's Generative AI Prohibited Use Policy and Toolkit for Developers.\u003c/p\u003e\n"],["\u003cp\u003eGoogle provides further resources on crucial aspects of generative AI, including safety, fairness, prompt engineering, and adversarial testing.\u003c/p\u003e\n"],["\u003cp\u003eBuilding AI responsibly requires thorough assessment of fairness, accountability, safety, and privacy throughout the entire product lifecycle.\u003c/p\u003e\n"],["\u003cp\u003eGoogle emphasizes the importance of Responsible AI and offers additional resources like the AI Principles, Generative AI information, and toolkits for developers.\u003c/p\u003e\n"]]],[],null,["# The next challenge\n\n\u003cbr /\u003e\n\nThe advent of large, generative models\nintroduces new challenges to implementing Responsible AI practices due to their\npotentially open-ended output capabilities and many potential downstream uses. In addition to the AI Principles, Google has a [Generative AI Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy)\nand [Generative AI Toolkit for Developers](https://ai.google.dev/responsible/docs).\n\nGoogle also offers guidance about generative AI models on:\n\n- [Safety](https://ai.google.dev/gemini-api/docs/safety-guidance)\n- [Prompt Engineering](/machine-learning/resources/prompt-eng)\n- [Adversarial Testing](/machine-learning/guides/adv-testing)\n\nSummary\n-------\n\nAssessing AI technologies for fairness, accountability, safety, and privacy is\nkey to building AI responsibly. These checks should be incorporated into every\nstage of the product lifecycle to ensure the development of safe, equitable, and\nreliable products for all.\n\nFurther learning\n----------------\n\n[Why we focus on AI -- Google AI](https://ai.google/why-ai/)\n\n[Google Generative AI](https://ai.google/discover/generativeai/)\n\n[PAIR Explorable: What Have Language Models Learned?](https://pair.withgoogle.com/explorables/fill-in-the-blank/)\n\n[Responsible AI Toolkit \\| TensorFlow](https://www.tensorflow.org/responsible_ai)"]]