La prossima sfida
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
L'avvento di modelli generativi di grandi dimensioni
introduce nuove sfide per l'implementazione di pratiche di IA responsabile a causa delle loro
potenziali funzionalità di output aperte e dei molti potenziali utilizzi a valle. Oltre ai principi dell'IA, Google ha delle Norme relative all'uso vietato dell'IA generativa
e un toolkit per sviluppatori di IA generativa.
Google offre inoltre indicazioni sui modelli di IA generativa su:
Riepilogo
La valutazione delle tecnologie di IA per correttezza, responsabilità, sicurezza e privacy è fondamentale per creare un'IA responsabile. Questi controlli devono essere incorporati in ogni fase del ciclo di vita del prodotto per garantire lo sviluppo di prodotti sicuri, equi e affidabili per tutti.
Per approfondire
Perché ci concentriamo sull'IA - Google AI
IA generativa di Google
PAIR Explorable: What Have Language Models Learned?
Responsible AI Toolkit | TensorFlow
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2025-07-27 UTC.
[null,null,["Ultimo aggiornamento 2025-07-27 UTC."],[[["\u003cp\u003eGenerative AI models present new challenges to Responsible AI due to their open-ended output and varied uses, prompting the need for guidelines like Google's Generative AI Prohibited Use Policy and Toolkit for Developers.\u003c/p\u003e\n"],["\u003cp\u003eGoogle provides further resources on crucial aspects of generative AI, including safety, fairness, prompt engineering, and adversarial testing.\u003c/p\u003e\n"],["\u003cp\u003eBuilding AI responsibly requires thorough assessment of fairness, accountability, safety, and privacy throughout the entire product lifecycle.\u003c/p\u003e\n"],["\u003cp\u003eGoogle emphasizes the importance of Responsible AI and offers additional resources like the AI Principles, Generative AI information, and toolkits for developers.\u003c/p\u003e\n"]]],[],null,["# The next challenge\n\n\u003cbr /\u003e\n\nThe advent of large, generative models\nintroduces new challenges to implementing Responsible AI practices due to their\npotentially open-ended output capabilities and many potential downstream uses. In addition to the AI Principles, Google has a [Generative AI Prohibited Use Policy](https://policies.google.com/terms/generative-ai/use-policy)\nand [Generative AI Toolkit for Developers](https://ai.google.dev/responsible/docs).\n\nGoogle also offers guidance about generative AI models on:\n\n- [Safety](https://ai.google.dev/gemini-api/docs/safety-guidance)\n- [Prompt Engineering](/machine-learning/resources/prompt-eng)\n- [Adversarial Testing](/machine-learning/guides/adv-testing)\n\nSummary\n-------\n\nAssessing AI technologies for fairness, accountability, safety, and privacy is\nkey to building AI responsibly. These checks should be incorporated into every\nstage of the product lifecycle to ensure the development of safe, equitable, and\nreliable products for all.\n\nFurther learning\n----------------\n\n[Why we focus on AI -- Google AI](https://ai.google/why-ai/)\n\n[Google Generative AI](https://ai.google/discover/generativeai/)\n\n[PAIR Explorable: What Have Language Models Learned?](https://pair.withgoogle.com/explorables/fill-in-the-blank/)\n\n[Responsible AI Toolkit \\| TensorFlow](https://www.tensorflow.org/responsible_ai)"]]