Introduction to Responsible AI

Como criar sistemas de IA com responsabilidade e em escala? Saiba mais sobre IA responsável, conceitos e termos relevantes e como implementar essas práticas nos produtos.

Introdução

A inteligência artificial (IA) é usada em muitos apps e serviços que as pessoas usam no dia a dia. Com bilhões de usuários de IA em áreas como negócios, saúde e educação, é fundamental que as empresas líderes em IA trabalhem para garantir que os benefícios dessas tecnologias superem os danos, a fim de criar as experiências mais úteis, seguras e confiáveis para todos.

A IA responsável considera o impacto social do desenvolvimento e escalonamento dessas tecnologias, incluindo possíveis danos e benefícios. Os Princípios de IA fornecem um framework que inclui objetivos para aplicativos de IA e aplicativos que não vamos buscar no desenvolvimento de sistemas de IA.

Dimensões de IA responsável

À medida que o desenvolvimento de IA acelera e se torna mais onipresente, é essencial incorporar práticas de IA responsável em todas as etapas do fluxo de trabalho, desde a ideia até o lançamento. As dimensões a seguir são componentes essenciais da Responsible AI e são importantes a serem consideradas durante todo o ciclo de vida do produto.

Justiça

A imparcialidade aborda possíveis resultados diferentes que os usuários finais podem ter com características confidenciais, como raça, renda, orientação sexual ou gênero, por meio da tomada de decisões algorítmicas. Por exemplo, um algoritmo de contratação pode ter vieses para ou contra candidatos com nomes associados a um determinado sexo ou etnia?

Saiba mais sobre como sistemas de machine learning podem ser suscetíveis a vieses humanos neste vídeo:

Leia sobre como produtos como a Pesquisa e o Google Fotos melhoraram a diversidade da representação do tom da pele.

Para mais termos relacionados à imparcialidade de ML, consulte Glossário de aprendizado de máquina: imparcialidade | Google para desenvolvedores. Para saber mais, o módulo Justiça do Curso intensivo de machine learning apresenta uma introdução à imparcialidade de ML.

O site People + AI Research (PAIR) oferece análises interativas de IA, incluindo Como medir a imparcialidade e Viés oculto (em inglês) para acompanhar esses conceitos.

Responsabilidade

Responsabilidade significa ser responsável pelos efeitos de um sistema de IA. Isso envolve transparência ou compartilhamento de informações sobre o comportamento do sistema e o processo organizacional, que pode incluir a documentação e o compartilhamento de como os modelos e conjuntos de dados foram criados, treinados e avaliados. Cards de modelo e cards de dados são exemplos de artefatos de transparência que podem ajudar a organizar os fatos essenciais dos modelos e conjuntos de dados de ML de maneira estruturada.

Outra dimensão da responsabilidade é a interpretação, que envolve a compreensão das decisões do modelo de ML, em que as pessoas são capazes de identificar recursos que levam a uma previsão. Além disso, a explicabilidade é a capacidade de as decisões automatizadas de um modelo serem explicadas de maneira compreensível.

Leia mais sobre como criar confiança no usuário em sistemas de IA no capítulo Explicabilidade e confiança do People + AI Guidebook (em inglês) e na seção "Interpretabilidade" das Práticas de IA responsável do Google.

Segurança

A segurança de IA inclui um conjunto de técnicas operacionais e de design a serem seguidas para evitar e conter ações que podem causar danos, intencionalmente ou não. Por exemplo, os sistemas se comportam conforme pretendido, mesmo diante de uma violação de segurança ou de um ataque direcionado? Seu sistema de IA é robusto o suficiente para funcionar com segurança, mesmo quando perturbado? Como você se prepara para evitar ou evitar riscos? Seu sistema é confiável e estável sob pressão?

Na seção "Segurança" das Práticas de IA responsável do Google, descrevemos as práticas recomendadas para proteger os sistemas de IA contra ataques, incluindo testes adversários. Saiba mais sobre nosso trabalho nessa área e as lições aprendidas na postagem do blog The Keyword, Equipe do Google Red AI: os hackers éticos tornando a IA mais segura (em inglês).

Privacidade

As práticas de privacidade da IA responsável (consulte a seção "Privacidade" de Práticas de IA responsável do Google) envolvem a consideração de possíveis implicações de privacidade no uso de dados confidenciais. Isso inclui não apenas respeitar os requisitos legais e regulamentares, mas também considerar as normas sociais e as expectativas individuais típicas. Por exemplo, quais salvaguardas precisam ser implementadas para garantir a privacidade dos indivíduos, considerando que os modelos de ML podem lembrar ou revelar aspectos dos dados a que foram expostos? Quais etapas são necessárias para garantir que os usuários tenham transparência e controle adequados dos dados?

Saiba mais sobre a privacidade de ML com os tutoriais interativos da PAIR Explorables:

IA responsável em modelos generativos/LLMs

O advento de modelos grandes e generativos apresenta novos desafios para a implementação de práticas de IA responsável, devido aos recursos de saída potencialmente abertos e a muitos possíveis usos downstream. Além dos princípios da IA, o Google tem uma Política de uso proibido de IA generativa e um Guia de IA generativa para desenvolvedores.

Leia mais sobre como as equipes do Google usam a IA generativa para criar novas experiências para os usuários na IA generativa do Google. Neste site, também oferecemos orientações sobre segurança e imparcialidade, engenharia de solicitações e testes adversários (links em inglês) para modelos generativos. Para ver um tutorial interativo sobre modelos de linguagem, consulte o PAIR Explorable: What have Language Models Learned?

Additional Resources

Por que nos concentramos na IA: IA do Google

Processo de revisão da IA do Google

Processo de revisão dos princípios da IA | IA do Google:

Kit de ferramentas de IA responsável | TensorFlow