Ética e segurança de IA e ML

O ML tem o potencial de transformar a sociedade de muitas maneiras significativas, positiva ou negativamente. É fundamental considerar as implicações éticas dos modelos e dos sistemas de que fazem parte.

Como qualquer tecnologia desenvolvida no Google, seus projetos de ML devem beneficiar a sociedade. Elas não podem causar danos nem ser suscetíveis ao uso indevido. Elas não devem perpetuar, reforçar ou acentuar vieses ou preconceitos. Não é permitido coletar ou usar dados pessoais de maneira irresponsável.

Princípios de IA do Google

Os projetos de ML precisam aderir aos princípios de IA do Google. O site de práticas inteligentes da IA responsável (RAI) ajuda os Googlers a desenvolver soluções de ML eticamente sólidas, alinhadas aos princípios de IA do Google.

As práticas inteligentes de RAI são diretrizes úteis que as equipes precisam implementar para desenvolver IA e ML com responsabilidade. As soluções de ML precisam seguir as orientações do Google nos seguintes domínios:

  • Justiça
  • Privacidade
  • Transparência
  • Segurança

Em caso de dúvidas ou preocupações relacionadas a ML e ética, consulte o PCounsel e o Grupo de trabalho de privacidade do seu produto.

Justiça

Evite criar ou reforçar vieses injustos. Os modelos exibem viés quando os dados de treinamento têm algumas das características a seguir:

  • não reflete a população real dos seus usuários.

  • Preserva decisões ou resultados tendenciosos. Por exemplo, decisões de justiça criminal, como tempos de encarceramento.

  • Usa recursos com mais capacidade preditiva para determinados grupos de usuários.

Os exemplos anteriores são apenas algumas maneiras de enviesamento de modelos. Entender completamente seus dados é fundamental para descobrir e resolver quaisquer possíveis vieses que eles contenham. A primeira etapa para desenvolver modelos justos é verificar se os dados de treinamento refletem com precisão a distribuição dos usuários. Veja a seguir outras práticas para ajudar a criar modelos justos:

  • Identifique grupos sub-representados em conjuntos de dados de avaliação ou grupos que podem ter uma qualidade de modelo pior em comparação com outros grupos. Talvez seja necessário sobrecarregar um subgrupo de usuários para aumentar a presença deles nos dados de treinamento.

  • Use conjuntos de dados dourados (também conhecidos como conjuntos de dados de comparativo de mercado) para validar o modelo em relação a problemas de imparcialidade e detectar vieses implícitos.

  • Evite incluir atributos sensíveis nos conjuntos de dados, como gênero ou etnia.

  • Evite incluir recursos com pouco poder empírico ou explicativo, mas especialmente em contextos sensíveis em que o modelo treinado é usado para executar tarefas de alto impacto em áreas como saúde, finanças, educação, trabalho e assim por diante. Por exemplo, em um modelo de aprovação de empréstimos imobiliários, não inclua nomes nos dados de treinamento. Além de o nome de um candidato ser irrelevante para a tarefa de previsão, deixar esse atributo irrelevante no conjunto de dados também pode criar viés implícito ou danos alocativos. Por exemplo, o modelo pode correlacionar nomes masculinos com maior probabilidade de quitação ou vice-versa.

  • Avalie o possível impacto adverso que as previsões de um modelo podem ter em grupos específicos e considere técnicas de correção de viés intencional se você encontrar um impacto adverso em um contexto sensível.

Para mais informações sobre imparcialidade na IA e no ML, consulte a página Imparcialidade de práticas inteligentes e o módulo Imparcialidade do curso intensivo de machine learning.

Privacidade

Incorporar princípios de design de privacidade desde o início. Como qualquer recurso ou produto novo do Google, seu modelo precisa ser revisado pelo grupo de trabalho de privacidade da sua área de produto. Portanto, crie um Documento de design de privacidade com antecedência para receber um feedback inicial.

Confira a seguir as leis e políticas relacionadas à privacidade que você precisa conhecer e cumprir:

Veja a seguir as práticas de privacidade específicas do Google:

  • Regulamentações de Wipeout.

  • Binary and Configuration ID (BCID) de nível 4 para evitar que códigos maliciosos ou comprometidos acessem seu sistema.

  • Remova todas as PII dos conjuntos de dados e confirme se o modelo e os repositórios de dados estão configurados com as permissões corretas, por exemplo, não legíveis.

O vídeo a seguir oferece uma visão geral dos problemas relacionados à privacidade:

Para mais informações sobre privacidade de IA e ML, consulte a página de privacidade de práticas inteligentes.

Transparência

Ser responsável perante as pessoas. Por exemplo, deixe mais fácil para outras pessoas entenderem o que seu modelo faz, como e por quê. Os cards de modelo fornecem um modelo para documentar seu modelo e criar artefatos de transparência.

Para mais informações sobre a transparência de IA e ML, consulte a página Transparência de práticas inteligentes.

Segurança

Projetar modelos para operar com segurança em condições adversárias. Por exemplo, teste o modelo com possíveis entradas hostis para confirmar se ele é seguro. Além disso, verifique possíveis condições de falha. As equipes geralmente usam conjuntos de dados especialmente projetados para testar os modelos com entradas ou condições que causaram a falha do modelo no passado.

Para mais informações sobre segurança, consulte a página de IA responsável.

Sempre considere os contextos sociais mais amplos em que seus modelos operam. Trabalhe para garantir que o processamento de dados confidenciais não viole problemas de privacidade, perpetua viés ou infrinja a propriedade intelectual de outra pessoa.

Para informações sobre ética da IA generativa, consulte Práticas inteligentes de RAI para IA generativa.