Partilhar via


O que é IA responsável?

APLICA-SE A:Azure CLI ml extension v2 (current)Python SDK azure-ai-ml v2 (current)

A Inteligência Artificial Responsável (IA Responsável) é uma abordagem para desenvolver, avaliar e implantar sistemas de IA de forma segura, ética e com confiança. Os sistemas de IA resultam de muitas decisões tomadas pelos seus criadores. A IA responsável ajuda a orientar essas decisões, desde a definição do propósito do sistema até a interação do usuário, em direção a resultados mais benéficos e equitativos. Ele mantém as pessoas e seus objetivos no centro do design e respeita valores como justiça, confiabilidade e transparência.

A Microsoft criou um Responsible AI Standard, uma estrutura para a construção de sistemas de IA com base em seis princípios: justiça, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade. Esses princípios são a base de uma abordagem responsável e confiável à IA, especialmente à medida que a tecnologia inteligente se torna mais comum em produtos e serviços do dia a dia.

Este artigo explica como o Azure Machine Learning fornece ferramentas para ajudar desenvolvedores e cientistas de dados a implementar e operacionalizar esses seis princípios.

 Diagrama dos seis princípios da IA Responsável da Microsoft, que englobam justiça, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade.

Equidade e inclusão

Os sistemas de IA devem tratar todos de forma justa e evitar afetar grupos semelhantes de forma diferente. Por exemplo, quando os sistemas de IA fornecem orientação sobre tratamento médico, pedidos de empréstimo ou emprego, devem fazer as mesmas recomendações a pessoas com sintomas, circunstâncias financeiras ou qualificações semelhantes.

Equidade e inclusão no Azure Machine Learning: o componente de avaliação de equidade do painel de IA responsável ajuda a avaliar a equidade do modelo em grupos sensíveis, como gênero, etnia, idade e outras características.

Fiabilidade e segurança

Para construir confiança, os sistemas de IA devem operar de forma confiável, segura e consistente. Eles devem funcionar como projetado, responder com segurança a condições inesperadas e resistir à manipulação prejudicial. Seu comportamento e capacidade de lidar com diferentes condições refletem a variedade de situações que os desenvolvedores anteciparam durante o projeto e os testes.

Fiabilidade e segurança no Azure Machine Learning: O componente de análise de erros do painel de IA Responsável ajuda-o a:

  • Obtenha uma compreensão profunda de como a falha é distribuída para um modelo.
  • Identificar coortes (subconjuntos) de dados com uma taxa de erro mais elevada do que o valor de referência global.

Essas discrepâncias podem ocorrer quando o sistema ou modelo tem um desempenho inferior para grupos demográficos específicos ou para condições de entrada raramente observadas nos dados de treinamento.

Transparência

Quando os sistemas de IA informam decisões que impactam a vida das pessoas, é fundamental que as pessoas entendam como essas decisões são tomadas. Por exemplo, um banco pode usar um sistema de IA para decidir se uma pessoa é digna de crédito, ou uma empresa pode usar um para selecionar candidatos a emprego.

Uma parte crucial da transparência é a interpretabilidade: fornecer explicações úteis sobre o comportamento do sistema de IA. Melhorar a interpretabilidade ajuda as partes interessadas a entender como e por que os sistemas de IA funcionam, para que possam identificar problemas de desempenho, preocupações de equidade, práticas excludentes ou resultados não intencionais.

Transparência no Azure Machine Learning: A interpretabilidade do modelo e os componentes hipotéticos contrafactuais do painel de IA responsável ajudam a gerar descrições compreensíveis por humanos das previsões do modelo.

O componente de interpretabilidade do modelo fornece várias visualizações sobre o comportamento de um modelo:

  • Explicações globais. Por exemplo, quais recursos afetam o comportamento geral de um modelo de alocação de empréstimos?
  • Explicações locais. Por exemplo, por que o pedido de empréstimo de um cliente foi aprovado ou rejeitado?
  • Explicações do modelo para uma coorte selecionada de pontos de dados. Por exemplo, quais características afetam o comportamento geral de um modelo de alocação de empréstimos para candidatos de baixa renda?

O componente hipotético contrafactual ajuda você a entender e depurar um modelo de aprendizado de máquina, mostrando como ele reage a alterações e perturbações de recursos.

O Azure Machine Learning também suporta um scorecard de IA Responsável. O scorecard é um relatório PDF personalizável que os desenvolvedores podem configurar, gerar, baixar e compartilhar com partes interessadas técnicas e não técnicas. Ele ajuda a educar as partes interessadas sobre o conjunto de dados e a integridade do modelo, alcançar a conformidade e construir confiança. O scorecard também pode dar suporte a revisões de auditoria, revelando as características do modelo de aprendizado de máquina.

Privacidade e segurança

À medida que a IA se torna mais comum, proteger a privacidade e proteger informações pessoais e empresariais é mais importante e complexo. Privacidade e segurança de dados exigem muita atenção porque os sistemas de IA precisam de dados para fazer previsões e decisões precisas. Os sistemas de IA devem estar em conformidade com as leis de privacidade que:

  • Exigir transparência sobre a coleta, uso e armazenamento de dados.
  • Exigir que os consumidores disponham de controlos adequados para escolher a forma como os seus dados são utilizados.

Privacidade e segurança no Azure Machine Learning: o Azure Machine Learning permite que administradores e desenvolvedores criem configurações seguras que estejam em conformidade com as políticas da empresa. Com o Azure Machine Learning e a plataforma Azure, você pode:

  • Restrinja o acesso a recursos e operações por conta de usuário ou grupo.
  • Restrinja as comunicações de rede de entrada e saída.
  • Criptografe dados em trânsito e em repouso.
  • Analise vulnerabilidades.
  • Aplicar e auditar políticas de configuração.

A Microsoft também criou dois pacotes de código aberto para ajudar a implementar princípios de privacidade e segurança:

  • SmartNoise: Privacidade diferencial é um conjunto de sistemas e práticas que ajudam a manter os dados dos indivíduos seguros e privados. Em soluções de aprendizado de máquina, a privacidade diferencial pode ser necessária para a conformidade regulamentar. SmartNoise é um projeto de código aberto (codesenvolvido pela Microsoft) que contém componentes para a construção de sistemas diferencialmente privados que são globais.

  • Counterfit: Counterfit é um projeto de código aberto que compreende uma ferramenta de linha de comando e camada de automação genérica para permitir que os desenvolvedores simulem ataques cibernéticos contra sistemas de IA. Qualquer pessoa pode baixar a ferramenta e implantá-la por meio do Azure Cloud Shell para ser executada em um navegador ou implantá-la localmente em um ambiente Anaconda Python. Ele pode avaliar modelos de IA hospedados em vários ambientes de nuvem, no local ou na borda. A ferramenta é agnóstica aos modelos de IA e suporta vários tipos de dados, incluindo texto, imagens ou entrada genérica.

Responsabilidade

As pessoas que projetam e implantam sistemas de IA devem ser responsáveis por como esses sistemas operam. As organizações devem usar os padrões do setor para desenvolver normas de prestação de contas. Essas normas ajudam a garantir que os sistemas de IA não sejam a autoridade final nas decisões que afetam a vida das pessoas e que os seres humanos mantenham um controle significativo sobre sistemas altamente autônomos.

Responsabilidade no Azure Machine Learning: as operações de Machine Learning (MLOps) baseiam-se nos princípios e práticas de DevOps que melhoram a eficiência do fluxo de trabalho de IA. O Azure Machine Learning fornece estes recursos de MLOps para uma melhor prestação de contas:

  • Registre, empacote e implante modelos de qualquer lugar. Você também pode rastrear os metadados associados necessários para usar o modelo.
  • Capture os dados de governança para o ciclo de vida completo do aprendizado de máquina. As informações de linhagem registradas podem incluir quem está publicando modelos, por que as alterações foram feitas e quando os modelos foram implantados ou usados na produção.
  • Notifique e alerte sobre eventos no ciclo de vida do aprendizado de máquina. Os exemplos incluem conclusão de experimento, registro de modelo, implantação de modelo e deteção de desvio de dados.
  • Monitore aplicativos para problemas operacionais e problemas relacionados ao aprendizado de máquina. Compare entradas de modelo entre treinamento e inferência, explore métricas específicas do modelo e forneça monitoramento e alertas em sua infraestrutura de aprendizado de máquina.

Além disso, o scorecard de IA Responsável no Azure Machine Learning cria responsabilidade ao permitir a comunicação entre as partes interessadas. O scorecard permite que os desenvolvedores configurem, baixem e compartilhem informações sobre a integridade do modelo com partes interessadas técnicas e não técnicas. Compartilhar essas informações ajuda a construir confiança.

O Azure Machine Learning também suporta a tomada de decisões informando as decisões de negócios através de:

  • Insights orientados por dados, que ajudam as partes interessadas a entender os efeitos do tratamento causal nos resultados usando apenas dados históricos. Por exemplo, "Como um medicamento afetaria a pressão arterial de um paciente?" Esses insights vêm do componente de inferência causal do painel de IA responsável.
  • Insights orientados por modelos, que respondem às perguntas dos usuários (como "O que posso fazer para obter um resultado diferente da sua IA da próxima vez?") para que eles possam agir. Esses insights são fornecidos por meio do componente hipotético contrafactual do painel de IA responsável.

Próximos passos

  • Para obter mais informações sobre como implementar a IA Responsável no Azure Machine Learning, consulte Painel de IA Responsável.
  • Saiba como gerar o painel de IA Responsável por meio de CLI e SDK ou da interface do usuário do estúdio Azure Machine Learning.
  • Saiba como gerar um scorecard de IA Responsável com base nos insights observados no seu painel de IA Responsável.
  • Saiba mais sobre o Padrão de IA Responsável para a construção de sistemas de IA de acordo com seis princípios-chave.