Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
APLICA-SE A:
Extensão de ML da CLI do Azure v2 (atual)
SDK do Python azure-ai-ml v2 (atual)
A IA Responsável (Inteligência Artificial Responsável) é uma abordagem para desenvolver, avaliar e implantar sistemas de IA com segurança, eticamente e com confiança. Os sistemas de IA resultam de muitas decisões tomadas por seus criadores. A IA responsável ajuda a orientar essas decisões, desde a definição da finalidade do sistema até a interação do usuário, em direção a resultados mais benéficos e equitativos. Mantém as pessoas e seus objetivos no centro do design e respeita valores como imparcialidade, confiabilidade e transparência.
A Microsoft criou um Responsible AI Standard, uma estrutura para a criação de sistemas de IA com base em seis princípios: imparcialidade, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade. Esses princípios são a base de uma abordagem responsável e confiável para a IA, especialmente à medida que a tecnologia inteligente se torna mais comum em produtos e serviços cotidianos.
Este artigo explica como o Azure Machine Learning fornece ferramentas para ajudar desenvolvedores e cientistas de dados a implementar e operacionalizar esses seis princípios.
Imparcialidade e inclusividade
Os sistemas de IA devem tratar todos de forma justa e evitar afetar grupos semelhantes de forma diferente. Por exemplo, quando os sistemas de IA fornecem orientação sobre tratamento médico, pedidos de empréstimo ou emprego, eles devem fazer as mesmas recomendações para pessoas com sintomas semelhantes, circunstâncias financeiras ou qualificações.
Imparcialidade e inclusão no Azure Machine Learning: o componente de avaliação de imparcialidade do painel de IA Responsável ajuda a avaliar a imparcialidade do modelo entre grupos confidenciais, como gênero, etnia, idade e outras características.
Confiabilidade e segurança
Para criar confiança, os sistemas de IA devem operar de maneira confiável, segura e consistente. Eles devem funcionar como projetados, responder com segurança a condições inesperadas e resistir à manipulação prejudicial. Seu comportamento e capacidade de lidar com diferentes condições refletem o intervalo de situações que os desenvolvedores anteciparam durante o design e o teste.
Confiabilidade e segurança no Azure Machine Learning: o componente de análise de erros do painel de IA responsável ajuda você a:
- Obtenham uma compreensão profunda de como a falha é distribuída para um modelo.
- Identifiquem coortes (subconjuntos) de dados com uma taxa de erro maior do que o parâmetro de comparação geral.
Essas discrepâncias podem ocorrer quando o sistema ou o modelo apresentar baixo desempenho para grupos demográficos específicos ou para condições de entrada raramente observadas nos dados de treinamento.
Transparência
Quando os sistemas de IA informam decisões que afetam a vida das pessoas, é fundamental que as pessoas entendam como essas decisões são tomadas. Por exemplo, um banco pode usar um sistema de IA para decidir se uma pessoa é confiável ou uma empresa pode usar um para selecionar candidatos a emprego.
Uma parte crucial da transparência é a interpretabilidade: fornecer explicações úteis sobre o comportamento do sistema de IA. Melhorar a interpretabilidade ajuda os stakeholders a entender como e por que os sistemas de IA funcionam, para que possam identificar problemas de desempenho, questões de imparcialidade, práticas de exclusão ou resultados não intencionais.
Transparência no Azure Machine Learning: a interpretabilidade do modelo e os componentes de hipóteses contrafactuais do painel de IA responsável ajudam a gerar descrições compreensíveis do ser humano das previsões de modelo.
O componente de interpretabilidade do modelo fornece várias exibições sobre o comportamento de um modelo:
- Explicações globais. Por exemplo, quais recursos afetam o comportamento geral de um modelo de alocação de empréstimos?
- Explicações locais. Por exemplo, por que a solicitação de empréstimo de um cliente foi aprovada ou rejeitada?
- Explicações de modelo de um coorte selecionado de pontos de dados. Por exemplo, quais recursos afetam o comportamento geral de um modelo de alocação de empréstimos de receita inferior?
O componente what-if contrafactual ajuda você a entender e depurar um modelo de machine learning mostrando como ele reage a alterações de recursos e perturbações.
O Azure Machine Learning também dá suporte a um scorecard de IA responsável. O scorecard é um relatório PDF personalizável que os desenvolvedores podem configurar, gerar, baixar e compartilhar com stakeholders técnicos e não técnicos. Ele ajuda a educar os stakeholders sobre o conjunto de dados e a integridade do modelo, alcançar a conformidade e criar confiança. O scorecard também pode dar suporte a revisões de auditoria revelando características do modelo de machine learning.
Privacidade e segurança
À medida que a IA se torna mais comum, proteger a privacidade e proteger informações pessoais e comerciais é mais importante e complexo. A privacidade e a segurança de dados exigem muita atenção porque os sistemas de IA precisam de dados para tomar previsões e decisões precisas. Os sistemas de IA precisam estar em conformidade com as leis de privacidade que:
- Exigem transparência sobre a coleta, o uso e o armazenamento de dados.
- Exigem que os consumidores tenham controles apropriados para escolher como os dados são usados.
Privacidade e segurança no Azure Machine Learning: o Azure Machine Learning permite que administradores e desenvolvedores criem configurações seguras que estejam em conformidade com as políticas da empresa. Com o Azure Machine Learning e a plataforma do Azure, você pode:
- Restringir o acesso a recursos e operações por conta de usuário ou grupos.
- Restringir as comunicações de rede de entrada e saída.
- Criptografar dados em trânsito e em repouso.
- Examinar se há vulnerabilidades.
- Aplicar e auditar políticas de configuração.
A Microsoft também criou dois pacotes de software livre para ajudar a implementar princípios de privacidade e segurança:
SmartNoise: a privacidade diferencial é um conjunto de sistemas e práticas que ajuda a manter os dados de indivíduos seguros e privados. Em soluções de machine learning, a privacidade diferencial pode ser necessária para conformidade regulatória. SmartNoise é um projeto de código aberto (codesenvolvido pela Microsoft) que contém diferentes componentes para a criação de sistemas privados diferenciais globais.
Counterfit: é um projeto de código aberto que consiste em uma ferramenta de linha de comando e uma camada de automação genérica para permitir que os desenvolvedores simulem ataques cibernéticos contra sistemas de IA. Qualquer pessoa pode baixar a ferramenta e implantá-la por meio do Azure Cloud Shell, para ser executada no navegador ou localmente em um ambiente do Anaconda Python. Ele pode avaliar modelos de IA hospedados em vários ambientes de nuvem, locais ou na borda. A ferramenta é independente de modelos de IA e dá suporte a vários tipos de dados, incluindo texto, imagens ou entrada genérica.
Responsabilidade
As pessoas que projetam e implantam sistemas de IA devem ser responsáveis pela forma como esses sistemas operam. As organizações devem usar padrões do setor para desenvolver normas de responsabilidade. Essas normas ajudam a garantir que os sistemas de IA não sejam a autoridade final sobre decisões que afetam a vida das pessoas e que os humanos mantenham controle significativo sobre sistemas altamente autônomos.
Responsabilidade no Azure Machine Learning: as MLOps (operações de machine learning) baseiam-se nos princípios e práticas do DevOps que melhoram a eficiência do fluxo de trabalho de IA. O Azure Machine Learning fornece estes recursos de MLOps para melhor responsabilidade:
- Registrar, empacotar e implantar modelos de qualquer lugar. Também é possível rastrear os metadados associados necessários para usar o modelo.
- Capturar os dados de governança para o ciclo de vida de machine learning de ponta a ponta. As informações de linhagem registradas podem incluir quem publica modelos, por que as alterações foram feitas e quando os modelos foram implantados ou usados em produção.
- Notificar e alertar sobre eventos no ciclo de vida de machine learning. Exemplos de eventos incluem a conclusão de experimento, o registro do modelo, a implantação de modelo e a detecção de descompasso de dados.
- Monitorar aplicativos em relação a problemas operacionais e problemas relacionados a machine learning. Comparar as entradas de modelo entre treinamento e inferência, explorar métricas específicas de modelo e fornecer monitoramento e alertas em sua infraestrutura de aprendizado de máquina.
Além disso, o scorecard de IA responsável no Azure Machine Learning cria responsabilidade habilitando a comunicação entre partes interessadas. O scorecard capacita os desenvolvedores a configurar, baixar e compartilhar insights de integridade do modelo com stakeholders técnicos e não técnicos. Compartilhar esses insights ajuda a criar confiança.
O Azure Machine Learning também dá suporte à tomada de decisões informando as decisões de negócios por meio de:
- Insights baseados em dados, que ajudam os stakeholders a entender os efeitos do tratamento causal nos resultados usando apenas dados históricos. Por exemplo, "Como um medicamento afetaria a pressão arterial de um paciente?" Esses insights vêm do componente de inferência causal do painel de IA responsável.
- Insights baseados em modelos, que respondem a perguntas do usuário (como "O que posso fazer para obter um resultado diferente da ia na próxima vez?") para que eles possam tomar medidas. Esses insights são fornecidos por meio do componente what-if contrafactual do painel de IA responsável.
Próximas etapas
- Para obter mais informações sobre como implementar a IA Responsável no Azure Machine Learning, consulte o painel de IA Responsável.
- Saiba como gerar o Painel de IA responsável por meio da CLI e do SDK ou da interface do usuário do Estúdio do Azure Machine Learning.
- Saiba como gerar um scorecard de IA responsável com base nos insights observados em seu painel de IA Responsável.
- Saiba mais sobre o Padrão de IA Responsável para a criação de sistemas de IA de acordo com seis princípios principais.