Compartilhar via


Recomendações de segurança para IA

Este artigo lista todas as recomendações de segurança de IA que você pode ver no Microsoft Defender para Nuvem.

As recomendações que aparecem em seu ambiente são baseadas nos recursos que você está protegendo e em sua configuração personalizada. Você pode ver as recomendações no portal que se aplicam aos seus recursos.

Para saber mais sobre as ações que você pode tomar em resposta a essas recomendações, consulte Corrigir recomendações no Defender para Nuvem.

Recomendações do Azure

A ID do Microsoft Entra deve ser usada ao conectar o Azure AI Foundry à conta de armazenamento padrão

descrição do : o Acesso baseado em Credencial identificado pelo Defender para Nuvem ao se conectar à conta de armazenamento padrão no Azure AI Foundry. Isso representa um risco de acesso não autorizado. Para reduzir o risco de acesso não autorizado, você deve desabilitar a autorização baseada em chave e, em vez disso, usar a ID do Microsoft Entra.

Gravidade: Alta

A ID do Microsoft Entra deve ser usada ao se conectar a armazenamentos de dados no projeto do Azure AI Foundry

descrição do : o Defender para Nuvem identificou o acesso baseado em credencial ao se conectar à conta de armazenamento no projeto do Azure AI Foundry. Isso representa um risco de acesso não autorizado. Para reduzir o risco de acesso não autorizado, você deve desabilitar a autorização baseada em chave e, em vez disso, usar a ID do Microsoft Entra.

Gravidade: Alta

O Application Insights deve ser usado no Azure AI Foundry

descrição do : Defender para Nuvem identificou que o Application Insights não está configurado no Azure AI Foundry. A AI Foundry usa o Azure Application Insights para armazenar informações de monitoramento sobre seus modelos implantados. Isso representa um risco de detecção de ameaças atrasada e resposta ineficaz a incidentes.

Gravidade: Média

As conexões de rede devem ser limitadas no Azure AI Foundry

descrição do : Acesso à rede pública identificado pelo Defender para Nuvem habilitado para todas as redes no Azure AI Foundry. Isso representa um risco de exposição a ameaças externas e pode resultar em acesso não autorizado e violações de dados. Ao restringir o acesso à rede, você pode garantir que somente redes permitidas possam acessar o serviço.

Gravidade: Média

(Habilitar se necessário) As chaves gerenciadas pelo cliente devem ser usadas para criptografar dados no Azure AI Foundry

descrição do : Defender para Nuvem identificou que as chaves gerenciadas pela Microsoft são usadas para criptografar dados no Azure AI Foundry. Isso representa o risco de não estar em conformidade com as regulamentações para organizações com requisitos de conformidade relacionados. O uso de CMK (chaves gerenciadas pelo cliente) para criptografar dados em repouso fornece mais controle sobre o ciclo de vida da chave, incluindo rotação e gerenciamento, e geralmente é necessário para atender aos padrões de conformidade. Isso não é avaliado por padrão e só deve ser aplicado quando exigido por requisitos de conformidade ou de política restritiva. Se não estiver habilitado, os dados serão criptografados usando chaves gerenciadas pela Microsoft. Para implementar essa recomendação, atualize o parâmetro 'Effect' na Política de Segurança para o escopo aplicável.

Gravidade: Média

Os recursos dos Serviços de IA do Azure devem ter o acesso de chave desabilitado (desabilitar a autenticação local)

Descrição: recomenda-se que o acesso à chave (autenticação local) seja desativado por segurança. O Azure OpenAI Studio, normalmente usado no desenvolvimento/teste, requer acesso à chave e não funcionará se o acesso à chave estiver desabilitado. Depois que a configuração é desabilitada, a ID do Microsoft Entra se torna o único método de acesso, o que permite manter o princípio de privilégio mínimo e o controle granular. Saiba mais.

Essa recomendação substitui a recomendação antiga de que as contas dos Serviços Cognitivos devem ter métodos de autenticação local desabilitados. Anteriormente, ele estava na categoria Serviços Cognitivos e Pesquisa Cognitiva e foi atualizado para cumprir o formato de nomenclatura dos Serviços de IA do Azure e alinhar-se com os recursos relevantes.

Gravidade: Média

Os recursos dos Serviços de IA do Azure devem restringir p acesso à rede

Descrição: ao restringir o acesso à rede, você pode garantir que apenas as redes permitidas possam acessar o serviço. Isso pode ser feito configurando regras de rede para que apenas aplicativos de redes permitidas possam acessar o recurso de serviço de IA do Azure.

Essa recomendação substitui a recomendação antiga de que as contas dos Serviços Cognitivos devem restringir o acesso à rede. Anteriormente, ele estava na categoria Serviços Cognitivos e Pesquisa Cognitiva e foi atualizado para estar em conformidade com o formato de nomenclatura dos Serviços de IA do Azure e se alinhar aos recursos relevantes.

Gravidade: Média

Descrição: o Link Privado do Azure permite que você conecte sua rede virtual aos serviços do Azure sem um endereço IP público na origem ou no destino. A plataforma Link Privado reduz os riscos de vazamento de dados manipulando a conectividade entre o consumidor e os serviços pela rede de backbone do Azure.

Saiba mais sobre links privados em: O que é o Link Privado do Azure?

Essa recomendação substitui a recomendação antiga de que os Serviços Cognitivos devem usar o link privado. Anteriormente, ele estava na categoria Recomendações de dados e foi atualizado para estar em conformidade com o formato de nomenclatura dos Serviços de IA do Azure e se alinhar aos recursos relevantes.

Gravidade: Média

(Habilitar, se necessário) Os recursos dos Serviços de IA do Azure devem criptografar os dados inativos com uma CMK (chave gerenciada pelo cliente)

Descrição: o uso de chaves gerenciadas pelo cliente para criptografar dados em repouso fornece mais controle sobre o ciclo de vida da chave, incluindo rotação e gerenciamento. Isso é particularmente relevante para organizações com requisitos de conformidade relacionados.

Isso não é avaliado por padrão e só deve ser aplicado quando exigido por requisitos de conformidade ou de política restritiva. Se não estiver habilitado, os dados serão criptografados usando chaves gerenciadas pela plataforma. Para implementar isso, atualize o parâmetro "Efeito" na Política de Segurança para o escopo aplicável. (Política relacionada: Os recursos dos Serviços de IA do Azure devem criptografar dados em repouso com uma CMK (chave gerenciada pelo cliente))

Essa recomendação substitui a recomendação antiga As contas de serviços cognitivos devem habilitar a criptografia de dados usando chaves do cliente. Anteriormente, ele estava na categoria Recomendações de dados e foi atualizado para estar em conformidade com o formato de nomenclatura dos Serviços de IA do Azure e se alinhar aos recursos relevantes.

Gravidade: Baixa

Os logs de diagnóstico nos recursos dos serviços de IA do Azure devem ser habilitados

Descrição: habilite logs para recursos de serviços de IA do Azure. Isso permite que você recrie trilhas de atividades para fins de investigação, quando ocorre um incidente de segurança ou sua rede é comprometida.

Essa recomendação substitui a recomendação antiga Os logs de diagnóstico nos serviços de pesquisa devem ser habilitados. Anteriormente, ele estava na categoria Serviços Cognitivos e Pesquisa Cognitiva e foi atualizado para estar em conformidade com o formato de nomenclatura dos Serviços de IA do Azure e se alinhar aos recursos relevantes.

Gravidade: Baixa

Os logs de recursos nos Workspaces do Azure Machine Learning devem estar habilitados (prévia)

Descrição e política relacionada: os logs de recursos permitem a recriação de trilhas de atividades para uso para fins de investigação quando ocorre um incidente de segurança ou quando sua rede é comprometida.

Gravidade: Média

Os Workspaces do Machine Learning devem desabilitar o acesso à rede pública (Visualização Pública)

Descrição e política relacionada: desabilitar o acesso à rede pública melhora a segurança, garantindo que os espaços de trabalho do Machine Learning não sejam expostos na Internet pública. Em vez disso, você pode controlar a exposição dos seus espaços de trabalho criando pontos de extremidade privados. Para obter mais informações, confira Configurar um ponto de extremidade privado para um espaço de trabalho do Azure Machine Learning.

Gravidade: Média

A Computação do Azure Machine Learning deve estar em uma rede virtual (Prévia)

Descrição e política relacionada: as Redes Virtuais do Azure fornecem segurança e isolamento aprimorados para seus Clusters e Instâncias de Computação do Azure Machine Learning, bem como sub-redes, políticas de controle de acesso e outros recursos para restringir ainda mais o acesso. Quando uma computação é configurada com uma rede virtual, ela não é endereçável publicamente e só pode ser acessada a partir de máquinas e aplicativos virtuais dentro da rede virtual.

Gravidade: Média

A Computação do Azure Machine Learning deve ter métodos de autenticação local desabilitados (Prévia)

Descrição e política relacionada: desabilitar métodos de autenticação local melhora a segurança, garantindo que as Computação do Machine Learning exijam identidades do Azure Active Directory exclusivamente para autenticação. Para obter mais informações, confira Controles de conformidade regulatória da política do Azure para o Azure Machine Learning.

Gravidade: Média

As instâncias de computação do Azure Machine Learning devem ser recriadas para obter as atualizações de software mais recentes (Prévia)

Descrição e política relacionada: verifique se as instâncias de computação do Azure Machine Learning são executadas no sistema operacional mais recente disponível. A segurança é melhorada e as vulnerabilidades reduzidas pela execução dos últimos patches de segurança. Para obter mais informações, confira Gerenciamento de vulnerabilidades para o Azure Machine Learning.

Gravidade: Média

Os logs de recursos nos Workspaces do Azure Databricks devem ser habilitados (Prévia)

Descrição e política relacionada: os logs de recursos permitem a recriação de trilhas de atividades para uso para fins de investigação quando ocorre um incidente de segurança ou quando sua rede é comprometida.

Gravidade: Média

Os Workspaces do Azure Databricks devem desabilitar o acesso à rede pública (Prévia)

Descrição e política relacionada: desabilitar o acesso à rede pública melhora a segurança, garantindo que o recurso não seja exposto na Internet pública. Em vez disso, você pode controlar a exposição dos seus recursos criando pontos de extremidade privados. Para obter mais informações, confira Habilitar Link Privado do Azure.

Gravidade: Média

Os Clusters do Azure Databricks devem desabilitar o IP público (Versão prévia)

Descrição e política relacionada: desabilitar o IP público de clusters no Azure Databricks Workspaces melhora a segurança, garantindo que os clusters não sejam expostos na Internet pública. Para obter mais informações, confira Conectividade segura do cluster.

Gravidade: Média

Os Workspaces do Azure Databricks devem estar em uma rede virtual (Prévia)

Descrição e política relacionada: as Redes Virtuais do Azure fornecem segurança e isolamento aprimorados para seus workspaces do Azure Databricks, bem como sub-redes, políticas de controle de acesso e outros recursos para restringir ainda mais o acesso. Para obter mais informações, confira Implantar o Azure Databricks na sua rede virtual do Azure.

Gravidade: Média

Descrição e política relacionada: o Link Privado do Azure permite que você conecte suas redes virtuais aos serviços do Azure sem um endereço IP público na origem ou no destino. A plataforma de Link Privado manipula a conectividade entre o consumidor e os serviços na rede de backbone do Azure. Ao mapear pontos de extremidade privados para workspaces do Azure Databricks, você pode reduzir os riscos de vazamento de dados. Para obter mais informações, confira Criar o espaço de trabalho e os pontos de extremidade privados na interface do usuário do portal do Microsoft Azure.

Gravidade: Média

Recomendações de IA da AWS

Descrição O endpoint da VPC do Amazon Bedrock com tecnologia AWS PrivateLink permite que você estabeleça uma conexão privada entre a VPC em sua conta e a conta de serviço do Amazon Bedrock. O AWS PrivateLink permite que as instâncias da VPC se comuniquem com os recursos de serviço da Bedrock, sem a necessidade de endereços IP públicos, garantindo que seus dados não sejam expostos à Internet pública e, assim, ajudando com seus requisitos de conformidade.

Gravidade Média

Os agentes do AWS Bedrock devem usar proteções ao permitir o acesso a aplicativos de IA generativa

Descrição As proteções para o Amazon Bedrock aumentam a segurança de aplicativos de IA generativa avaliando as entradas do usuário e as respostas geradas pelo modelo. Essas proteções incluem filtros de conteúdo, que ajudam a detectar e filtrar conteúdo nocivo. Especificamente, a categoria "Ataques imediatos" que inclui proteções nos prompts do usuário para evitar jailbreaks e injeções imediatas.

Gravidade Média

O AWS Bedrock deve ter o registro em log de invocação de modelo habilitado

Descrição: com o registro de invocação, você pode coletar os dados completos da solicitação, os dados de resposta e os metadados associados a todas as chamadas realizadas em sua conta. Isso permite recriar trilhas de atividades para fins de investigação quando ocorre um incidente de segurança.

Gravidade: Baixa

Recomendações de IA do GCP

Um ponto de extremidade de serviço privado deve ser usado para pontos de extremidade do Vertex AI Online (versão prévia)

Descrição: O Defender para Nuvem identificou que um ponto de extremidade de Serviço Privado não está configurado nos pontos de extremidade da IA Online do Vértice. As conexões de ponto de extremidade privado impõem a comunicação segura habilitando a conectividade privada com o ponto de extremidade da previsão online. Configure uma conexão de ponto de extremidade privado para habilitar o acesso ao tráfego proveniente apenas de redes conhecidas e impedir o acesso de todos os outros endereços IP.

Gravidade Média

O acesso raiz deve ser desabilitado em instâncias do Workbench (versão prévia)

Descrição: O Defender para Nuvem identificou que o acesso raiz não está desabilitado na instância do GCP Workbench. Para reduzir o risco de danos acidentais ou mal-intencionados no sistema, é essencial desabilitar o acesso raiz em suas instâncias de notebook de IA do Google Cloud Vertex. Essa medida limita os privilégios administrativos dentro das instâncias, garantindo um ambiente mais seguro.

Gravidade Média

Os endereços IP públicos devem ser desabilitados em instâncias do Workbench (versão prévia)

Descrição: O Defender para Nuvem identificou que endereços IP externos foram configurados na instância do GCP Workbench. Para reduzir sua superfície de ataque, as instâncias do Workbench não devem ter endereços IP públicos. Em vez disso, as instâncias devem ser configuradas por trás de balanceadores de carga para minimizar a exposição da instância à Internet

Gravidade Média

(Habilitar se necessário) As chaves gerenciadas pelo cliente devem ser usadas para criptografar dados inativos nos Conjuntos de Dados de IA do Vértice (versão prévia)

Descrição: O Defender para Nuvem identificou que as chaves gerenciadas pelo cliente não estão sendo usadas em Conjuntos de Dados de IA do Vértice. O uso de chaves gerenciadas pelo cliente para criptografar dados inativos oferece mais controle sobre o ciclo de vida da chave, incluindo rotação e gerenciamento. Isso é particularmente relevante para organizações com requisitos de conformidade relacionados. Usando chaves gerenciadas pelo cliente, você pode garantir que seus dados sejam criptografados com chaves que você controla, oferecendo a capacidade de gerenciar e girar essas chaves conforme necessário. Esse controle adicionado pode ajudar a atender aos requisitos de conformidade e aprimorar a segurança de seus dados.

Severidade Baixo

O Monitoramento de Nuvem deve ser usado na instância do GCP Workbench (versão prévia)

Descrição O Defender para Nuvem identificou que o Monitoramento de Nuvem não está habilitado na instância do GCP Workbench. Habilitar o Monitoramento de Nuvem para instâncias de notebook de IA do Google Cloud Vertex é essencial para acompanhar as métricas de desempenho, detectar problemas antecipadamente e garantir a operação ideal por meio de monitoramento e alertas proativos.

Severidade Baixo

O desligamento ocioso deve ser habilitado em instâncias do Workbench (versão prévia)

Descrição O Defender para Nuvem identificou que o desligamento ocioso não está configurado na instância do GCP Workbench. Para otimizar os custos e aprimorar a segurança, verifique se o recurso desligamento ocioso está habilitado para suas instâncias de notebook de IA do Google Cloud Vertex.

Severidade Baixo