Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Este artigo lista todas as recomendações de segurança de IA que você pode ver no Microsoft Defender for Cloud.
As recomendações que aparecem em seu ambiente são baseadas nos recursos que você está protegendo e em sua configuração personalizada. Pode ver as recomendações no portal que se aplicam aos seus recursos.
Para saber mais sobre as ações que você pode tomar em resposta a essas recomendações, consulte Corrigir recomendações no Defender for Cloud.
Recomendações do Azure
A ID do Microsoft Entra deve ser usada ao conectar o Azure AI Foundry à conta de armazenamento padrão
Descrição: Defender for Cloud identificou o acesso baseado em credenciais ao se conectar à conta de armazenamento padrão no Azure AI Foundry. Isso representa um risco de acesso não autorizado. Para reduzir o risco de acesso não autorizado, você deve desabilitar a autorização baseada em chave e, em vez disso, usar o Microsoft Entra ID.
Gravidade: Alta
O Microsoft Entra ID deve ser usado ao se conectar a armazenamentos de dados no projeto Azure AI Foundry
Descrição: Defender for Cloud identificou o acesso baseado em credenciais ao se conectar à conta de armazenamento no projeto Azure AI Foundry. Isso representa um risco de acesso não autorizado. Para reduzir o risco de acesso não autorizado, você deve desabilitar a autorização baseada em chave e, em vez disso, usar o Microsoft Entra ID.
Gravidade: Alta
O Application Insights deve ser usado no Azure AI Foundry
Descrição: Defender for Cloud identificou que o Application insights não está configurado no Azure AI Foundry. O AI Foundry usa o Azure Application Insights para armazenar informações de monitoramento sobre seus modelos implantados. Isso representa um risco de atraso na deteção de ameaças e resposta ineficaz a incidentes.
Gravidade: Média
As conexões de rede devem ser limitadas no Azure AI Foundry
Descrição: Defender for Cloud identificou o acesso à rede pública habilitado para todas as redes no Azure AI Foundry. Isso representa um risco de exposição a ameaças externas e pode resultar em acesso não autorizado e violações de dados. Ao restringir o acesso à rede, você pode garantir que apenas as redes permitidas possam acessar o serviço.
Gravidade: Média
(Ativar, se necessário) As chaves gerenciadas pelo cliente devem ser usadas para criptografar dados no Azure AI Foundry
Descrição: Defender for Cloud identificou que as chaves gerenciadas pela Microsoft são usadas para criptografar dados no Azure AI Foundry. Isso representa um risco de não conformidade com os regulamentos para organizações com requisitos de conformidade relacionados. O uso de chaves gerenciadas pelo cliente (CMK) para criptografar dados em repouso fornece mais controle sobre o ciclo de vida da chave, incluindo rotação e gerenciamento, e muitas vezes é necessário para atender aos padrões de conformidade. Isso não é avaliado por padrão e só deve ser aplicado quando exigido por requisitos de conformidade ou de política restritiva. Se não estiver habilitado, os dados serão criptografados usando chaves gerenciadas pela Microsoft. Para implementar esta recomendação, atualize o parâmetro 'Effect' na Política de Segurança para o âmbito aplicável.
Gravidade: Média
Os recursos dos Serviços de IA do Azure devem ter o acesso à chave desabilitado (desabilitar a autenticação local)
Descrição: Recomenda-se que o acesso à chave (autenticação local) seja desativado por segurança. O Azure OpenAI Studio, normalmente usado em desenvolvimento/teste, requer acesso de chave e não funcionará se o acesso à chave estiver desabilitado. Depois que a configuração é desabilitada, o Microsoft Entra ID se torna o único método de acesso, que permite manter o princípio de privilégio mínimo e o controle granular. Mais informações.
Esta recomendação substitui a recomendação antiga As contas dos Serviços Cognitivos devem ter os métodos de autenticação local desativados. Anteriormente, estava na categoria Serviços Cognitivos e Pesquisa Cognitiva e foi atualizado para estar em conformidade com o formato de nomenclatura dos Serviços de IA do Azure e alinhar-se com os recursos relevantes.
Gravidade: Média
Os recursos dos Serviços de IA do Azure devem restringir o acesso à rede
Descrição: Ao restringir o acesso à rede, você pode garantir que apenas as redes permitidas possam acessar o serviço. Isso pode ser alcançado configurando regras de rede para que apenas aplicativos de redes permitidas possam acessar o recurso de serviço de IA do Azure.
Esta recomendação substitui a antiga recomendação de que as contas dos Serviços Cognitivos devem restringir o acesso à rede. Anteriormente, estava na categoria Serviços Cognitivos e Pesquisa Cognitiva e foi atualizado para estar em conformidade com o formato de nomenclatura dos Serviços de IA do Azure e alinhar-se com os recursos relevantes.
Gravidade: Média
Os recursos dos Serviços de IA do Azure devem usar o Azure Private Link
Descrição: O Azure Private Link permite conectar sua rede virtual aos serviços do Azure sem um endereço IP público na origem ou no destino. A plataforma Private Link reduz os riscos de fuga de dados ao lidar com a conectividade entre o consumidor e os serviços através da rede de backbone do Azure.
Saiba mais sobre links privados em: O que é o Azure Private Link?
Esta recomendação substitui a antiga recomendação de que os Serviços Cognitivos devem usar link privado. Anteriormente, estava na categoria Recomendações de dados e foi atualizado para estar em conformidade com o formato de nomenclatura dos Serviços de IA do Azure e alinhá-lo com os recursos relevantes.
Gravidade: Média
(Ativar, se necessário) Os recursos dos Serviços de IA do Azure devem criptografar dados em repouso com uma chave gerenciada pelo cliente (CMK)
Descrição: O uso de chaves gerenciadas pelo cliente para criptografar dados em repouso fornece mais controle sobre o ciclo de vida da chave, incluindo rotação e gerenciamento. Isso é particularmente relevante para organizações com requisitos de conformidade relacionados.
Isso não é avaliado por padrão e só deve ser aplicado quando exigido por requisitos de conformidade ou de política restritiva. Se não estiverem habilitados, os dados serão criptografados usando chaves gerenciadas pela plataforma. Para implementar isso, atualize o parâmetro 'Effect' na Política de Segurança para o escopo aplicável. (Política relacionada: Os recursos dos Serviços de IA do Azure devem criptografar dados em repouso com uma chave gerenciada pelo cliente (CMK))
Esta recomendação substitui a antiga recomendação : as contas de serviços cognitivos devem permitir a encriptação de dados utilizando chaves de cliente. Anteriormente, estava na categoria Recomendações de dados e foi atualizado para estar em conformidade com o formato de nomenclatura dos Serviços de IA do Azure e alinhá-lo com os recursos relevantes.
Gravidade: Baixa
Os logs de diagnóstico nos recursos dos serviços de IA do Azure devem ser habilitados
Descrição: habilite logs para recursos de serviços de IA do Azure. Isso permite que você recrie trilhas de atividade para fins de investigação, quando ocorre um incidente de segurança ou sua rede é comprometida.
Esta recomendação substitui a recomendação antiga Os logs de diagnóstico nos serviços de Pesquisa devem ser habilitados. Anteriormente, estava na categoria Serviços Cognitivos e Pesquisa Cognitiva e foi atualizado para estar em conformidade com o formato de nomenclatura dos Serviços de IA do Azure e alinhá-lo com os recursos relevantes.
Gravidade: Baixa
Os logs de recursos nos Espaços de Trabalho do Azure Machine Learning devem ser habilitados (Visualização)
Descrição da política relacionada a s.: os logs de recursos permitem a recriação de trilhas de atividade para uso para fins de investigação quando ocorre um incidente de segurança ou quando sua rede é comprometida.
Gravidade: Média
Os Espaços de Trabalho do Azure Machine Learning devem desativar o acesso à rede pública (Pré-visualização)
Descrição Política relacionada a s.: A desativação do acesso à rede pública melhora a segurança, garantindo que os espaços de trabalho de Machine Learning não sejam expostos na Internet pública. Em vez disso, você pode controlar a exposição de seus espaços de trabalho criando pontos de extremidade privados. Para obter mais informações, consulte Configurar um ponto de extremidade privado para um espaço de trabalho do Azure Machine Learning.
Gravidade: Média
Os Cálculos do Azure Machine Learning devem estar em uma rede virtual (Visualização)
Descrição da política relacionada a s.: as Redes Virtuais do Azure fornecem segurança e isolamento aprimorados para seus Clusters e Instâncias de Computação do Azure Machine Learning, bem como sub-redes, políticas de controle de acesso e outros recursos para restringir ainda mais o acesso. Quando uma computação é configurada com uma rede virtual, ela não é endereçável publicamente e só pode ser acessada de máquinas virtuais e aplicativos dentro da rede virtual.
Gravidade: Média
Os Cálculos do Azure Machine Learning devem ter métodos de autenticação local desativados (Pré-visualização)
Descrição Política relacionada a s.: A desativação de métodos de autenticação local melhora a segurança, garantindo que os Cálculos de Aprendizado de Máquina exijam identidades do Azure Ative Directory exclusivamente para autenticação. Para obter mais informações, consulte Controles de conformidade regulatória da política do Azure para o Azure Machine Learning.
Gravidade: Média
As instâncias de computação do Azure Machine Learning devem ser recriadas para obter as atualizações de software mais recentes (Pré-visualização)
Descrição da política relacionada ao Azure: garanta que as instâncias de computação do Aprendizado de Máquina do Azure sejam executadas no sistema operacional disponível mais recente. A segurança é melhorada e as vulnerabilidades reduzidas através da execução com os patches de segurança mais recentes. Para obter mais informações, consulte Gerenciamento de vulnerabilidades para o Azure Machine Learning.
Gravidade: Média
Os logs de recursos no Azure Databricks Workspaces devem ser habilitados (Visualização)
Descrição da política relacionada a s.: os logs de recursos permitem a recriação de trilhas de atividade para uso para fins de investigação quando ocorre um incidente de segurança ou quando sua rede é comprometida.
Gravidade: Média
Os Espaços de Trabalho do Azure Databricks devem desativar o acesso à rede pública (Pré-visualização)
Descrição Política relacionada a s.: A desativação do acesso à rede pública melhora a segurança, garantindo que o recurso não seja exposto na Internet pública. Em vez disso, você pode controlar a exposição de seus recursos criando pontos de extremidade privados. Para obter mais informações, consulte Habilitar o link privado do Azure.
Gravidade: Média
Os Clusters do Azure Databricks devem desativar o IP público (Pré-visualização)
Descrição Política relacionada a s.: A desativação do IP público de clusters nos Espaços de Trabalho do Azure Databricks melhora a segurança, garantindo que os clusters não sejam expostos na Internet pública. Para obter mais informações, consulte Conectividade segura de cluster.
Gravidade: Média
Os Espaços de Trabalho do Azure Databricks devem estar em uma rede virtual (Visualização)
Descrição da política relacionada a s.: as Redes Virtuais do Azure fornecem segurança e isolamento aprimorados para seus Espaços de Trabalho do Azure Databricks, bem como sub-redes, políticas de controle de acesso e outros recursos para restringir ainda mais o acesso. Para obter mais informações, consulte Implantar o Azure Databricks em sua rede virtual do Azure.
Gravidade: Média
Os Espaços de Trabalho do Azure Databricks devem usar link privado (Visualização)
Descrição da política relacionada a s.: o Azure Private Link permite conectar suas redes virtuais aos serviços do Azure sem um endereço IP público na origem ou no destino. A plataforma Private Link lida com a conectividade entre o consumidor e os serviços através da rede de backbone do Azure. Ao mapear pontos de extremidade privados para espaços de trabalho do Azure Databricks, você pode reduzir os riscos de vazamento de dados. Para obter mais informações, consulte Criar o espaço de trabalho e os pontos de extremidade privados na interface do usuário do portal do Azure.
Gravidade: Média
Recomendações de IA da AWS
O AWS Bedrock deve usar o AWS PrivateLink
Descrição O endpoint da VPC do Amazon Bedrock com tecnologia AWS PrivateLink permite que você estabeleça uma conexão privada entre a VPC em sua conta e a conta de serviço do Amazon Bedrock. O AWS PrivateLink permite que as instâncias de VPC se comuniquem com os recursos do serviço Bedrock, sem a necessidade de endereços IP públicos, garantindo que seus dados não sejam expostos à Internet pública e, assim, ajudando com seus requisitos de conformidade.
Gravidade Média
Os agentes do AWS Bedrock devem usar guarda-corpos ao permitir o acesso a aplicativos generativos de IA
Descrição Os Guardrails para Amazon Bedrock aumentam a segurança de aplicativos de IA generativa avaliando as entradas do usuário e as respostas geradas pelo modelo. Essas proteções incluem filtros de conteúdo, que ajudam a detetar e filtrar conteúdo nocivo. Especificamente, a categoria "Ataques rápidos" que inclui proteções em solicitações do usuário para evitar jailbreaks e injeções de prompt.
Gravidade Média
O AWS Bedrock deve ter o registro de invocação de modelo habilitado
Descrição: Com o registo de invocação, pode recolher os dados completos do pedido, os dados de resposta e os metadados associados a todas as chamadas realizadas na sua conta. Isso permite recriar trilhas de atividade para fins de investigação quando ocorre um incidente de segurança.
Gravidade: Baixa
Recomendações de IA do GCP
Um ponto de extremidade de Serviço Privado deve ser usado para pontos de extremidade Vertex AI Online (Visualização)
Descrição: O Defender for Cloud identificou que um ponto de extremidade de Serviço Privado não está configurado nos pontos de extremidade do Vertex AI Online. As conexões de ponto de extremidade privado impõem uma comunicação segura habilitando a conectividade privada com o ponto de extremidade da previsão online. Configure uma conexão de ponto de extremidade privada para habilitar o acesso ao tráfego proveniente apenas de redes conhecidas e impedir o acesso de todos os outros endereços IP.
Gravidade Média
O acesso raiz deve ser desabilitado em instâncias do Workbench (Visualização)
Descrição: O Defender for Cloud identificou que o acesso raiz não está desativado na instância do GCP Workbench. Para reduzir o risco de danos acidentais ou mal-intencionados ao sistema, é essencial desativar o acesso root em suas instâncias de notebook do Google Cloud Vertex AI. Essa medida limita os privilégios administrativos dentro das instâncias, garantindo um ambiente mais seguro.
Gravidade Média
Os endereços IP públicos devem ser desabilitados em instâncias do Workbench (Visualização)
Descrição: O Defender for Cloud identificou que os endereços IP externos foram configurados na instância do GCP Workbench. Para reduzir a superfície de ataque, as instâncias do Workbench não devem ter endereços IP públicos. Em vez disso, as instâncias devem ser configuradas atrás de balanceadores de carga para minimizar a exposição da instância à Internet
Gravidade Média
(Ativar, se necessário) As chaves gerenciadas pelo cliente devem ser usadas para criptografar dados em repouso no Vertex AI DataSets (Preview)
Descrição: O Defender for Cloud identificou que as chaves gerenciadas pelo cliente não estão sendo usadas nos conjuntos de dados de IA da Vertex. O uso de chaves gerenciadas pelo cliente para criptografar dados em repouso fornece mais controle sobre o ciclo de vida da chave, incluindo rotação e gerenciamento. Isso é particularmente relevante para organizações com requisitos de conformidade relacionados. Usando chaves gerenciadas pelo cliente, você pode garantir que seus dados sejam criptografados com chaves que você controla, dando-lhe a capacidade de gerenciar e girar essas chaves conforme necessário. Esse controle adicional pode ajudar a atender aos requisitos de conformidade e aumentar a segurança de seus dados.
Gravidade Baixo
O Cloud Monitoring deve ser usado na instância do GCP Workbench (Preview)
Descrição O Defender for Cloud identificou que o Cloud Monitoring não está habilitado na instância do GCP Workbench. Habilitar o monitoramento de nuvem para instâncias de notebook de IA do Google Cloud Vertex é essencial para acompanhar métricas de desempenho, detetar problemas antecipadamente e garantir uma operação ideal por meio de monitoramento e alertas proativos.
Gravidade Baixo
O desligamento ocioso deve ser habilitado em instâncias do Workbench (Visualização)
Descrição O Defender for Cloud identificou que o desligamento ocioso não está configurado na instância do GCP Workbench. Para otimizar custos e aumentar a segurança, certifique-se de que o recurso Desligamento ocioso esteja ativado para suas instâncias de notebook do Google Cloud Vertex AI.
Gravidade Baixo