Compartilhar via


Dados, privacidade e segurança para uso de modelos por meio do Catálogo de Modelos

Esse artigo fornece detalhes sobre como os dados fornecidos por você são processados, usados e armazenados quando você implanta modelos do Catálogo de Modelos. Consulte também o Adendo de Proteção de Dados de Produtos e Serviços Microsoft, que rege o processamento de dados pelos serviços do Azure.

Quais dados são processados para modelos implantados no Azure Machine Learning?

Quando implementa modelos em Azure Machine Learning, os seguintes tipos de dados são processados para fornecer o serviço:

  • Prompts e conteúdo gerado. Os prompts são enviados pelo usuário e o conteúdo (saída) é gerado pelo modelo por meio das operações suportadas pelo modelo. Os prompts podem incluir conteúdo que foi adicionado por meio de geração aumentada de recuperação (RAG), metaprompts ou outras funcionalidades incluídas em um aplicativo.

  • Dados enviados. Para modelos que dão suporte ao ajuste fino, os clientes podem carregar seus dados no Armazenamento de Dados do Azure Machine Learning para uso no ajuste fino.

Gerar saídas de inferência com computação gerenciada

A implantação de modelos na computação gerenciada implanta pesos de modelo em Máquinas Virtuais dedicadas e expõe uma API REST para inferência em tempo real. Saiba mais sobre como implantar modelos do Catálogo de Modelos para computação gerenciada. Você gerencia a infraestrutura para essas computações gerenciadas e os compromissos de dados, privacidade e segurança do Azure se aplicam. Saiba mais sobre as ofertas de conformidade do Azure aplicáveis ao Azure Machine Learning.

Embora os contêineres para "Modelos Vendidos Diretamente pelo Azure" sejam verificados quanto a vulnerabilidades que possam exfiltrar dados, nem todos os modelos disponíveis por meio do catálogo de modelos foram verificados. Para reduzir o risco de exfiltração de dados, você pode proteger sua implantação usando redes virtuais. Siga este link para saber mais. Você também pode usar a Azure Policy para regular os modelos que podem ser implantados pelos seus usuários.

Um diagrama que mostra o ciclo de vida do serviço da plataforma.

Gerar saídas de inferência com implantações padrão

Quando você implanta um modelo do catálogo de modelos (base ou ajustado) como uma implantação padrão para inferência, uma API é provisionada, fornecendo acesso ao modelo hospedado e gerenciado pelo Serviço de Machine Learning do Azure. Saiba mais sobre Modelos como serviço. O modelo processa seus prompts de entrada e gera saídas com base na funcionalidade do modelo, conforme descrito nos detalhes do modelo fornecidos para o modelo. Embora o modelo seja fornecido pelo provedor de modelos e o uso do modelo (e a responsabilidade do provedor de modelos para o modelo e suas saídas) esteja sujeito aos termos de licença fornecidos com o modelo, a Microsoft fornece e gerencia a infraestrutura de hospedagem e o ponto de extremidade da API. Os modelos hospedados em Modelos como Serviço estão sujeitos aos compromissos de dados, privacidade e segurança do Azure. Saiba mais sobre as ofertas de conformidade do Azure aplicáveis ao Azure Machine Learning aqui.

Importante

Esse recurso está atualmente em visualização pública. Essa versão prévia é fornecida sem um contrato de nível de serviço e não é recomendada para cargas de trabalho de produção. Alguns recursos podem não ter suporte ou podem ter restrição de recursos.

Para obter mais informações, consulte Termos de Uso Complementares de Versões Prévias do Microsoft Azure.

A Microsoft atua como processadora de dados para prompts e resultados enviados e gerados por um modelo implantado para implantação padrão. A Microsoft não compartilha esses prompts e saídas com o provedor de modelos, e a Microsoft não usa esses prompts e saídas para treinar ou melhorar os modelos da Microsoft, do provedor de modelos ou de terceiros. Os modelos não têm estado e nenhum prompt ou saída é armazenado no modelo. Se a filtragem de conteúdo (versão prévia) estiver habilitada, os prompts e as saídas serão selecionados para determinadas categorias de conteúdo nocivo pelo serviço de Segurança de Conteúdo da IA do Azure em tempo real; saiba mais sobre como a Segurança de Conteúdo de IA do Azure processa dados aqui. Os prompts e resultados são processados dentro da geografia especificada durante a implantação, mas podem ser processados entre regiões dentro da geografia para fins operacionais (incluindo gerenciamento de desempenho e capacidade).

Um diagrama que mostra o ciclo de serviço do editor modelo.

Conforme explicado durante o processo de implantação de Modelos como Serviço, a Microsoft pode compartilhar informações de contato do cliente e detalhes de transação (incluindo o volume de uso associado à oferta) com o editor do modelo para que ele possa entrar em contato com os clientes sobre o modelo. Saiba mais sobre as informações disponíveis para editores de modelos, siga esse link.

Ajustar um modelo com implantações padrão (Modelos como Serviço)

Se um modelo disponível para implantação padrão der suporte ao aperfeiçoamento, você poderá carregar dados para, ou designar dados já existentes em, um Repositório de Dados do Azure Machine Learning para ajustar o modelo. Em seguida, você pode criar uma implantação padrão para o modelo ajustado. O modelo om ajuste fino não pode ser baixado, mas o modelo om ajuste fino:

  • Está disponível exclusivamente para seu uso;

  • Pode ser duplamente criptografado em repouso (por padrão com criptografia AES-256 da Microsoft e opcionalmente com uma chave gerenciada pelo cliente).

  • Pode ser excluído por você a qualquer momento.

Os dados de treinamento carregados para ajuste fino não são usados para treinar, treinar novamente ou melhorar qualquer modelo da Microsoft ou de terceiros, exceto conforme direcionado por você dentro do serviço.

Processamento de dados para modelos baixados

Se você baixar um modelo do catálogo de modelos, escolherá o local de implantação do modelo e será responsável pelo modo de processamento dos dados ao usar o modelo.

Próximas etapas