Partilhar via


Despleque modelos Microsoft Foundry no portal Foundry

Observação

Este documento refere-se ao portal Microsoft Foundry (clássico).

🔄 Altere para a nova documentação do Microsoft Foundry se estiver a utilizar o novo portal.

Observação

Este documento refere-se ao portal Microsoft Foundry (novo ).

Neste artigo, aprende como usar o portal Foundry para implementar um Modelo Foundry num recurso Foundry para execução de tarefas de inferência. Os Foundry Models incluem modelos como Azure OpenAI, modelos Meta Llama e outros. Depois de implementares um Modelo Foundry, podes interagir com ele usando o Foundry Playground e inferir através de código.

Este artigo utiliza um Modelo de Fundição de parceiros e comunidade Llama-3.2-90B-Vision-Instruct para ilustração. Modelos de parceiros e comunidade exigem que subscreva o Azure Marketplace antes da implementação. Por outro lado, os Foundry Models vendidos diretamente pela Azure, como o Azure Open AI em Foundry Models, não têm este requisito. Para mais informações sobre os Foundry Models, incluindo as regiões onde estão disponíveis para implementação, consulte Foundry Models vendidos diretamente pela Azure e Foundry Models de parceiros e comunidade.

Pré-requisitos

Para concluir este artigo, precisa de:

Implementar um modelo

Implemente um modelo seguindo estes passos no portal Foundry:

  1. Inicie sessão no Microsoft Foundry. Certifica-te de que a opção do New Foundry está desligada. Estes passos referem-se à Foundry (clássica).

    Inicie sessão no Microsoft Foundry. Certifica-te de que a opção New Foundry está ativada. Estes passos referem-se ao Foundry (novo).

  2. Vá à secção de catálogo de modelos no portal da Foundry.

  3. Selecione um modelo e veja os seus detalhes no cartão de modelos. Este artigo usa Llama-3.2-90B-Vision-Instruct para ilustração.

  4. Selecione Usar este modelo.

  5. Para Modelos de Fundição de parceiros e comunidade, tem de subscrever o Azure Marketplace. Este requisito aplica-se a Llama-3.2-90B-Vision-Instruct, por exemplo. Leia os termos de utilização e selecione Concordar e Proceder para aceitar os termos.

    Observação

    Para modelos Foundry vendidos diretamente pela Microsoft Azure, como o modelo Azure OpenAI gpt-4o-mini, não necessita subscrever no Azure Marketplace.

  6. Ajuste as configurações de implantação. Por defeito, a implementação recebe o nome do modelo que está a implementar, mas pode modificar o nome conforme necessário antes de implementar o modelo. Mais tarde, durante a inferência, o nome da implementação é usado no model parâmetro para encaminhar pedidos para esta implementação específica do modelo. Esta convenção permite-lhe configurar nomes específicos para as implementações dos seus modelos.

    Sugestão

    Cada modelo suporta diferentes tipos de implantação, proporcionando várias garantias de localização de dados ou largura de banda. Consulte os tipos de implantação para obter mais detalhes. Neste exemplo, o modelo suporta o tipo de implementação Global Standard.

  7. O portal Foundry seleciona automaticamente o recurso Foundry associado ao seu projeto como recurso Connected AI. Selecione Personalizar para alterar a ligação se necessário. Se estiver a implementar com o tipo de implementação API Serverless, o projeto e o recurso devem estar numa das regiões suportadas para o modelo.

    Captura de tela mostrando como personalizar a implantação, se necessário.

  8. Selecione Implantar. A página de detalhes de implementação do modelo abre-se enquanto a implementação está a ser criada.

  9. Quando a implementação termina, o modelo está pronto para uso. Também pode usar os Foundry Playgrounds para testar o modelo de forma interativa.

Implemente um modelo seguindo estes passos no portal Foundry:

  1. Inicie sessão no Microsoft Foundry. Certifica-te de que a opção do New Foundry está desligada. Estes passos referem-se à Foundry (clássica).

    Inicie sessão no Microsoft Foundry. Certifica-te de que a opção New Foundry está ativada. Estes passos referem-se ao Foundry (novo).

  2. Na página inicial do portal da Foundry, selecione Descobrir no canto superior direito da navegação, depois Modelos no painel esquerdo.

  3. Selecione um modelo e veja os seus detalhes no cartão de modelos. Este artigo usa Llama-3.2-90B-Vision-Instruct para ilustração.

  4. Selecione Definir>definições personalizadas para personalizar a sua implementação. Em alternativa, pode usar as definições predefinidas de implementação selecionando Implementar>definições predefinidas.

  5. Para Modelos de Fundição de parceiros e comunidade, tem de subscrever o Azure Marketplace. Este requisito aplica-se a Llama-3.2-90B-Vision-Instruct, por exemplo. Leia os termos de utilização e selecione Concordar e Proceder para aceitar os termos.

    Observação

    Para modelos Foundry vendidos diretamente pela Microsoft Azure, como o modelo Azure OpenAI gpt-4o-mini, não necessita subscrever no Azure Marketplace.

  6. Ajuste as configurações de implantação. Por defeito, a implementação recebe o nome do modelo que está a implementar, mas pode modificar o nome conforme necessário antes de implementar o modelo. Mais tarde, durante a inferência, o nome da implementação é usado no model parâmetro para encaminhar pedidos para esta implementação específica do modelo. Esta convenção permite-lhe configurar nomes específicos para as implementações dos seus modelos. Selecione Implantar para criar sua implantação.

    Sugestão

    Cada modelo suporta diferentes tipos de implantação, proporcionando várias garantias de localização de dados ou largura de banda. Consulte os tipos de implantação para obter mais detalhes. Neste exemplo, o modelo suporta o tipo de implementação Global Standard.

  7. O portal Foundry implementa automaticamente o seu modelo no recurso Foundry associado ao seu projeto. O seu projeto e recurso devem estar numa das regiões suportadas para implementação do modelo.

  8. Selecione Implantar. Quando a implementação termina, aterras nos Foundry Playgrounds , onde podes testar o modelo de forma interativa.

Gerenciar modelos

Pode gerir as implementações de modelos existentes no recurso usando o portal Foundry.

  1. Vai à secção Modelos + Endpoints no portal Foundry.

  2. O portal agrupa e mostra as implementações dos modelos por recurso. Selecione o modelo de implementação Llama-3.2-90B-Vision-Instruct na secção apropriada para o seu recurso Foundry. Esta ação abre a página de implantação do modelo.

    Captura de ecrã a mostrar a lista de modelos disponíveis numa determinada ligação.

Pode gerir as implementações de modelos existentes no recurso usando o portal Foundry.

  1. Selecione Construir na navegação no canto superior direito.

  2. Selecione Modelos no painel esquerdo para ver a lista de implementações no recurso.

Testar a implantação no playground

Podes interagir com o novo modelo no portal da Foundry usando o parque infantil. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Use o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.

  1. Na página de implantação do modelo, selecione Abrir no playground. Esta ação abre o ambiente de chat com o nome da sua configuração já selecionado.

    Captura de ecrã mostrando como selecionar uma implantação de modelo para usar no playground.

  2. Digite o seu prompt e veja os resultados.

  3. Use View code para ver detalhes sobre como acessar a implantação do modelo programaticamente.

Podes interagir com o novo modelo no portal da Foundry usando o parque infantil. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Use o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.

  1. Da lista de implementações, selecione a implementação Llama-3.2-90B-Vision-Instruct para abrir a página de experimentação.

  2. Digite o seu prompt e veja os resultados.

  3. Selecione o separador Código para ver detalhes sobre como aceder à implementação do modelo de forma programática.

Executar inferência no modelo com código

Para realizar inferências no modelo implementado com exemplos de código, veja os seguintes exemplos:

Disponibilidade regional e limites de cota de um modelo

Para Modelos de Fundição, a quota padrão varia consoante o modelo e a região. Alguns modelos podem estar disponíveis apenas em algumas regiões. Para mais informações sobre disponibilidade e limites de quotas, consulte Azure OpenAI nas quotas e limites dos Microsoft Foundry Models e quotas e limites dos Microsoft Foundry Models.

Cota para implantar e inferir um modelo

Para Foundry Models, a implementação e a inferência consomem quota que o Azure atribui à sua subscrição por região, e por modelo, em unidades de Tokens por Minuto (TPM). Quando se inscreve na Foundry, recebe uma quota padrão para a maioria dos modelos disponíveis. Em seguida, você atribui o TPM a cada implantação à medida que a cria, o que reduz a cota disponível para esse modelo. Você pode continuar a criar implantações e atribuir-lhes TPMs até atingir seu limite de cota.

Quando você atingir seu limite de cota, só poderá criar novas implantações desse modelo se:

  • Pode pedir mais quota ao enviar um formulário de aumento de quota.
  • Ajusta a quota atribuída a outras implementações de modelos no portal Foundry, para libertar tokens para novas implementações.

Para mais informações sobre quotas, consulte as quotas e limites dos modelos Microsoft Foundry e Gerenciar quotas Azure OpenAI.