Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Observação
Este documento refere-se ao portal Microsoft Foundry (clássico).
🔄 Altere para a nova documentação do Microsoft Foundry se estiver a utilizar o novo portal.
Observação
Este documento refere-se ao portal Microsoft Foundry (novo ).
Neste artigo, aprende como usar o portal Foundry para implementar um Modelo Foundry num recurso Foundry para execução de tarefas de inferência. Os Foundry Models incluem modelos como Azure OpenAI, modelos Meta Llama e outros. Depois de implementares um Modelo Foundry, podes interagir com ele usando o Foundry Playground e inferir através de código.
Este artigo utiliza um Modelo de Fundição de parceiros e comunidade Llama-3.2-90B-Vision-Instruct para ilustração. Modelos de parceiros e comunidade exigem que subscreva o Azure Marketplace antes da implementação. Por outro lado, os Foundry Models vendidos diretamente pela Azure, como o Azure Open AI em Foundry Models, não têm este requisito. Para mais informações sobre os Foundry Models, incluindo as regiões onde estão disponíveis para implementação, consulte Foundry Models vendidos diretamente pela Azure e Foundry Models de parceiros e comunidade.
Pré-requisitos
Para concluir este artigo, precisa de:
Uma subscrição do Azure com um método de pagamento válido. Se você não tiver uma assinatura do Azure, crie uma conta paga do Azure para começar. Se estiveres a usar GitHub Models, podes atualizar para Foundry Models e criar uma subscrição Azure nesse processo.
Acesso ao Microsoft Foundry com as permissões adequadas para criar e gerir recursos.
Um projeto da Microsoft Foundry. Este tipo de projeto é gerido através de um recurso da Foundry.
Os modelos Foundry de parceiros e da comunidade requerem acesso ao Azure Marketplace para criar subscrições. Assegure-se de que possui as permissões necessárias para subscrever ofertas de modelos. Os modelos de fundição vendidos diretamente pelo Azure não têm esse requisito.
Implementar um modelo
Implemente um modelo seguindo estes passos no portal Foundry:
Inicie sessão no Microsoft Foundry. Certifica-te de que a opção do New Foundry está desligada. Estes passos referem-se à Foundry (clássica).
Inicie sessão no Microsoft Foundry. Certifica-te de que a opção New Foundry está ativada. Estes passos referem-se ao Foundry (novo).
Vá à secção de catálogo de modelos no portal da Foundry.
Selecione um modelo e veja os seus detalhes no cartão de modelos. Este artigo usa
Llama-3.2-90B-Vision-Instructpara ilustração.Selecione Usar este modelo.
Para Modelos de Fundição de parceiros e comunidade, tem de subscrever o Azure Marketplace. Este requisito aplica-se a
Llama-3.2-90B-Vision-Instruct, por exemplo. Leia os termos de utilização e selecione Concordar e Proceder para aceitar os termos.Observação
Para modelos Foundry vendidos diretamente pela Microsoft Azure, como o modelo Azure OpenAI
gpt-4o-mini, não necessita subscrever no Azure Marketplace.Ajuste as configurações de implantação. Por defeito, a implementação recebe o nome do modelo que está a implementar, mas pode modificar o nome conforme necessário antes de implementar o modelo. Mais tarde, durante a inferência, o nome da implementação é usado no
modelparâmetro para encaminhar pedidos para esta implementação específica do modelo. Esta convenção permite-lhe configurar nomes específicos para as implementações dos seus modelos.Sugestão
Cada modelo suporta diferentes tipos de implantação, proporcionando várias garantias de localização de dados ou largura de banda. Consulte os tipos de implantação para obter mais detalhes. Neste exemplo, o modelo suporta o tipo de implementação Global Standard.
O portal Foundry seleciona automaticamente o recurso Foundry associado ao seu projeto como recurso Connected AI. Selecione Personalizar para alterar a ligação se necessário. Se estiver a implementar com o tipo de implementação API Serverless, o projeto e o recurso devem estar numa das regiões suportadas para o modelo.
Selecione Implantar. A página de detalhes de implementação do modelo abre-se enquanto a implementação está a ser criada.
Quando a implementação termina, o modelo está pronto para uso. Também pode usar os Foundry Playgrounds para testar o modelo de forma interativa.
Implemente um modelo seguindo estes passos no portal Foundry:
Inicie sessão no Microsoft Foundry. Certifica-te de que a opção do New Foundry está desligada. Estes passos referem-se à Foundry (clássica).
Inicie sessão no Microsoft Foundry. Certifica-te de que a opção New Foundry está ativada. Estes passos referem-se ao Foundry (novo).
Na página inicial do portal da Foundry, selecione Descobrir no canto superior direito da navegação, depois Modelos no painel esquerdo.
Selecione um modelo e veja os seus detalhes no cartão de modelos. Este artigo usa
Llama-3.2-90B-Vision-Instructpara ilustração.Selecione Definir>definições personalizadas para personalizar a sua implementação. Em alternativa, pode usar as definições predefinidas de implementação selecionando Implementar>definições predefinidas.
Para Modelos de Fundição de parceiros e comunidade, tem de subscrever o Azure Marketplace. Este requisito aplica-se a
Llama-3.2-90B-Vision-Instruct, por exemplo. Leia os termos de utilização e selecione Concordar e Proceder para aceitar os termos.Observação
Para modelos Foundry vendidos diretamente pela Microsoft Azure, como o modelo Azure OpenAI
gpt-4o-mini, não necessita subscrever no Azure Marketplace.Ajuste as configurações de implantação. Por defeito, a implementação recebe o nome do modelo que está a implementar, mas pode modificar o nome conforme necessário antes de implementar o modelo. Mais tarde, durante a inferência, o nome da implementação é usado no
modelparâmetro para encaminhar pedidos para esta implementação específica do modelo. Esta convenção permite-lhe configurar nomes específicos para as implementações dos seus modelos. Selecione Implantar para criar sua implantação.Sugestão
Cada modelo suporta diferentes tipos de implantação, proporcionando várias garantias de localização de dados ou largura de banda. Consulte os tipos de implantação para obter mais detalhes. Neste exemplo, o modelo suporta o tipo de implementação Global Standard.
O portal Foundry implementa automaticamente o seu modelo no recurso Foundry associado ao seu projeto. O seu projeto e recurso devem estar numa das regiões suportadas para implementação do modelo.
Selecione Implantar. Quando a implementação termina, aterras nos Foundry Playgrounds , onde podes testar o modelo de forma interativa.
Gerenciar modelos
Pode gerir as implementações de modelos existentes no recurso usando o portal Foundry.
Vai à secção Modelos + Endpoints no portal Foundry.
O portal agrupa e mostra as implementações dos modelos por recurso. Selecione o modelo de implementação Llama-3.2-90B-Vision-Instruct na secção apropriada para o seu recurso Foundry. Esta ação abre a página de implantação do modelo.
Pode gerir as implementações de modelos existentes no recurso usando o portal Foundry.
Selecione Construir na navegação no canto superior direito.
Selecione Modelos no painel esquerdo para ver a lista de implementações no recurso.
Testar a implantação no playground
Podes interagir com o novo modelo no portal da Foundry usando o parque infantil. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Use o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.
Podes interagir com o novo modelo no portal da Foundry usando o parque infantil. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Use o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.
Da lista de implementações, selecione a implementação Llama-3.2-90B-Vision-Instruct para abrir a página de experimentação.
Digite o seu prompt e veja os resultados.
Selecione o separador Código para ver detalhes sobre como aceder à implementação do modelo de forma programática.
Executar inferência no modelo com código
Para realizar inferências no modelo implementado com exemplos de código, veja os seguintes exemplos:
Para usar a API de Respostas com Modelos Foundry vendidos diretamente pelo Azure, como modelos Microsoft AI, DeepSeek e Grok, veja Como gerar respostas textuais com Modelos Microsoft Foundry.
Para usar a API Responses com modelos OpenAI, consulte Começar com a API Responses.
Para usar a API de completação de chat com modelos vendidos por parceiros, como o modelo Llama implementado neste artigo, veja suporte de modelos para completações de chat.
Disponibilidade regional e limites de cota de um modelo
Para Modelos de Fundição, a quota padrão varia consoante o modelo e a região. Alguns modelos podem estar disponíveis apenas em algumas regiões. Para mais informações sobre disponibilidade e limites de quotas, consulte Azure OpenAI nas quotas e limites dos Microsoft Foundry Models e quotas e limites dos Microsoft Foundry Models.
Cota para implantar e inferir um modelo
Para Foundry Models, a implementação e a inferência consomem quota que o Azure atribui à sua subscrição por região, e por modelo, em unidades de Tokens por Minuto (TPM). Quando se inscreve na Foundry, recebe uma quota padrão para a maioria dos modelos disponíveis. Em seguida, você atribui o TPM a cada implantação à medida que a cria, o que reduz a cota disponível para esse modelo. Você pode continuar a criar implantações e atribuir-lhes TPMs até atingir seu limite de cota.
Quando você atingir seu limite de cota, só poderá criar novas implantações desse modelo se:
- Pode pedir mais quota ao enviar um formulário de aumento de quota.
- Ajusta a quota atribuída a outras implementações de modelos no portal Foundry, para libertar tokens para novas implementações.
Para mais informações sobre quotas, consulte as quotas e limites dos modelos Microsoft Foundry e Gerenciar quotas Azure OpenAI.