Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
Este documento refere-se ao portal do Microsoft Foundry (clássico ).
🔄 Alterne para a documentação nova do Microsoft Foundry se você estiver usando o novo portal.
Observação
Este documento refere-se ao portal do Microsoft Foundry (novo ).
Neste artigo, você aprenderá a usar o portal do Foundry para implantar um Modelo de Fundação em um recurso de Foundry para uso na execução de tarefas de inferência. Os modelos da plataforma incluem modelos como os da Fundação Azure OpenAI, modelos Meta Llama, e muito mais. Depois de implantar um Modelo de Foundry, você poderá interagir com ele usando o Foundry Playground e fazer inferências sobre ele usando código.
Este artigo usa um Modelo da Fábrica de parceiros e da comunidade Llama-3.2-90B-Vision-Instruct para ilustração. Modelos de parceiros e comunidade exigem que você assine o Azure Marketplace antes da implantação. Por outro lado, os Foundry Models vendidos diretamente pelo Azure, como o Azure Open AI em Foundry Models, não possuem essa exigência. Para obter mais informações sobre os Modelos de Foundry, incluindo as regiões em que eles estão disponíveis para implantação, consulte Modelos de Foundry vendidos diretamente pelo Azure e Modelos de Foundry de parceiros e comunidade.
Pré-requisitos
Para concluir este artigo, você precisa do seguinte:
Uma assinatura do Azure com uma forma de pagamento válida. Caso você não tenha uma assinatura do Azure, crie uma conta paga do Azure para começar. Se você estiver usando modelos do GitHub, poderá atualizar para o Foundry Models e criar uma assinatura do Azure no processo.
Acesso ao Microsoft Foundry com permissões apropriadas para criar e gerenciar recursos.
Um projeto do Microsoft Foundry. Esse tipo de projeto é gerenciado sob um recurso Foundry.
Os Modelos da Fábrica de parceiros e comunidade exigem acesso ao Azure Marketplace para criar assinaturas. Verifique se você possui as permissões necessárias para assinar as ofertas de modelo. Os modelos da Foundry vendidos diretamente pelo Azure não têm esse requisito.
Implantar um modelo
Implante um modelo seguindo estas etapas no portal do Foundry:
Entre no Microsoft Foundry. Certifique-se de que o botão New Foundry está desativado. Essas etapas se referem ao Foundry (clássico).
Entre no Microsoft Foundry. Certifique-se de que a chave New Foundry está ativada. Estas etapas referem-se à Fábrica (novo).
Vá para a seção Catálogo de modelos no portal do Foundry.
Selecione um modelo e examine seus detalhes no cartão de modelo. Este artigo usa
Llama-3.2-90B-Vision-Instructpara ilustração.Selecione Usar este modelo.
Para Modelos da Fábrica de parceiros e da comunidade, é necessário se inscrever no Azure Marketplace. Esse requisito se aplica a
Llama-3.2-90B-Vision-Instruct, por exemplo. Leia os termos de uso e selecione Concordar e Continuar para aceitar os termos.Observação
Para modelos do Foundry vendidos diretamente pelo Azure, como o modelo
gpt-4o-minido Azure OpenAI, você não assina o Azure Marketplace.Defina as configurações de implantação. Por padrão, a implantação recebe o nome do modelo que você está implantando, mas você pode modificar o nome conforme necessário antes de implantar o modelo. Mais tarde, durante a inferência, o nome da implantação será usado no parâmetro
modelpara rotear solicitações para essa implantação de modelo específica. Essa convenção permite que você configure nomes específicos para suas implantações de modelo.Dica
Cada modelo oferece suporte a diferentes tipos de implantação, garantindo diferentes requisitos de localização ou taxa de transferência de dados. Confira os tipos de implantação para obter mais detalhes. Neste exemplo, o modelo dá suporte ao tipo de implantação Global Standard.
O portal do Foundry seleciona automaticamente o recurso Foundry associado ao seu projeto como o recurso de IA Conectada. Selecione Personalizar para alterar a conexão, se necessário. Se você estiver implantando no tipo de implantação de API sem servidor , o projeto e o recurso deverão estar em uma das regiões de implantação com suporte para o modelo.
Selecione Implantar. A página de detalhes da implantação do modelo será aberta enquanto a implantação estiver sendo criada.
Quando a implantação for concluída, o modelo estará pronto para uso. Você também pode usar o Foundry Playgrounds para testar interativamente o modelo.
Implante um modelo seguindo estas etapas no portal do Foundry:
Entre no Microsoft Foundry. Certifique-se de que o botão New Foundry está desativado. Essas etapas se referem ao Foundry (clássico).
Entre no Microsoft Foundry. Certifique-se de que a chave New Foundry está ativada. Estas etapas referem-se à Fábrica (novo).
Na home page do portal do Foundry, selecione Descobrir na navegação superior direita e, em seguida, Modelos no painel esquerdo.
Selecione um modelo e examine seus detalhes no cartão de modelo. Este artigo usa
Llama-3.2-90B-Vision-Instructpara ilustração.Selecione Implantar>Configurações personalizadas para personalizar sua implantação. Como alternativa, você pode usar as configurações de implantação padrão selecionando Implantar>Configurações Padrão.
Para Modelos da Fábrica de parceiros e da comunidade, é necessário se inscrever no Azure Marketplace. Esse requisito se aplica a
Llama-3.2-90B-Vision-Instruct, por exemplo. Leia os termos de uso e selecione Concordar e Continuar para aceitar os termos.Observação
Para modelos do Foundry vendidos diretamente pelo Azure, como o modelo
gpt-4o-minido Azure OpenAI, você não assina o Azure Marketplace.Defina as configurações de implantação. Por padrão, a implantação recebe o nome do modelo que você está implantando, mas você pode modificar o nome conforme necessário antes de implantar o modelo. Mais tarde, durante a inferência, o nome da implantação será usado no parâmetro
modelpara rotear solicitações para essa implantação de modelo específica. Essa convenção permite que você configure nomes específicos para suas implantações de modelo. Selecione Implantar para criar sua implantação.Dica
Cada modelo oferece suporte a diferentes tipos de implantação, garantindo diferentes requisitos de localização ou taxa de transferência de dados. Confira os tipos de implantação para obter mais detalhes. Neste exemplo, o modelo dá suporte ao tipo de implantação Global Standard.
O portal do Foundry implanta automaticamente seu modelo no recurso Foundry associado ao seu projeto. Seu projeto e recurso devem estar em uma das regiões de implantação com suporte para o modelo.
Selecione Implantar. Quando a implantação for concluída, você será levado aos Playgrounds do Foundry, onde poderá experimentar o modelo interativamente.
Gerenciar modelos
Você pode gerenciar as implantações de modelo existentes no recurso usando o portal do Foundry.
Vá para a seção Modelos + Pontos de Extremidade no portal do Foundry.
O portal agrupa e exibe implantações de modelo por recurso. Selecione a implantação do modelo Llama-3.2-90B-Vision-Instruct na seção do recurso Foundry. Essa ação abre a página de implantação do modelo.
Você pode gerenciar as implantações de modelo existentes no recurso usando o portal do Foundry.
Selecione Compilar na navegação superior direita.
Selecione Modelos no painel esquerdo para ver a lista de implantações no recurso.
Testar a implantação no playground
Você pode interagir com o novo modelo no portal do Foundry usando o playground. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Você pode usar o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.
Na página de implantação do modelo, selecione Abrir no ambiente de testes. Essa ação abre o playground do chat com o nome da sua implantação já selecionado.
Digite a solicitação e veja as saídas.
Use Código de exibição para visualizar detalhes sobre como acessar a implantação do modelo programaticamente.
Você pode interagir com o novo modelo no portal do Foundry usando o playground. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Você pode usar o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.
Na lista de implantações, selecione a implantação Llama-3.2-90B-Vision-Instruct para abrir a página do playground.
Digite a solicitação e veja as saídas.
Selecione a guia Código para ver detalhes sobre como acessar a implantação do modelo programaticamente.
Inferência do modelo com código
Para executar a inferência no modelo implantado com exemplos de código, confira os seguintes exemplos:
Para usar a API de Respostas com modelos do Foundry vendidos diretamente pelo Azure, como modelos de IA da Microsoft, DeepSeek e Grok, consulte Como gerar respostas de texto com os Modelos do Microsoft Foundry.
Para usar a API de Respostas com modelos OpenAI, consulte Introdução à API de respostas.
Para usar a API de completamentos de Chat com modelos oferecidos por parceiros, como o modelo Llama implantado neste artigo, consulte Suporte a modelagem para completamentos de chat.
Limites de disponibilidade e cota regionais de um modelo
Para Modelos de Fundição, o limite padrão varia de acordo com o modelo e a região. Determinados modelos só podem estar disponíveis em algumas regiões. Para obter mais informações sobre disponibilidade e limites de cota, consulte cotas e limites do Azure OpenAI em Microsoft Foundry Models e cotas e limites do Microsoft Foundry Models.
Cota para implantar e inferir um modelo
Para Modelos da Fábrica, a implantação e a inferência consomem cota que o Azure atribui à sua assinatura por região e por modelo em unidades de Tokens por Minuto (TPM). Ao se inscrever no Foundry, você recebe a cota padrão para a maioria dos modelos disponíveis. Em seguida, você atribui o TPM a cada implantação à medida que a cria, o que reduz a cota disponível para esse modelo. Você pode continuar criando implantações e atribuindo-lhes TPMs até atingir o limite de cota.
Ao atingir o limite de cota, você só poderá criar novas implantações desse modelo se:
- Solicite mais cota enviando um formulário de aumento de cota.
- Ajuste a cota alocada em outras implementações de modelo no portal do Foundry para liberar tokens para novas implementações.
Para obter mais informações sobre cota, consulte cotas e limites do Microsoft Foundry Models e gerencie a cota do Azure OpenAI.