Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O Microsoft Foundry Models é o destino único para descobrir, avaliar e implantar modelos avançados de IA, seja você criando um copilot personalizado, criando um agente, aprimorando um aplicativo existente ou explorando novos recursos de IA.
Com os Modelos da Foundry, você pode:
- Explore um catálogo avançado de modelos de ponta da Microsoft, OpenAI, DeepSeek, Hugging Face, Meta e muito mais.
- Compare e avalie modelos lado a lado usando tarefas reais e seus próprios dados.
- Implante com confiança, graças às ferramentas internas para ajuste fino, observabilidade e IA responsável.
- Escolha seu caminho: traga seu próprio modelo, use um hospedado ou integre-se perfeitamente aos serviços do Azure.
- Seja você um desenvolvedor, cientista de dados ou arquiteto corporativo, o Foundry Models oferece a flexibilidade e o controle para criar soluções de IA que são dimensionadas de forma segura, responsável e rápida.
A Foundry oferece um catálogo abrangente de modelos de IA. Há mais de 1900 modelos que vão desde modelos de fundação, modelos de raciocínio, modelos de linguagem pequenos, modelos multimodal, modelos específicos de domínio, modelos do setor e muito mais.
Nosso catálogo é organizado em duas categorias principais:
Entender a distinção entre essas categorias ajuda você a escolher os modelos certos com base em seus requisitos específicos e metas estratégicas.
Modelos vendidos diretamente pelo Azure
Estes são modelos hospedados e vendidos pela Microsoft nos Termos de Produto da Microsoft. Esses modelos passaram por uma avaliação rigorosa e estão profundamente integrados ao ecossistema de IA do Azure. Os modelos vêm de uma variedade de provedores principais e oferecem integração aprimorada, desempenho otimizado e suporte direto da Microsoft, incluindo SLAs (Contratos de Nível de Serviço) de nível empresarial.
Características desses modelos diretos:
- Suporte oficial de primeira parte da Microsoft
- Alto nível de integração com serviços e infraestrutura do Azure
- Extensa validação e comparação de desempenho
- Adesão aos padrões de IA Responsável da Microsoft
- Escalabilidade, confiabilidade e segurança de nível empresarial
Esses modelos também têm o benefício da taxa de transferência provisionada substituível, o que significa que você pode usar sua cota e suas reservas de forma flexível em qualquer um desses modelos.
Modelos de parceiros e comunidade
Esses modelos constituem a grande maioria dos Modelos de Fundição. Esses modelos são fornecidos por organizações confiáveis de terceiros, parceiros, laboratórios de pesquisa e colaboradores da comunidade. Esses modelos oferecem funcionalidades de IA especializadas e diversas, abrangendo uma ampla variedade de cenários, setores e inovações.
Características dos modelos de parceiros e da comunidade.
- Desenvolvido e com suporte por parceiros externos e colaboradores da comunidade
- Variedade diversificada de modelos especializados que atendem a casos de nicho ou de uso amplo
- Normalmente validados pelos próprios provedores, com diretrizes de integração fornecidas pelo Azure
- Inovação orientada pela comunidade e disponibilidade rápida de modelos de ponta
- Integração de IA padrão do Azure, com suporte e manutenção gerenciados pelos respectivos provedores
Os modelos podem ser implementados como opções de implementação de Computação Gerenciada ou Standard (pré-pago). O provedor de modelos seleciona como os modelos são implantáveis.
Escolhendo entre modelos diretos e modelos de parceiro e comunidade
Ao selecionar modelos de Foundry Models, considere o seguinte:
- Casos e requisitos de uso: os modelos vendidos diretamente pelo Azure são ideais para cenários que exigem integração profunda do Azure, suporte garantido e SLAs empresariais. Os Modelos de Ecossistema do Azure se destacam em casos de uso especializados e cenários liderados por inovação.
- Expectativas de suporte: os modelos vendidos diretamente pelo Azure vêm com suporte e manutenção robustos fornecidos pela Microsoft. Esses modelos são suportados por seus provedores, com diferentes níveis de SLA e estruturas de suporte.
- Inovação e especialização: modelos de parceiros e comunidade oferecem acesso rápido a inovações especializadas e recursos de nicho geralmente desenvolvidos pelos principais laboratórios de pesquisa e provedores de IA emergentes.
Coleções de modelos
O catálogo de modelos organiza modelos em coleções diferentes:
Modelos do Azure OpenAI disponíveis exclusivamente no Azure: Modelos de destaque do Azure OpenAI disponíveis por meio de uma integração com o Azure OpenAI em Modelos Foundry. A Microsoft dá suporte a esses modelos e seu uso de acordo com os termos do produto e SLA para Azure OpenAI em Foundry Models.
Modelos abertos do hub Hugging Face: centenas de modelos do hub Hugging Face para inferência em tempo real com computação gerenciada. O Hugging Face cria e mantém modelos listados nessa coleção. Para obter ajuda, use o fórum do Hugging Face ou o suporte do Hugging Face. Saiba mais em Implantar modelos abertos com o Foundry.
Você pode enviar uma solicitação para adicionar um modelo ao catálogo de modelos usando este formulário.
Visão geral dos recursos do Catálogo de Modelos
O catálogo de modelos no portal do Foundry é o hub para descobrir e usar uma ampla gama de modelos para criar aplicativos de IA generativos. O catálogo de modelos apresenta centenas de modelos em provedores de modelo, como Azure OpenAI, Mistral, Meta, Cohere, NVIDIA e Hugging Face, incluindo modelos treinados pela Microsoft. Modelos de provedores que a Microsoft não são produtos da Microsoft, conforme definido nos Termos do Produto da Microsoft e estão sujeitos aos termos fornecidos com os modelos.
Você pode pesquisar e descobrir modelos que atendem às suas necessidades por meio de filtros e pesquisa de palavra-chave. O catálogo de modelos também oferece o quadro de classificação de desempenho dos modelos e as métricas de referência para modelos selecionados. Você pode acessá-los selecionando Navegar na tabela de classificação e Comparar modelos. Os dados de parâmetro de comparação também podem ser acessados na guia Parâmetro de comparação do cartão modelo.
Nos filtros do catálogo de modelos, você encontrará:
- Coleção: você pode filtrar modelos com base na coleção de provedores de modelos.
- Setor: você pode filtrar os modelos treinados no conjunto de dados específico do setor.
- Funcionalidades: você pode filtrar características exclusivas do modelo, como raciocínio e uso de ferramentas.
- Opções de implantação: você pode filtrar os modelos que dão suporte a opções de implantação específicas.
- Padrão: essa opção permite que você pague por chamada à API.
- Provisionado: mais adequado para a pontuação em tempo real para um grande volume consistente.
- Lote: mais adequado para trabalhos em lotes com otimização de custo e não latência. Nenhum suporte de playground é fornecido para a implantação em lote.
- Computação gerenciada: essa opção permite implantar um modelo em uma máquina virtual do Azure. Você pagará pelas despesas de hospedagem e processamento de inferências.
- Tarefas de inferência: você pode filtrar modelos com base no tipo de tarefa de inferência.
- Ajustar tarefas: você pode filtrar modelos com base no tipo de tarefa de ajuste fino.
- Licenças: você pode filtrar modelos com base no tipo de licença.
No cartão de modelo, você encontrará:
- Fatos rápidos: você verá as principais informações sobre o modelo rapidamente.
- Detalhes: esta página contém as informações detalhadas sobre o modelo, incluindo descrição, informações de versão, tipo de dados com suporte etc.
- Parâmetros de comparação: você encontrará métricas de parâmetro de comparação de desempenho para modelos selecionados.
- Implantações existentes: se você já implantou o modelo, poderá encontrá-lo na guia Implantações existentes.
- Licença: você encontrará informações legais relacionadas ao licenciamento do modelo.
- Artefatos: essa guia será exibida somente para modelos abertos. Você pode ver os ativos do modelo e baixá-los por meio da interface do usuário.
Implantação de modelo: computação gerenciada e implantações padrão
Além dos modelos do Azure OpenAI, o catálogo de modelos oferece duas maneiras distintas de implantar modelos para seu uso: computação gerenciada e implantações padrão.
As opções de implantação e os recursos disponíveis para cada modelo variam, conforme descrito nas tabelas a seguir. Saiba mais sobre o processamento de dados com as opções de implantação.
Funcionalidades das opções de implantação de modelo
| Características | Computação gerenciada | Implantações padrão |
|---|---|---|
| Experiência de implantação e faturamento | Os pesos do modelo são implantados nas máquinas virtuais dedicadas com computação gerenciada. Uma computação gerenciada, que pode ter uma ou mais implantações, disponibiliza uma API REST para inferência. Você será cobrado pelas horas principais da máquina virtual usadas pelas implantações. | O acesso aos modelos é feito por meio de uma implantação que provisiona uma API para acessar o modelo. A API fornece acesso ao modelo hospedado e gerenciado pela Microsoft para inferência. Você será cobrado por entradas e saídas para as APIs, normalmente em tokens. As informações de preços são fornecidas antes da implantação. |
| Autenticação da API | Chaves e autenticação do Microsoft Entra. | Somente chaves. |
| Segurança de conteúdo | Utilize APIs do serviço Segurança de Conteúdo da IA do Azure. | Os filtros IA do Azure Content Safety estão disponíveis integrados com APIs de inferência. Os filtros da Segurança de Conteúdo da IA do Azure são cobrados separadamente. |
| Isolamento da rede | Configurar redes gerenciadas para hubs do Foundry. | A computação gerenciada segue a configuração do sinalizador de acesso à rede pública (PNA) do seu hub. Para obter mais informações, consulte o isolamento de rede para modelos implantados por meio da seção de implantações padrão mais adiante neste artigo. |
Modelos disponíveis para opções de implantação com suporte
O Catálogo de Modelos oferece duas maneiras distintas de implantar modelos do catálogo para seu uso: computação gerenciada e implantações padrão. As opções de implantação disponíveis para cada modelo variam. Saiba mais sobre os recursos das opções de implantação e as opções disponíveis para modelos específicos nas tabelas abaixo. Saiba mais sobre processamento de dados com as opções de implantação.
| Características | Computação gerenciada | Implantações padrão |
|---|---|---|
| Experiência de implantação e faturamento | Os pesos do modelo são implantados em Máquinas Virtuais dedicadas com pontos de extremidade online gerenciados. O ponto de extremidade online gerenciado, que pode ter uma ou mais implantações, disponibiliza uma API REST para inferência. Você será cobrado pelas horas principais da máquina virtual usadas pelas implantações. | O acesso aos modelos é feito por meio de uma implantação que provisiona uma API para acessar o modelo. A API fornece acesso ao modelo hospedado em um pool central de GPU, gerenciado pela Microsoft, para inferência. Esse modo de acesso é conhecido como "Modelos como Serviço". Você é cobrado pelas entradas e saídas das APIs, normalmente em tokens; as informações sobre preços são fornecidas antes da implantação. |
| Autenticação da API | Chaves e autenticação do Microsoft Entra ID. Saiba mais. | Somente chaves. |
| Segurança de conteúdo | Utilize APIs do serviço Segurança de Conteúdo do Azure. | Os filtros IA do Azure Content Safety estão disponíveis integrados com APIs de inferência. Os filtros da Segurança de Conteúdo de IA do Azure podem ser cobrados separadamente. |
| Isolamento da rede | Rede virtual gerenciada com pontos de extremidade online. Saiba mais. |
Computação gerenciada
A capacidade de implantar modelos com computação gerenciada baseia-se em recursos de plataforma do Azure Machine Learning para habilitar a integração perfeita, em todo o ciclo de vida GenAIOps (às vezes chamado de LLMOps), da ampla coleção de modelos no catálogo de modelos.
Disponibilidade de modelos para implantação como computação gerenciada
Os modelos são disponibilizados por meio de registros do Machine Learning do Azure que permitem a primeira abordagem de ML para hospedar e distribuir ativos de Machine Learning, como pesos de modelo, tempos de execução de contêiner para executar os modelos, pipelines para avaliar e ajustar os modelos e conjuntos de dados para parâmetros de comparação e amostras. Esses registros de ML baseiam-se em uma infraestrutura altamente escalável e pronta para empresas que:
Fornecem artefatos de modelo de acesso de baixa latência para todas as regiões do Azure com replicação geográfica integrada.
Suportam requisitos de segurança empresarial como limitação do acesso a modelos com Azure Policy e implantação segura com redes virtuais gerenciadas.
Implantação de modelos para a inferência com a computação gerenciada
Os modelos disponíveis para implantação com computação gerenciada podem ser implantados em pontos de extremidade online do Azure Machine Learning para inferência em tempo real ou podem ser usados para inferência em lote do Azure Machine Learning para processar seus dados em lote. A implantação na computação gerenciada exige que você tenha a cota de Máquina Virtual em sua Assinatura do Azure para as SKUs específicas necessárias para executar o modelo de maneira ideal. Alguns modelos permitem implantar em cota compartilhada temporariamente para testar o modelo. Saiba mais sobre como implantar modelos:
- Implantar modelos Meta Llama
- Implantar modelos abertos criados pela IA do Azure
- Implantar modelos Hugging Face
Crie aplicativos de IA generativa com a computação gerenciada
O prompt flow oferece recursos para prototipagem, experimentação, iteração e implantação de seus aplicativos de IA. Você pode usar modelos implantados com computação gerenciada no prompt flow com a ferramenta Open Model LLM. Você também pode usar a API REST exposta pelas computações gerenciadas em ferramentas LLM populares como LangChain com a extensão do Azure Machine Learning.
Segurança de conteúdo para modelos implantados como computação gerenciada
O serviço AACS (Segurança de Conteúdo de IA do Azure) está disponível para uso com modelos implantados para computação gerenciada na tela para várias categorias de conteúdo prejudicial, como conteúdo sexual, violência, ódio e automutilação e ameaças avançadas, como Detecção de risco de jailbreak e Detecção de texto material protegido. Você pode consultar este notebook para integração de referência com a AACS para Llama 2 ou usar a ferramenta de Segurança de Conteúdo (Texto) no Prompt Flow para passar as respostas do modelo para a AACS para triagem. Você será cobrado separadamente de acordo com os preços da AACS para tal uso.
Implantações padrão com cobrança Standard
Determinados modelos no catálogo de modelos podem ser implantados como implantações padrão com cobrança Standard; esse método de implantação é chamado de implantações padrão. Os modelos disponíveis por meio do MaaS são hospedados na infraestrutura gerenciada pela Microsoft, o que permite o acesso baseado em API ao modelo do provedor de modelos. O acesso baseado em API pode reduzir drasticamente o custo de acesso a um modelo e simplificar significativamente a experiência de provisionamento. A maioria dos modelos MaaS vem com preços baseados em tokens.
Como os modelos de terceiros são disponibilizados no MaaS?
Os modelos disponíveis para implantação como implantações padrão com cobrança Standard são oferecidos pelo provedor de modelo, mas hospedados na infraestrutura do Azure gerenciada pela Microsoft e acessados por meio da API. Os fornecedores de modelos definem os termos de licença e definem o preço de utilização dos seus modelos, enquanto o Serviço do Azure Machine Learning gere a infraestrutura de Hosting, disponibiliza as APIs de inferência e atua como processador de dados para pedidos enviados e saída de conteúdo por modelos implantados através de MaaS. Saiba mais sobre processamento de dados para MaaS no artigo privacidade de dados.
Observação
As assinaturas do CSP (Provedor de Soluções na Nuvem) não têm a capacidade de comprar modelos de implantação padrão.
Faturamento
A experiência de descoberta, assinatura e consumo para modelos implantados por meio do MaaS está no portal do Foundry e no Azure Machine Learning Studio. Os usuários aceitam termos de licença para uso dos modelos. As informações de preços para consumo são fornecidas durante a implantação.
Modelos de provedores que não são da Microsoft são cobrados por meio do Azure Marketplace, de acordo com o Termos de Uso do Marketplace Comercial da Microsoft.
Os modelos da Microsoft são cobrados por meio de medidores do Azure como Serviços de Consumo de Primeira Parte. Conforme descrito nos Termos do Produto, você compra Serviços de Consumo de Primeira Parte usando medidores do Azure, mas eles não estão sujeitos aos termos de serviço do Azure. O uso desses modelos está sujeito aos termos de licença fornecidos.
Modelos de ajuste fino
Quanto aos modelos que estão disponíveis pelo MaaS e dão suporte ao ajuste fino, os usuários podem aproveitar o ajuste fino hospedado com a cobrança Standard para adaptarem os modelos usando os dados fornecidos. Para obter mais informações, confira ajustar um modelo Llama 2 no portal da Fábrica.
RAG com modelos implantados como implantações padrão
A Foundry permite que os usuários usem Índices Vetoriais e Geração Aumentada por Recuperação. Modelos que podem ser implantados como implantações padrão podem ser usados para gerar inserções e inferências com base em dados personalizados para gerar respostas específicas para seu caso de uso. Para obter mais informações, veja Geração aumentada de recuperação e índices.
Disponibilidade regional de ofertas e modelos
A cobrança padrão está disponível somente para usuários cuja assinatura do Azure pertence a uma conta de cobrança em um país/região em que o provedor de modelo disponibilizou a oferta. Se a oferta estiver disponível na região relevante, o usuário precisará ter um Hub/Projeto na região do Azure em que o modelo está disponível para implantação ou ajuste fino, conforme aplicável. Consulte a disponibilidade de região para modelos em implantações padrão para obter informações detalhadas.
Segurança de conteúdo para modelos implantados por meio de implantações padrão
Importante
Esse recurso está atualmente em versão prévia pública. Essa versão prévia é fornecida sem um contrato de nível de serviço e não é recomendada para cargas de trabalho de produção. Alguns recursos podem não ter suporte ou podem ter restrição de recursos.
Para obter mais informações, consulte Termos de Uso Complementares para Versões Prévias do Microsoft Azure.
Para modelos de linguagem implantados por meio da API sem servidor, a IA do Azure implementa uma configuração padrão de filtros de moderação de texto de Segurança de Conteúdo de IA do Azure que detectam conteúdo prejudicial, como ódio, automutilação, conteúdo sexual e violento. Para saber mais sobre filtragem de conteúdo, consulte Diretrizes e controles para Modelos Vendidos Diretamente pela Azure.
Dica
A filtragem de conteúdo não está disponível para determinados tipos de modelo que são implantados por meio da API sem servidor. Esses tipos de modelo incluem modelos de inserção e modelos de série temporal.
A filtragem de conteúdo ocorre de forma síncrona à medida que o serviço processa solicitações para gerar conteúdo. Você pode ser cobrado separadamente de acordo com os Preços de Segurança de Conteúdo de IA do Azure para tal uso. Você pode desativar a filtragem de conteúdo para endpoints serverless individuais das seguintes formas:
- No momento em que você implanta um modelo de linguagem pela primeira vez
- Posteriormente, ao selecionar a alternância de filtragem de conteúdo na página de detalhes da implantação
Suponha que você decida usar uma API diferente da API de Inferência de Modelo para trabalhar com um modelo implantado por meio de uma API sem servidor. Em tal situação, a filtragem de conteúdo não está habilitada, a menos que você a implemente separadamente usando a Segurança de Conteúdo de IA do Azure.
Para começar a usar a Segurança de Conteúdo de IA do Azure, confira Início Rápido: Analisar conteúdo de texto. Se você não usar a filtragem de conteúdo ao trabalhar com modelos implantados por meio de API serverless, você correrá um risco maior de expor os usuários a conteúdo prejudicial.
Isolamento de rede para os modelos implantados pelas implantações padrão
Os pontos de extremidade dos modelos implantados como implantações padrão seguem a configuração de sinalizador de acesso à rede pública (PNA) do workspace no qual a implantação existe. Para proteger seu ponto de extremidade MaaS, desabilite o sinalizador de PNA no seu espaço de trabalho. Você pode proteger a comunicação enviada por um cliente para o seu ponto de extremidade usando um ponto de extremidade privado para o espaço de trabalho.
Para definir o sinalizador de PNA para o espaço de trabalho:
- Acesse o portal do Azure.
- Procure Azure Machine Learning e selecione seu espaço de trabalho na lista de espaços de trabalho.
- Na página Visão geral, use o painel esquerdo para acessar as Configurações>Rede.
- Na guia Acesso público, você pode definir as configurações para o sinalizador de acesso à rede pública.
- Salve suas alterações. Suas alterações podem levar até cinco minutos para serem propagadas.
Limitações
- Se você tiver um espaço de trabalho com um ponto de extremidade privado criado antes de 11 de julho de 2024, os novos pontos de extremidade MaaS adicionados a esse espaço de trabalho não seguirão a respectiva configuração de rede. Em vez disso, você precisa criar um novo ponto de extremidade privado para o workspace e criar novas implantações padrão no workspace para que as novas implantações possam seguir a configuração de rede do workspace.
- Se você tiver um espaço de trabalho com implantações MaaS criadas antes de 11 de julho de 2024 e habilitar um ponto de extremidade privado nesse espaço de trabalho, as implantações MaaS existentes não seguirão a configuração de rede do espaço de trabalho. Para que as implantações-padrão no ambiente de trabalho sigam sua configuração, você precisa criá-las novamente.
- Atualmente, o suporte a Em Seus Dados não está disponível para implantações MaaS em espaços de trabalhos privados, já que o sinalizador de PNA dos espaços de trabalhos privados são desabilitados.
- Qualquer alteração de configuração de rede (por exemplo, habilitar ou desabilitar o sinalizador de PNA) pode levar até cinco minutos para ser propagada.