Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
O Microsoft Foundry Models é o seu destino único para descobrir, avaliar e implementar modelos de IA poderosos — quer esteja a construir um copilot personalizado, a criar um agente, a melhorar uma aplicação existente ou a explorar novas capacidades de IA.
Com os modelos de fundição, você pode:
- Explore um rico catálogo de modelos de ponta da Microsoft, OpenAI, DeepSeek, Hugging Face, Meta e muito mais.
- Compare e avalie modelos lado a lado usando tarefas do mundo real e seus próprios dados.
- Implante com confiança, graças às ferramentas integradas para ajuste fino, observabilidade e IA responsável.
- Escolha seu caminho: traga seu próprio modelo, use um hospedado ou integre-se perfeitamente aos serviços do Azure.
- Quer seja um programador, cientista de dados ou arquiteto empresarial, a Foundry Models dá-lhe a flexibilidade e o controlo para criar soluções de IA que podem ser dimensionadas de forma segura, responsável e rápida.
A Foundry oferece um catálogo abrangente de modelos de IA. Existem mais de 1900+ modelos que vão desde Modelos de Fundação, Modelos de Raciocínio, Modelos de Linguagem Pequena, Modelos Multimodais, Modelos Específicos de Domínio, Modelos da Indústria e muito mais.
O nosso catálogo está organizado em duas categorias principais:
Compreender a distinção entre estas categorias ajuda-o a escolher os modelos certos com base nos seus requisitos específicos e objetivos estratégicos.
Modelos vendidos diretamente pelo Azure
Estes são modelos que são hospedados e vendidos pela Microsoft sob os Termos de Produto da Microsoft. Esses modelos passaram por uma avaliação rigorosa e estão profundamente integrados ao ecossistema de IA do Azure. Os modelos vêm de uma variedade dos principais fornecedores e oferecem integração aprimorada, desempenho otimizado e suporte direto da Microsoft, incluindo SLAs (Service Level Agreements, contratos de nível de serviço) de nível empresarial.
Características destes modelos diretos:
- Suporte oficial primário da Microsoft
- Alto nível de integração com os serviços e a infraestrutura do Azure
- Benchmarking e validação de desempenho extensivos
- Adesão aos padrões de IA responsável da Microsoft
- Escalabilidade, confiabilidade e segurança de nível empresarial
Esses modelos também têm a vantagem de uma taxa de transferência provisionada e flexível, o que significa que pode utilizar de forma flexível a sua quota e reservas em qualquer um desses modelos.
Modelos de Parceiros e Comunidade
Estes modelos constituem a grande maioria dos Modelos Foundry. Esses modelos são fornecidos por organizações terceirizadas confiáveis, parceiros, laboratórios de pesquisa e colaboradores da comunidade. Esses modelos oferecem recursos de IA especializados e diversificados, cobrindo uma ampla gama de cenários, indústrias e inovações.
Características dos Modelos de Parceiros e Comunidade:
- Desenvolvido e apoiado por parceiros externos e colaboradores da comunidade
- Gama diversificada de modelos especializados que atendem a nichos ou casos de uso amplos
- Normalmente validado pelos próprios provedores, com diretrizes de integração fornecidas pelo Azure
- Inovação impulsionada pela comunidade e rápida disponibilidade de modelos de ponta
- Integração padrão de IA do Azure, com suporte e manutenção gerenciados pelos respetivos provedores
Os modelos podem ser implantados como opções de implantação Managed Compute ou Standard (pay-go). O provedor de modelos seleciona como os modelos podem ser implantados.
Escolher entre modelos diretos e modelos de parceiros e modelos de comunidade
Ao selecionar modelos da Foundry Models, considere o seguinte:
- Caso de uso e requisitos: os modelos vendidos diretamente pelo Azure são ideais para cenários que exigem integração profunda com o Azure, suporte garantido e SLAs corporativos. Os Modelos de Ecossistema do Azure destacam-se em casos de utilização especializados e cenários orientados para a inovação.
- Expectativas de suporte: Os modelos vendidos diretamente pelo Azure vêm com suporte e manutenção robustos fornecidos pela Microsoft. Esses modelos são suportados por seus provedores, com diferentes níveis de SLA e estruturas de suporte.
- Inovação e especialização: os modelos de parceiros e da comunidade oferecem acesso rápido a inovações especializadas e recursos de nicho, muitas vezes desenvolvidos por laboratórios de pesquisa líderes e provedores emergentes de IA.
Coleções de modelos
O catálogo de modelos organiza os modelos em diferentes coleções:
Modelos Azure OpenAI disponíveis exclusivamente no Azure: Modelos Flagship Azure OpenAI disponíveis através de uma integração com Azure OpenAI em Foundry Models. A Microsoft suporta estes modelos e a sua utilização de acordo com os termos do produto e o SLA para Azure OpenAI em Foundry Models.
Modelos abertos do hub Hugging Face: centenas de modelos do hub Hugging Face para inferência em tempo real com computação gerenciada. A Hugging Face cria e mantém modelos listados nesta coleção. Para obter ajuda, use o fórum Hugging Face ou o suporte Hugging Face. Saiba mais em Implementar modelos abertos com a Foundry.
Você pode enviar uma solicitação para adicionar um modelo ao catálogo de modelos usando este formulário.
Visão geral dos recursos do Catálogo de Modelos
O catálogo de modelos no portal Foundry é o ponto de encontro e utilização de uma vasta gama de modelos para construir aplicações de IA generativa. O catálogo de modelos apresenta centenas de modelos em provedores de modelos como Azure OpenAI, Mistral, Meta, Cohere, NVIDIA e Hugging Face, incluindo modelos treinados pela Microsoft. Modelos de fornecedores diferentes da Microsoft são produtos não-Microsoft conforme definido nos Termos de Produto Microsoft e estão sujeitos aos termos fornecidos com os modelos.
Você pode pesquisar e descobrir modelos que atendam às suas necessidades por meio de pesquisa de palavras-chave e filtros. O catálogo de modelos também oferece a tabela de classificação de desempenho do modelo e métricas de benchmark para modelos selecionados. Você pode acessá-los selecionando Procurar tabela de classificação e Comparar modelos. Os dados de referência também podem ser acessados na guia Benchmark do cartão modelo.
Nos filtros do catálogo de modelos, você encontrará:
- Coleção: você pode filtrar modelos com base na coleção do provedor de modelos.
- Setor: você pode filtrar os modelos treinados em conjuntos de dados específicos do setor.
- Recursos: você pode filtrar recursos exclusivos do modelo, como raciocínio e chamada de ferramentas.
- Opções de implantação: você pode filtrar os modelos que oferecem suporte a opções de implantação específicas.
- Padrão: esta opção permite que você pague por chamada de API.
- Provisionado: ideal para a pontuação em tempo real de grandes volumes consistentes.
- Lote: mais adequado para trabalhos em lote com custo otimizado, e não latência. Nenhum suporte para ambiente de teste é fornecido para a implantação em lote.
- Computação gerenciada: essa opção permite implantar um modelo em uma máquina virtual do Azure. Você será cobrado por hospedagem e inferência.
- Tarefas de inferência: você pode filtrar modelos com base no tipo de tarefa de inferência.
- Ajustar tarefas: pode filtrar modelos com base no tipo de tarefa de ajustamento detalhado.
- Licenças: você pode filtrar modelos com base no tipo de licença.
No modelo de cartão, você encontrará:
- Fatos rápidos: você verá as principais informações sobre o modelo em um piscar de olhos.
- Detalhes: esta página contém informações detalhadas sobre o modelo, incluindo descrição, informações de versão, tipo de dados suportado, etc.
- Benchmarks: você encontrará métricas de benchmark de desempenho para modelos selecionados.
- Implantações existentes: se você já implantou o modelo, poderá encontrá-lo na guia Implantações existentes.
- Licença: você encontrará informações legais relacionadas ao licenciamento de modelos.
- Artefactos: este separador será apresentado apenas para modelos abertos. Você pode ver os ativos do modelo e baixá-los através da interface do usuário.
Implantação de modelo: computação gerenciada e implantações padrão
Além dos modelos OpenAI do Azure, o catálogo de modelos oferece duas maneiras distintas de implantar modelos para seu uso: computação gerenciada e implantações padrão.
As opções de implantação e os recursos disponíveis para cada modelo variam, conforme descrito nas tabelas a seguir. Saiba mais sobre o processamento de dados com as opções de implantação.
Capacidades das opções de implantação de modelo
| Caraterísticas | Computação sob gestão | Implantações padrão |
|---|---|---|
| Experiência de implementação e faturação | Os pesos de modelo são implantados em máquinas virtuais dedicadas com computação gerenciada. Uma computação gerenciada, que pode ter uma ou mais implantações, disponibiliza uma API REST para inferência. Você é cobrado pelas horas principais da máquina virtual que as implantações usam. | O acesso aos modelos é feito por meio de uma implementação que aprovisiona uma API para aceder aos mesmos. A API fornece acesso ao modelo que a Microsoft hospeda e gerencia, para inferência. Você é cobrado pelas entradas e saídas para as APIs, geralmente em tokens. As informações de preços são fornecidas antes da implantação. |
| Autenticação de API | Chaves e autenticação Microsoft Entra. | Apenas chaves. |
| Segurança dos Conteúdos | Utilize as APIs do serviço de Segurança de Conteúdo do Azure AI. | Os filtros da Segurança de Conteúdos do Azure AI estão disponíveis integrados nas APIs de inferência. Os filtros de Segurança de Conteúdo do Azure AI são cobrados separadamente. |
| Isolamento de rede | Configurar redes geridas para hubs Foundry. | A computação gerenciada segue a configuração do sinalizador de acesso à rede pública (PNA) do hub. Para obter mais informações, consulte a seção Isolamento de rede para modelos implantados por meio de implantações padrão , mais adiante neste artigo. |
Modelos disponíveis para opções de implementação suportadas
O Catálogo de Modelos oferece duas maneiras distintas de implantar modelos do catálogo para seu uso: computação gerenciada e implantações padrão. As opções de implementação disponíveis para cada modelo variam; saiba mais sobre os recursos das opções de implementação e as opções disponíveis para modelos específicos nas tabelas abaixo. Saiba mais sobre o processamento de dados com as opções de implementação.
| Caraterísticas | Computação sob gestão | Implantações padrão |
|---|---|---|
| Experiência de implementação e faturação | As ponderações de modelo são implementadas em máquinas virtuais dedicadas com pontos finais online geridos. O ponto final online gerido, que pode ter uma ou mais implementações, disponibiliza uma API REST para inferência. São-lhe cobradas as horas principais da Máquina Virtual usadas pelas implementações. | O acesso aos modelos é feito por meio de uma implementação que aprovisiona uma API para aceder aos mesmos. A API fornece acesso ao modelo alojado num conjunto de GPU central, gerido pela Microsoft, para inferência. Este modo de acesso é denominado "Modelos como Serviço". São-lhe cobradas as entradas e saídas para as APIs, geralmente em tokens; as informações de preços são fornecidas antes da implementação. |
| Autenticação de API | Chaves e Autenticação com Microsoft Entra ID. Mais informações. | Apenas chaves. |
| Segurança dos Conteúdos | Use as APIs do serviço de Segurança de Conteúdos do Azure. | Os filtros da Segurança de Conteúdos do Azure AI estão disponíveis integrados nas APIs de inferência. Os filtros de Segurança de Conteúdos do Azure AI podem ser cobrados separadamente. |
| Isolamento de rede | Rede Virtual Gerida com pontos Finais Online. Mais informações. |
Computação sob gestão
A capacidade de implantar modelos com computação gerenciada se baseia nos recursos de plataforma do Aprendizado de Máquina do Azure para permitir a integração perfeita, em todo o ciclo de vida do GenAIOps (às vezes chamado de LLMOps), da ampla coleção de modelos no catálogo de modelos.
Disponibilidade de modelos para implantação como computação gerenciada
Os modelos são disponibilizados através de registos do Azure Machine Learning que permitem a primeira abordagem de ML para alojar e distribuir recursos de Machine Learning, como ponderações de modelos, runtimes de contentores para executar os modelos, pipelines para avaliar e ajustar os modelos e conjuntos de dados para referências e exemplos. Estes Registos de ML baseiam-se numa infraestrutura altamente escalável e pronta para a empresa que:
Fornece artefactos de modelo de acesso de baixa latência para todas as regiões do Azure com replicação geográfica incorporada.
Suporta requisitos de segurança empresarial como limitar o acesso a modelos com o Azure Policy e a implementação de forma segura com redes virtuais geridas.
Implantação de modelos para inferência com computação gerenciada
Os modelos disponíveis para implantação com computação gerenciada podem ser implantados em pontos de extremidade online do Azure Machine Learning para inferência em tempo real ou podem ser usados para inferência em lote do Azure Machine Learning para processar seus dados em lote. A implantação em computação gerenciada exige que você tenha uma cota de Máquina Virtual em sua Assinatura do Azure para as SKUs específicas necessárias para executar o modelo de forma otimizada. Alguns modelos permitem que você implante uma cota compartilhada temporariamente para testar o modelo. Saiba mais sobre a implantação de modelos:
- Implante modelos Meta Llama
- Implantar modelos abertos criados pela IA do Azure
- Implante modelos Hugging Face
Criação de aplicativos de IA generativa com computação gerenciada
O fluxo dos pedidos oferece recursos para prototipar, experimentar, iterar e implementar as suas aplicações de IA. Pode usar modelos implementados na computação gerida no Fluxo de Pedidos com a ferramenta Open Model LLM. Também pode usar a API REST exposta pelas computações geridas em ferramentas de LLM populares, como LangChain, com a extensão Azure Machine Learning.
Segurança de conteúdo para modelos implantados como computação gerenciada
O serviço Azure AI Content Safety (AACS) está disponível para uso com modelos implantados para computação gerenciada para rastrear várias categorias de conteúdo prejudicial, como conteúdo sexual, violência, ódio e automutilação, e ameaças avançadas, como deteção de risco de jailbreak e deteção de texto de material protegido. Você pode consultar este bloco de anotações para integração de referência com o AACS para Llama 2 ou usar a ferramenta Segurança de Conteúdo (Texto) no Prompt Flow para passar respostas do modelo para o AACS para triagem. Você será cobrado separadamente de acordo com os preços da AACS por esse uso.
Implantações padrão com faturamento padrão
Determinados modelos no catálogo de modelos podem ser implantados como implantações padrão com faturamento padrão; Esse método de implantação é chamado de implantações padrão. Os modelos disponíveis por meio do MaaS são hospedados em infraestrutura gerenciada pela Microsoft, o que permite o acesso baseado em API ao modelo do provedor de modelos. O acesso baseado em API pode reduzir drasticamente o custo de acesso a um modelo e simplificar significativamente a experiência de provisionamento. A maioria dos modelos MaaS vem com preços baseados em tokens.
Como os modelos de terceiros são disponibilizados no MaaS?
Os modelos disponíveis para implantação como implantações padrão com cobrança padrão são oferecidos pelo provedor de modelos, mas hospedados na infraestrutura do Azure gerenciada pela Microsoft e acessados via API. Os provedores de modelo definem os termos de licença e definem o preço de uso de seus modelos, enquanto o serviço Azure Machine Learning gerencia a infraestrutura de hospedagem, disponibiliza as APIs de inferência e atua como processador de dados para prompts enviados e saída de conteúdo por modelos implantados via MaaS. Saiba mais sobre o processamento de dados para MaaS no artigo sobre privacidade de dados.
Observação
As assinaturas do Provedor de Soluções na Nuvem (CSP) não têm a capacidade de comprar modelos de implantação padrão.
Faturação
A experiência de descoberta, subscrição e consumo dos modelos implementados via MaaS está disponível no portal Foundry e no Azure Machine Learning Studio. Os usuários aceitam os termos de licença para uso dos modelos. As informações de preços para consumo são fornecidas durante a implantação.
Os modelos de fornecedores que não são da Microsoft são faturados através do Azure Marketplace, de acordo com os Termos de Utilização do Microsoft Commercial Marketplace.
Os modelos da Microsoft são faturados através de contadores do Azure como Serviços de Consumo de Primeira Parte. Conforme descrito nos Termos do Produto, você compra Serviços de Consumo de Primeira Parte usando medidores do Azure, mas eles não estão sujeitos aos termos de serviço do Azure. A utilização destes modelos está sujeita aos termos de licença fornecidos.
Modelos de afinação fina
Para modelos que estão disponíveis por meio de MaaS e suportam ajuste fino, os usuários podem aproveitar o ajuste fino hospedado com faturamento padrão para personalizar os modelos usando os dados que eles fornecem. Para obter mais informações, consulte ajustar um modelo Llama 2no portal Foundry.
RAG com modelos desenvolvidos como implementações padrão
O Foundry permite aos utilizadores utilizar Índices Vetoriais e Geração Aumentada por Recuperação. Os modelos que podem ser implantados como implantações padrão podem ser usados para gerar incorporações e inferências com base em dados personalizados para gerar respostas específicas para seu caso de uso. Para obter mais informações, consulte Recuperação de geração aumentada e índices.
Disponibilidade regional de ofertas e modelos
A cobrança padrão está disponível apenas para usuários cuja assinatura do Azure pertence a uma conta de cobrança em um país/região onde o provedor de modelo disponibilizou a oferta. Se a oferta estiver disponível na região relevante, o usuário deverá ter um Hub/Projeto na região do Azure onde o modelo está disponível para implantação ou ajuste fino, conforme aplicável. Consulte Disponibilidade de região para modelos em implantações padrão para obter informações detalhadas.
Segurança de conteúdo para modelos implantados por meio de implantações padrão
Importante
Esta funcionalidade está atualmente em pré-visualização pública. Esta versão de pré-visualização é fornecida sem um contrato de nível de serviço e não a recomendamos para cargas de trabalho de produção. Algumas funcionalidades poderão não ser suportadas ou poderão ter capacidades limitadas.
Para obter mais informações, veja Termos Suplementares de Utilização para Pré-visualizações do Microsoft Azure.
Para modelos de linguagem implantados por meio de API sem servidor, a IA do Azure implementa uma configuração padrão dos filtros de moderação de texto do Azure AI Content Safety que detetam conteúdo nocivo, como conteúdo de ódio, automutilação, sexual e violento. Para saber mais sobre filtragem de conteúdo, consulte
Sugestão
A filtragem de conteúdo não está disponível para determinados tipos de modelo implantados por meio de API sem servidor. Esses tipos de modelo incluem modelos de incorporação e modelos de séries temporais.
A filtragem de conteúdo ocorre de forma síncrona à medida que o serviço processa prompts para gerar conteúdo. Você pode ser cobrado separadamente de acordo com o preçário do Azure AI Content Safety para esse uso. Você pode desativar a filtragem de conteúdo para pontos de extremidade sem servidor individuais de diversas formas:
- No momento em que você implanta um modelo de idioma pela primeira vez
- Mais tarde, selecionando a opção de filtragem de conteúdo na página de detalhes da implantação
Suponha que você decida usar uma API diferente da API de Inferência de Modelo para trabalhar com um modelo implantado por meio de uma API sem servidor. Nessa situação, a filtragem de conteúdo não é habilitada, a menos que você a implemente separadamente usando a Segurança de Conteúdo do Azure AI.
Para começar a usar o Azure AI Content Safety, consulte Guia de início rápido: analisar conteúdo de texto. Se você não usar a filtragem de conteúdo ao trabalhar com modelos implantados por meio de API sem servidor, correrá um risco maior de expor os usuários a conteúdo prejudicial.
Isolamento de rede para modelos implementados através de implementações padrão
Os pontos de extremidade para modelos implantados em implantações padrão seguem a configuração do sinalizador de acesso à rede pública (PNA) do espaço de trabalho onde a implantação está. Para proteger seu ponto de extremidade MaaS, desative o sinalizador PNA em seu espaço de trabalho. Você pode proteger a comunicação de entrada de um cliente para seu ponto de extremidade usando um ponto de extremidade privado para o espaço de trabalho.
Para definir o sinalizador PNA para o espaço de trabalho:
- Vai para o portal Azure.
- Pesquise o Azure Machine Learning e selecione seu espaço de trabalho na lista de espaços de trabalho.
- Na página Visão geral, use o painel esquerdo para ir para Configurações>de rede.
- Na guia Acesso público, você pode definir configurações para o sinalizador de acesso à rede pública.
- Salve suas alterações. Suas alterações podem levar até cinco minutos para serem propagadas.
Limitações
- Se você tiver um espaço de trabalho com um ponto de extremidade privado criado antes de 11 de julho de 2024, os novos pontos de extremidade MaaS adicionados a esse espaço de trabalho não seguirão sua configuração de rede. Em vez disso, precisa criar um novo endpoint privado para o espaço de trabalho e estabelecer novas implementações padrão no espaço de trabalho, para que estas implementações possam seguir a configuração de rede do espaço de trabalho.
- Se você tiver um espaço de trabalho com implantações MaaS criadas antes de 11 de julho de 2024 e habilitar um ponto de extremidade privado nesse espaço de trabalho, as implantações MaaS existentes não seguirão a configuração de rede do espaço de trabalho. Para que as implantações padrão no espaço de trabalho sigam a configuração do espaço de trabalho, você precisa criar as implantações novamente.
- Atualmente , o suporte On Your Data não está disponível para implantações MaaS em espaços de trabalho privados, uma vez que os espaços de trabalho privados têm o sinalizador PNA desativado.
- Qualquer alteração na configuração da rede (por exemplo, ativar ou desativar o sinalizador PNA) pode levar até cinco minutos para ser propagada.