Compartilhar via


Serviços de IA no Fabric (versão prévia)

Importante

Esse recurso está em pré-visualização.

Os serviços de IA do Azure ajudam os desenvolvedores e as organizações a criar rapidamente aplicativos inteligentes, avançados, prontos para o mercado e responsáveis, com APIs e modelos pré-construídos e personalizáveis. Anteriormente nomeados dos Serviços Cognitivos do Azure, os serviços de IA do Azure capacitam os desenvolvedores mesmo quando eles não têm habilidades diretas de IA ou ciência de dados ou conhecimento. O objetivo dos serviços de IA do Azure é ajudar os desenvolvedores a criar aplicativos que possam ver, ouvir, falar, entender e até mesmo começar a raciocinar.

O Fabric fornece duas opções para usar os serviços de IA do Azure:

  • Modelos de IA Pré-construídos no Fabric (Versão Prévia)

    O Fabric se integra perfeitamente aos serviços de IA do Azure, permitindo que você enriqueça seus dados com modelos de IA predefinidos sem nenhum pré-requisito. Recomendamos essa opção porque você pode usar a autenticação do Fabric para acessar os serviços de IA, e todos os usos são descontados da sua capacidade do Fabric. Essa opção está atualmente em versão prévia pública, com serviços de IA limitados disponíveis.

    O Fabric oferece por padrão o Serviço OpenAI do Azure , Análise de Texto e Tradutor de IA do Azure , com suporte para SynapseML e a API RESTful. Você também pode usar a Biblioteca do OpenAI Python para acessar o serviço Azure OpenAI no Fabric. Para obter mais informações sobre modelos disponíveis, acesse Modelos de IA predefinidos no Fabric.

  • traga sua própria chave (BYOK)

    Você pode provisionar seus serviços de IA no Azure e trazer sua própria chave para usá-los do Fabric. Se os modelos de IA predefinidos ainda não dão suporte aos serviços de IA desejados, você ainda poderá usar BYOK (Traga sua própria chave).

    Para saber mais sobre como usar os serviços de IA do Azure com BYOK, acesse Serviços de IA do Azure no SynapseML com Bring Your Own Key.

Modelos de IA predefinidos no Fabric (versão prévia)

Serviço OpenAI do Azure

API REST, SDK do Python, SynapseML

Análise de Texto

API REST, SynapseML

  • Detecção de idioma: detecta o idioma do texto de entrada
  • Análise de sentimento: retorna uma pontuação entre 0 e 1, para indicar o sentimento no texto de entrada
  • Extração de frase-chave: identifica os principais pontos de discussão no texto de entrada
  • Reconhecimento de entidade PII (informações de identificação pessoal): identificar, categorizar e ocultar informações confidenciais no texto de entrada
  • Reconhecimento de entidade nomeada: identifica entidades conhecidas e entidades nomeadas gerais no texto de entrada
  • Vinculação de entidade: identifica e desambigua a identidade das entidades encontradas no texto

Tradutor de IA do Azure

API REST, SynapseML

  • Traduzir: converte texto
  • Transliteração: converte texto de um idioma, de um sistema de escrita para outro.

Regiões disponíveis

Regiões disponíveis para o Serviço OpenAI do Azure

Para obter a lista de regiões do Azure em que os serviços de IA predefinidos no Fabric agora estão disponíveis, acesse a seção Regiões Disponíveis do artigo Visão Geral de Copilot no Fabric e no Power BI (versão prévia).

Regiões disponíveis para análise de texto e Tradutor de IA do Azure

Os modelos predefinidos de Análise de Texto e o Tradutor de IA do Azure no Fabric agora estão disponíveis para versão prévia pública nas regiões do Azure listadas neste artigo. Se você não encontrar sua região inicial do Microsoft Fabric neste artigo, ainda poderá criar uma capacidade do Microsoft Fabric em uma região com suporte. Para obter mais informações, visite Comprar uma assinatura do Microsoft Fabric. Para determinar sua região inicial do Fabric, visite Localizar sua região inicial do Fabric.

Pacífico Asiático Europa Américas Oriente Médio e África
Leste da Austrália Europa Setentrional Sul do Brasil Norte da África do Sul
Sudeste da Austrália Oeste da Europa Canadá Central Norte dos EAU
Índia Central França Central Leste do Canadá
Ásia Oriental Leste da Noruega Leste dos EUA
Leste do Japão Norte da Suíça Leste dos EUA 2
Coreia Central Oeste da Suíça Centro-Norte dos EUA
Sudeste Asiático Sul do Reino Unido Centro-Sul dos EUA
Sul da Índia Oeste do Reino Unido Oeste dos EUA
Oeste dos EUA 2
Oeste dos EUA 3

Taxa de consumo

Taxa de consumo para modelos de linguagem OpenAI

Modelo Nome da implantação Janela de Contexto (Tokens) Entrada (por 1.000 tokens) Saída (por 1.000 tokens) Data de desativação
gpt-5-2025-08-07 gpt-5 400,000
Saída máxima: 128.000
42 segundos de CU 336 segundos de unidade computacional (CU) TBD
gpt-4.1-2025-04-14 gpt-4.1 128,000
Saída máxima: 32.768
67,20 segundos de 268,80 segundos de TBD
gpt-4.1-mini-2025-04-14 gpt-4.1-mini 128,000
Saída máxima: 32.768
13,44 segundos CU 53,76 segundos de CU TBD

Taxa de consumo para modelos de integração de OpenAI

Modelos Nome da implantação Contexto (Tokens) Entrada (por 1.000 tokens)
Ada text-embedding-ada-002 8192 3,36 segundos CU

Taxa de consumo para Análise de Texto

Operação Unidade de Medida da Operação Taxa de consumo
Detecção de Idioma 1.000 registros de texto 33.613,45 segundos CU
Análise de Sentimento 1.000 registros de texto 33.613,45 segundos CU
Extração de Frases-chave 1.000 registros de texto 33.613,45 segundos CU
Reconhecimento de Entidades de Informações de Identificação Pessoal 1.000 registros de texto 33.613,45 segundos CU
Reconhecimento de Entidade Nomeada 1.000 registros de texto 33.613,45 segundos CU
Ligação de Entidades 1.000 registros de texto 33.613,45 segundos CU
Resumo 1.000 registros de texto 67.226,89 segundos CU

Taxa de consumo do Tradutor de Texto

Operação Unidade de Medida da Operação Taxa de consumo
Traduzir 1 M caracteres 336.134,45 segundos CU
Transliteração 1 M caracteres 336.134,45 segundos CU

Alterações nas taxas de consumo dos serviços de IA no Fabric

As taxas de consumo estão sujeitas a alterações a qualquer momento. A Microsoft usa esforços razoáveis para fornecer aviso por email ou por meio de notificação no produto. As alterações devem entrar em vigor na data declarada nas Notas de Versão da Microsoft ou no Blog do Microsoft Fabric. Se qualquer alteração em um serviço de IA no Fabric Consumption Rate aumentar significativamente as Unidades de Capacidade (UC) necessárias para uso, os clientes poderão usar as opções de cancelamento disponíveis para a forma de pagamento escolhida.

Monitorar o uso

O medidor de carga de trabalho associado à tarefa determina os encargos dos serviços de IA predefinidos no Fabric. Por exemplo, se o uso do serviço de IA for derivado de uma carga de trabalho do Spark, o uso da IA será agrupado e cobrado no medidor de cobrança do Spark no aplicativo Fabric Capacity Metrics.

Observação

A cobrança para serviços de IA predefinidos não dá suporte à cobrança de Autoscale Spark.

Exemplo

Um proprietário de loja online usa SynapseML e Spark para categorizar milhões de produtos em categorias relevantes. Atualmente, o proprietário da loja aplica lógica codificada para limpar e mapear o "tipo de produto" bruto para categorias. No entanto, o proprietário planeja mudar para o uso dos novos pontos de extremidade nativos do LLM (grande modelo de linguagem) do Fabric OpenAI. Ao processar iterativamente os dados contra um modelo de linguagem de máquina para cada linha, os produtos são então categorizados com base em seu "nome do produto", "descrição", "detalhes técnicos" e assim por diante.

O custo esperado para o uso do Spark é de 1000 CUs. O custo esperado para o uso do OpenAI é de cerca de 300 CUs.

Para testar a nova lógica, primeiro itera-a em uma execução interativa do notebook do Spark. Para o nome da operação da execução, use "Notebook Run". O usuário espera ver um uso total de 1300 CUs em "Notebook Run", com o medidor de cobrança do Spark contabilizando todo o uso.

Depois que o proprietário da loja valida a lógica, ele configura a execução periódica e espera ver um uso total acumulado de 1300 unidades de capacidade sob o nome de operação "Execução Agendada do Trabalho do Spark", com o contador de faturamento do Spark contabilizando todo o uso.

De acordo com o relatório de uso de computação do Spark, todas as operações relacionadas ao Spark são classificadas como operações em segundo plano.