Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
A IA é uma tecnologia que as máquinas usam para imitar o comportamento humano inteligente. As máquinas podem usar IA para realizar as seguintes tarefas:
- Analise dados para criar imagens e vídeos.
- Analisar e sintetizar a fala.
- Interaja verbalmente de forma natural.
- Faça previsões e gere novos dados.
Pode incorporar IA em aplicações para realizar funções ou tomar decisões que a lógica ou processamento tradicionais não conseguem gerir eficazmente. Como arquiteto que desenha soluções, precisa de aprender sobre o panorama da IA e do machine learning e como pode integrar soluções Azure no design da sua carga de trabalho.
Introdução
O Centro de Arquitetura do Azure fornece exemplos de arquiteturas, guias de arquitetura, linhas de base de arquitetura e ideias que pode aplicar ao seu cenário. As cargas de trabalho que utilizam componentes de IA e aprendizagem automática devem seguir as orientações de cargas de trabalho de IA do Azure Well-Architected Framework. Esta orientação inclui princípios e guias de design que influenciam cargas de trabalho em IA e aprendizagem automática nos cinco pilares da arquitetura. Implemente essas recomendações nos cenários e conteúdos do Azure Architecture Center.
Conceitos de IA
Os conceitos de IA abrangem uma vasta gama de tecnologias e metodologias que as máquinas utilizam para realizar tarefas que normalmente requerem inteligência humana. As seções a seguir fornecem uma visão geral dos principais conceitos de IA.
Algoritmos
Algoritmos ou algoritmos de aprendizado de máquina são pedaços de código que ajudam as pessoas a explorar, analisar e encontrar significado em conjuntos de dados complexos. Cada algoritmo é um conjunto finito de instruções passo-a-passo inequívocas que uma máquina pode seguir para atingir um objetivo específico. O objetivo de um modelo de aprendizado de máquina é estabelecer ou descobrir padrões que os humanos podem usar para fazer previsões ou categorizar informações. Um algoritmo pode descrever como verificar se um animal de estimação é um gato, cão, peixe, ave ou lagarto. Um algoritmo mais complexo pode descrever como identificar uma língua escrita ou falada, analisar as suas palavras, traduzi-las para outra língua e depois verificar a precisão da tradução.
Escolha uma família de algoritmos que melhor se adapte à sua tarefa. Avalie os diferentes algoritmos dentro da família para encontrar o adequado para a sua carga de trabalho. Para mais informações, consulte Algoritmos de aprendizagem automática.
Aprendizagem automática
O aprendizado de máquina é uma técnica de IA que usa algoritmos para criar modelos preditivos. Estes algoritmos analisam campos de dados e aprendem com os padrões dentro dos dados para gerar modelos. Os modelos podem então fazer previsões ou decisões informadas com base em novos dados.
Os modelos preditivos são validados em relação a dados conhecidos, medidos por métricas de desempenho para cenários de negócios específicos e, em seguida, ajustados conforme necessário. A este processo de aprendizagem e validação dá-se o nome de formação. Através de reciclagem periódica, os modelos de aprendizagem automática melhoram ao longo do tempo.
Em seu design de carga de trabalho, você pode usar o aprendizado de máquina se o cenário incluir observações passadas que você pode usar de forma confiável para prever situações futuras. Estas observações podem ser verdades universais, como a visão computacional que deteta uma forma de animal de outra. Ou estas observações podem ser específicas para a sua situação, como a visão computacional que deteta um possível erro de montagem nas suas linhas de montagem com base em dados anteriores de reclamações de garantia.
Para mais informações, consulte Visão Geral de Aprendizagem Automática.
Aprendizagem profunda
Deep learning é um tipo de aprendizado de máquina que pode aprender através de seu próprio processamento de dados. Assim como o aprendizado de máquina, ele também usa algoritmos para analisar dados. Mas analisa dados utilizando redes neuronais artificiais que têm muitas entradas, saídas e camadas de processamento. Cada camada pode processar os dados de uma maneira diferente. A saída de uma camada torna-se a entrada para a próxima. O deep learning utiliza este processo para criar modelos mais complexos do que o machine learning tradicional consegue.
A aprendizagem profunda requer um grande investimento para gerar modelos altamente personalizados ou exploratórios. Você pode considerar outras soluções neste artigo antes de adicionar deep learning à sua carga de trabalho.
Para mais informações, consulte Visão Geral de Aprendizagem Profunda.
IA generativa
A IA generativa treina modelos para gerar conteúdos originais baseados em muitas formas de conteúdo, incluindo linguagem natural, visão computacional, áudio ou entrada de imagem. Ao usar IA generativa, pode descrever uma saída desejada em linguagem quotidiana, e o modelo pode responder criando texto, imagem e código apropriados. Exemplos de aplicações de IA generativa incluem o Microsoft 365 Copilot e o Microsoft Foundry.
O Copilot é principalmente uma interface de utilizador (UI) que te ajuda a escrever código, documentos e outros conteúdos baseados em texto. Baseia-se em modelos populares da OpenAI e Anthropic e está integrada numa vasta gama de aplicações e experiências de utilizador da Microsoft.
O Foundry é uma plataforma de desenvolvimento como serviço (PaaS) que fornece acesso a alojamento de agentes e a um catálogo de modelos de linguagem, incluindo as seguintes opções:
- GPT-5.2 (OpenAI)
- Sora2 (OpenAI)
- Claude (Antrópico)
- Phi (Microsoft)
- Grok (xAI)
Pode adaptar estes modelos às seguintes tarefas específicas:
- Geração de conteúdos
- Resumo do conteúdo
- Compreensão da imagem
- Pesquisa semântica
- Tradução de linguagem natural para código
- Geração de vídeo
- Comunicação por discurso
Modelos linguísticos
Os modelos de linguagem são um subconjunto da IA generativa que se foca em tarefas de processamento de linguagem natural, como geração de texto e análise de sentimento. Estes modelos representam linguagem natural com base na probabilidade de palavras ou sequências de palavras que ocorrem num dado contexto.
Os modelos de linguagem convencionais são utilizados em contextos supervisionados para fins de investigação. Estes modelos são treinados com conjuntos de dados textuais bem rotulados para tarefas específicas. Modelos de linguagem pré-treinados oferecem uma forma fácil de começar a usar IA. Eles são mais amplamente utilizados nos últimos anos. Esses modelos são treinados em coleções de texto em larga escala da internet por meio de redes neurais de aprendizado profundo. Você pode ajustá-los em conjuntos de dados menores para tarefas específicas.
O número de parâmetros, ou pesos, determina o tamanho de um modelo de linguagem. Os parâmetros influenciam a forma como o modelo processa os dados de entrada e gera uma saída. Durante o treinamento, o modelo ajusta os pesos para minimizar a diferença entre suas previsões e os dados reais. Este processo é como o modelo aprende parâmetros. Quanto mais parâmetros um modelo tem, mais complexo e expressivo ele é. Mas também é mais dispendioso em termos computacionais treinar e usar.
Os modelos de linguagem pequenos geralmente têm menos de 10 mil milhões de parâmetros, e os grandes modelos de linguagem têm mais de 10 mil milhões de parâmetros. Por exemplo, a família de modelos Microsoft Phi-4 inclui as seguintes versões:
- Phi-4-Mini, que tem 3,8 mil milhões de parâmetros
- Phi-4-Multimodal-instruct, que possui 5,6 mil milhões de parâmetros
- Phi-4 (o modelo base), que tem 14 mil milhões de parâmetros
Para mais informações, consulte o catálogo de modelos de linguagem.
Copilotos
A disponibilidade de modelos de linguagem levou a novas formas de interagir com aplicações e sistemas, utilizando cópilotes digitais e agentes ligados e específicos de domínio. Copilots são assistentes de IA generativos que se integram em aplicativos, muitas vezes como interfaces de bate-papo. Eles fornecem suporte contextualizado para tarefas comuns nesses aplicativos.
O Microsoft 365 Copilot integra-se com uma vasta gama de aplicações Microsoft e experiências de utilizador. Baseia-se numa arquitetura aberta onde programadores que não são da Microsoft podem criar os seus próprios plug-ins para expandir ou personalizar a experiência do utilizador usando o Copilot. Os desenvolvedores parceiros também podem criar os seus próprios copilotos usando a mesma arquitetura aberta.
Para obter mais informações, consulte os seguintes recursos:
- Adotar, alargar e criar experiências do Copilot em toda a Microsoft Cloud
- Visão geral do Microsoft Copilot Studio
- Visão geral da fundição
Geração aumentada por recuperação de informação
A geração aumentada por recuperação (RAG) é um padrão de arquitetura que aumenta as capacidades de um modelo de linguagem, como o ChatGPT, que é treinado apenas com dados públicos. Você pode usar esse padrão para adicionar um sistema de recuperação que forneça dados de base relevantes no contexto do pedido do utilizador. Um sistema de recuperação de informações fornece controle sobre os dados de aterramento que um modelo de linguagem usa quando formula uma resposta. A arquitetura RAG ajuda a definir o escopo da IA generativa para conteúdo proveniente de documentos vetorizados, imagens e outros formatos de dados. O RAG não está limitado ao armazenamento de pesquisa vetorial. Você pode usar qualquer tecnologia de armazenamento de dados.
Para obter mais informações, consulte Projetar e desenvolver uma solução RAG e Escolher um serviço do Azure para pesquisa vetorial. Utilize as bases de conhecimento do Foundry IQ para fundamentar os dados que os agentes da Foundry precisam como uma abordagem chave na mão ao RAG.
Arquitetura baseada em agente
Os agentes são mais do que apenas código que chama modelos de linguagem para responder a comandos do utilizador. Podem realizar tarefas de forma autónoma, tomar decisões e interagir com outros sistemas. Pode desenhar agentes para lidar com tarefas específicas ou operar em ambientes complexos, o que os torna adequados para muitas aplicações. A arquitetura multi-agente permite dividir problemas complexos em agentes especializados que coordenam para produzir uma solução.
Ferramentas como o Microsoft Agent Framework e os fluxos de trabalho do Foundry podem ajudar a construir arquiteturas baseadas em agentes.
Para informações sobre como coordenar múltiplos agentes em cenários complexos de IA, consulte padrões de orquestração de agentes de IA.
Ferramentas de Fundição
Ao utilizar as Foundry Tools, programadores e organizações podem utilizar APIs e modelos prontos, pré-construídos e personalizáveis para criar aplicações inteligentes, prontas para o mercado e responsáveis. Os casos de uso incluem processamento de linguagem natural para conversas, pesquisa, monitoramento, tradução, fala, visão e tomada de decisão.
Para obter mais informações, consulte os seguintes recursos:
- Escolha uma tecnologia Foundry Tools
- Visão geral das Foundry Tools
- Escolha uma tecnologia de processamento de linguagem natural no Azure
Modelos de linguagem de IA
Modelos de linguagem, tal como os modelos GPT OpenAI, são ferramentas poderosas que podem gerar linguagem natural em diferentes domínios e tarefas. Para escolher um modelo, considere fatores como privacidade de dados, uso ético, precisão e preconceito.
Os modelos abertos Phi são modelos pequenos e menos intensivos em computação para soluções generativas de IA. Um modelo de linguagem pequeno pode ser mais eficiente, interpretável e explicável do que um modelo de linguagem grande.
Ao projetar uma carga de trabalho, você pode usar modelos de linguagem como uma solução hospedada por trás de uma API limitada. Para muitos modelos de linguagem pequenos, pode alojar modelos de linguagem internamente ou pelo menos na mesma máquina que o consumidor. Ao usar modelos de idioma em sua solução, considere sua escolha de modelo de idioma e suas opções de hospedagem disponíveis para ajudar a garantir uma solução otimizada para seu caso de uso.
Plataformas e ferramentas de desenvolvimento de IA
As seguintes plataformas e ferramentas de desenvolvimento de IA podem ajudá-lo a criar, implantar e gerenciar modelos de aprendizado de máquina e IA.
Azure Machine Learning
O Azure Machine Learning é um serviço de aprendizado de máquina que você pode usar para criar e implantar modelos. O Machine Learning fornece interfaces web e SDKs para treinar e implementar os seus modelos e pipelines de machine learning em grande escala. Use estas capacidades com frameworks Python open-source como PyTorch, TensorFlow e scikit-learn.
Para obter mais informações, consulte os seguintes recursos:
- Compare produtos e tecnologias de aprendizado de máquina da Microsoft
- Documentação de Machine Learning
- O que é Machine Learning?
Arquiteturas de referência de IA e Machine Learning para o Azure
Arquitetura de referência de chat do Baseline Foundry numa zona de aterragem Azure
A arquitetura de referência de chat Baseline Foundry descreve como construir uma arquitetura de chat de ponta a ponta utilizando os modelos GPT OpenAI no Foundry. Ele incorpora integração por meio de fontes de dados empresariais para enriquecer as respostas com informações contextuais.
Machine learning automatizado
O aprendizado de máquina automatizado (AutoML) é o processo de automatizar as tarefas iterativas e demoradas do desenvolvimento de modelos de aprendizado de máquina. Cientistas de dados, analistas e desenvolvedores podem usar o AutoML para criar modelos de aprendizado de máquina que tenham alta escala, eficiência e produtividade, mantendo a qualidade do modelo.
Para obter mais informações, consulte os seguintes recursos:
- O que é AutoML?
- Treine um modelo de classificação usando AutoML no Machine Learning Studio
- Configurar experiências de AutoML em Python
- Instalar e configurar a CLI
MLflow
Os espaços de trabalho do Machine Learning são compatíveis com MLflow, o que significa que você pode usar um espaço de trabalho do Machine Learning da mesma forma que usa um servidor MLflow. Esta compatibilidade oferece as seguintes vantagens:
- O Machine Learning não hospeda instâncias do servidor MLflow, mas pode usar as APIs do MLflow diretamente.
- Você pode usar um espaço de trabalho de Aprendizado de Máquina como seu servidor de rastreamento para qualquer código MLflow, seja ele executado ou não no Aprendizado de Máquina. Precisa configurar o MLflow para apontar para o espaço de trabalho onde o acompanhamento deve ocorrer.
- Você pode executar rotinas de treinamento que usam MLflow no Machine Learning sem fazer alterações.
Para obter mais informações, consulte MLflow e Machine Learning e MLflow.
Ferramentas de IA generativa
A Foundry oferece uma plataforma para o ajudar a experimentar, desenvolver e implementar aplicações e APIs de IA generativa de forma responsável. Use o portal Foundry para encontrar ferramentas Foundry, modelos de fundação, um playground e recursos para o ajudar a afinar, avaliar e implementar modelos de IA e agentes de IA.
O Foundry Agent Service hospeda os agentes que o utilizador define. Estes agentes ligam-se a um modelo de fundação no catálogo de modelos de IA e, opcionalmente, aos seus próprios armazenamentos de conhecimento personalizados ou APIs. Pode definir estes agentes de forma declarativa ou a Foundry pode containerizá-los e alojá-los.
Copilot Studio estende o Copilot no Microsoft 365. Você pode usar o Copilot Studio para criar copilots personalizados para cenários internos e externos. Use uma tela de autoria para desenhar, testar e publicar copilotos. Você pode criar facilmente conversas generativas habilitadas para IA, fornecer maior controle de respostas para copilotos existentes e acelerar a produtividade usando fluxos de trabalho automatizados.
Plataformas de dados para IA
As seguintes plataformas fornecem soluções para movimentação de dados, processamento, ingestão, transformação, análise em tempo real e relatórios.
Microsoft Fabric
O Microsoft Fabric é uma plataforma de dados e análise de ponta a ponta para empresas que precisam de uma solução unificada. As equipas de carga de trabalho podem usar dados dentro do Fabric. A plataforma abrange movimentação de dados, processamento, ingestão, transformação, roteamento de eventos em tempo real e criação de relatórios. Oferece um conjunto de serviços, incluindo Fabric Data Engineer, Fabric Data Factory, Fabric Data Science, Fabric Real-Time Intelligence, Fabric Data Warehouse e Fabric Databases.
O Fabric integra componentes separados numa pilha coesa. Em vez de depender de diferentes bases de dados ou armazéns de dados, pode centralizar o armazenamento de dados usando o OneLake. Os recursos de IA são incorporados ao Fabric, o que elimina a necessidade de integração manual.
Para obter mais informações, consulte os seguintes recursos:
- O que é tecido?
- Caminho de aprendizagem: Introdução ao Fabric
- Serviços de IA no Fabric
- Usar o Azure OpenAI no Fabric com a API REST
- Utilize o "Fabric" para IA generativa: Um guia para a construção e melhoria de sistemas RAG
- Crie aplicativos de IA personalizados com o Fabric: implemente o RAG para modelos de linguagem aprimorados
Copilots em tecido
Você pode usar o Copilot e outros recursos de IA generativa para transformar e analisar dados, gerar insights e criar visualizações e relatórios no Fabric e no Power BI. Você pode construir seu próprio copiloto ou escolher um dos seguintes copilotos pré-construídos:
- Copiloto em Fabric
- Copiloto de Ciência de Dados e Engenharia de Dados
- Copiloto para Data Factory
- Copiloto para Armazém de Dados
- Copiloto para Power BI
- Copiloto para Inteligência em Tempo Real
Agente de dados na infraestrutura
O agente de dados no Fabric é uma funcionalidade que pode usar para construir os seus próprios sistemas de perguntas e respostas conversacionais usando IA generativa. Um agente de dados Fabric torna os insights de dados mais fáceis de usar e mais acionáveis para todos na sua organização.
Para obter mais informações, consulte os seguintes recursos:
- Visão geral do agente de dados Fabric
- Criar agente de dados
- Exemplo de um agente de dados
- Diferença entre um agente de dados Fabric e um copilot
Plataformas de dados baseadas no Apache Spark para IA
O Apache Spark é um framework de processamento paralelo que suporta o processamento dentro da memória para melhorar o desempenho de aplicações de análise de macrodados. O Spark fornece blocos de construção básicos para computação em cluster na memória. Um trabalho Spark pode carregar e armazenar dados em cache na memória e consultá-los repetidamente, o que é mais rápido do que aplicações baseadas em disco, como o Hadoop.
Faísca no Tecido
O Fabric Runtime é uma plataforma integrada Azure baseada no Spark que pode usar para implementar e gerir experiências de engenharia de dados e ciência de dados. O Fabric Runtime combina componentes-chave de fontes internas e de código aberto, o que fornece uma solução abrangente.
O Fabric Runtime tem os seguintes componentes principais:
Spark é uma biblioteca de computação distribuída de código aberto que pode ser utilizada para tarefas de processamento e análise de dados em grande escala. A Spark oferece uma plataforma versátil para experiências em engenharia de dados e ciência de dados.
Delta Lake é uma camada de armazenamento open-source que integra transações de atomicidade, consistência, isolamento e durabilidade (ACID) e outras funcionalidades de fiabilidade de dados com o Spark. Integrado no Fabric Runtime, o Delta Lake melhora as capacidades de processamento de dados e ajuda a garantir a consistência dos dados em múltiplas tarefas simultâneas.
Pacotes de nível padrão para Java, Scala, Python e R são pacotes que suportam diversas linguagens de programação e ambientes. Esses pacotes são instalados e configurados automaticamente, para que os desenvolvedores possam aplicar suas linguagens de programação preferidas para tarefas de processamento de dados.
O Fabric Runtime é construído sobre um sistema operativo open-source que oferece compatibilidade com diferentes configurações de hardware e requisitos do sistema.
Para mais informação, consulte Runtimes do Spark em Fabric.
Azure Databricks Runtime para Aprendizado de Máquina
O Azure Databricks é uma plataforma de análise baseada no Spark que inclui fluxos de trabalho e um espaço de trabalho interativo para colaboração entre cientistas de dados, engenheiros e analistas de negócio.
Pode usar o Databricks Runtime para Machine Learning para iniciar um cluster Databricks que tenha todas as bibliotecas necessárias para treino distribuído. Esse recurso fornece um ambiente para aprendizado de máquina e ciência de dados. Possui várias bibliotecas populares, incluindo TensorFlow, PyTorch, Keras e XGBoost. Também apoia a formação distribuída através da Horovod.
Para obter mais informações, consulte os seguintes recursos:
- Documentação do Azure Databricks
- Recursos de aprendizado de máquina no Azure Databricks
- Visão geral do aprendizado profundo para o Azure Databricks
Spark em Azure HDInsight
O Spark no Azure HDInsight é a implementação da Microsoft do Spark na cloud. Os clusters do Spark no HDInsight são compatíveis com o Armazenamento do Azure e o Armazenamento do Azure Data Lake, portanto, você pode usar clusters do HDInsight Spark para processar dados armazenados no Azure.
SynapseML é a biblioteca de aprendizagem automática da Microsoft para o Spark. Essa biblioteca de código aberto adiciona muitas ferramentas de aprendizado profundo e ciência de dados, recursos de rede e desempenho de nível de produção ao ecossistema do Spark.
Para obter mais informações, consulte os seguintes recursos:
- recursos e capacidades do SynapseML
- Visão geral do HDInsight
- Tutorial: Constrói uma aplicação de aprendizagem automática Spark no HDInsight
- Melhores práticas da Spark no HDInsight
- Configurar as definições do cluster HDInsight Spark
- Crie um pipeline de aprendizagem automática Spark no HDInsight
Armazenamento de dados para IA
Pode usar as seguintes plataformas para armazenar, utilizar e analisar de forma eficiente grandes volumes de dados.
Tecido OneLake
O OneLake in Fabric é um data lake unificado e lógico que você pode adaptar a toda a sua organização. É o núcleo central para todos os dados analíticos e está incluído em cada cliente Fabric. O OneLake in Fabric foi construído com base no armazenamento Data Lake.
A OneLake em Fabric oferece os seguintes benefícios:
- Suporta tipos de ficheiros estruturados e não estruturados
- Armazena todos os dados tabulares em formato Delta-Parquet
- Fornece um único data lake dentro dos limites do inquilino, que é controlado por padrão
- Suporta a criação de espaços de trabalho dentro de um tenant para que a sua organização possa distribuir políticas de propriedade e acesso
- Suporta a criação de diferentes itens de dados, como casas de lago e armazéns, onde pode usar dados
Para obter mais informações, consulte OneLake, o OneDrive para dados.
Data Lake Storage
O Data Lake Storage é um repositório único e centralizado onde você pode armazenar seus dados estruturados e não estruturados. Use um data lake para armazenar, usar e analisar rápida e facilmente uma grande variedade de dados num único local. Você não precisa ajustar os seus dados para que se encaixem numa estrutura existente. Em vez disso, você pode armazenar seus dados em seu formato bruto ou nativo, geralmente como arquivos ou como objetos binários grandes ou blobs.
O Armazenamento Data Lake fornece semântica do sistema de arquivos, segurança em nível de arquivo e escala. Como esses recursos são criados no Armazenamento de Blobs do Azure, você também obtém armazenamento hierárquico de baixo custo com recursos de alta disponibilidade e recuperação de desastres.
O Data Lake Storage utiliza a infraestrutura do Storage para criar uma base para construir data lakes empresariais no Azure. O Armazenamento Data Lake pode atender a vários petabytes de informações enquanto sustenta centenas de gigabits de taxa de transferência para que você possa gerenciar grandes quantidades de dados.
Para obter mais informações, consulte os seguintes recursos:
Processamento de dados para IA
Você pode usar as seguintes ferramentas para preparar dados para aplicativos de aprendizado de máquina e IA. Certifique-se de que seus dados estejam limpos e estruturados para que você possa usá-los para análises avançadas.
Fábrica de Dados Fabric
Pode usar o Fabric Data Factory para ingerir, preparar e transformar dados de múltiplas fontes de dados, como bases de dados, armazéns de dados, data lakehouses e streaming de dados em tempo real. Esta funcionalidade pode ajudá-lo a cumprir os requisitos de operações de dados ao desenhar cargas de trabalho.
A Data Factory suporta soluções de código e soluções no-code ou low-code:
Use pipelines de dados para criar capacidades de fluxo de trabalho em escala de nuvem. Use a interface de seleção e movimento para construir fluxos de trabalho que possam atualizar o seu fluxo de dados, mover dados do tamanho de petabytes e definir pipelines de controlo de fluxo.
Use fluxos de dados como uma interface de código-reduzido para ingerir dados de centenas de fontes e transformá-los utilizando mais de 300 transformações de dados.
Para obter mais informações, consulte cenário completo do Data Factory: introdução e arquitetura.
Azure Databricks
Você pode usar a Databricks Data Intelligence Platform para escrever código para criar um fluxo de trabalho de aprendizado de máquina usando engenharia de recursos. A engenharia de características é o processo de transformar dados brutos em características que se pode usar para treinar modelos de aprendizagem automática. A Plataforma de Inteligência de Dados Databricks inclui funcionalidades chave que suportam a engenharia de características:
Os fluxos de dados ingerem dados brutos, criam tabelas de funcionalidades, treinam modelos e fazem inferência em lote. Quando você usa a engenharia de recursos no Unity Catalog para treinar e registrar um modelo, o modelo é empacotado com metadados de recurso. Quando você usa o modelo para pontuação em lote ou inferência online, ele recupera automaticamente os valores do recurso. O chamador não precisa saber sobre os valores ou incluir lógica para pesquisar ou unir recursos para pontuar novos dados.
Os endpoints de serviço de modelos e funções estão instantaneamente disponíveis e apresentam milissegundos de latência.
A monitorização ajuda a assegurar o desempenho e a precisão dos dados e modelos.
Você também pode usar Mosaic AI Vetor Search para armazenar e recuperar incorporações. Os embeddings são cruciais para aplicações que requerem pesquisas de similaridade, como RAG, sistemas de recomendação e reconhecimento de imagem.
Para mais informações, consulte Servir dados para aprendizagem automática e IA.
Conectores de dados para IA
Os pipelines do Azure Data Factory e do Azure Synapse Analytics dão suporte a muitos armazenamentos e formatos de dados por meio de cópia, fluxo de dados, pesquisa, obtenção de metadados e atividades de exclusão. Para ver os conectores de armazenamento de dados disponíveis, as capacidades suportadas e as respetivas configurações, bem como as opções genéricas de Conectividade de Base de Dados Abertas, consulte a Visão Geral dos Conectores Azure Data Factory e Azure Synapse Analytics.
IA personalizada
As soluções de IA personalizadas ajudam-no a abordar necessidades e desafios empresariais específicos. As secções seguintes fornecem uma visão geral das diferentes ferramentas e serviços que pode usar para construir e gerir modelos de IA personalizados.
Azure Machine Learning
O Azure Machine Learning é um serviço cloud para acelerar e gerir o ciclo de vida do projeto de machine learning. Profissionais de aprendizagem automática, cientistas de dados e engenheiros podem usar este serviço nos seus fluxos de trabalho para treinar e implementar modelos e gerir tarefas de aprendizagem automática.
Aprendizagem Automática oferece as seguintes capacidades:
Seleção de algoritmos: Alguns algoritmos fazem suposições específicas sobre a estrutura de dados ou resultados desejados. Escolha um algoritmo que atenda às suas necessidades para que você possa obter resultados mais úteis, previsões mais precisas e tempos de treinamento mais rápidos. Para mais informações, veja Como escolher algoritmos para Aprendizagem Automática.
Ajuste ou otimização de hiperparâmetros: Você pode usar esse processo manual para encontrar configurações de hiperparâmetros que resultem no melhor desempenho. Esta otimização incorre em custos computacionais significativos. Hiperparâmetros são parâmetros ajustáveis que fornecem controle no processo de treinamento do modelo. Por exemplo, você pode escolher o número de camadas ocultas e o número de nós em cada camada de redes neurais. O desempenho do modelo depende fortemente dos hiperparâmetros.
Você pode usar o Machine Learning para automatizar o ajuste de hiperparâmetros e executar experimentos em paralelo para otimizar os hiperparâmetros de forma eficiente.
Para obter mais informações, consulte os seguintes recursos:
Treino de modelos: Podes usar iterativamente um algoritmo para criar ou ensinar modelos. Depois de treinares os modelos, podes usá-los para analisar dados e fazer previsões.
Os seguintes passos acontecem durante a fase de treino:
Um conjunto de qualidade de dados conhecidos é marcado para que os campos individuais sejam identificáveis.
Um algoritmo configurado para fazer uma previsão específica recebe os dados marcados.
O algoritmo produz um modelo que captura os padrões que identificou nos dados. O modelo usa um conjunto de parâmetros para representar esses padrões.
Os seguintes passos acontecem durante a validação:
Dados novos são marcados e usados para testar o modelo.
O algoritmo é ajustado conforme necessário e, possivelmente, faz mais treinamento.
A fase de teste usa dados do mundo real sem tags ou alvos pré-selecionados. Se os resultados do modelo forem precisos, ele estará pronto para uso e poderá ser implantado.
Para obter mais informações, consulte os seguintes recursos:
AutoML: Este processo automatiza as tarefas iterativas e demoradas do desenvolvimento de modelos de aprendizagem automática. Ele pode reduzir significativamente o tempo necessário para produzir modelos de aprendizado de máquina prontos para produção. O AutoML pode ajudar na seleção de modelos, ajuste de hiperparâmetros, treinamento de modelos e outras tarefas, sem exigir extenso conhecimento de programação ou domínio.
Pode usar o AutoML quando quiser que o Machine Learning use uma métrica alvo específica para treinar e ajustar um modelo. Não precisa de conhecimentos em ciência de dados para encontrar problemas num pipeline de machine learning de ponta a ponta.
Profissionais e programadores de aprendizagem automática de vários setores podem usar o AutoML para realizar as seguintes tarefas:
- Implemente soluções de aprendizado de máquina sem conhecimento extensivo de programação ou aprendizado de máquina.
- Poupe tempo e recursos.
- Aplique as melhores práticas de ciência de dados.
- Proporcionar uma resolução ágil de problemas.
Para mais informações, consulte a visão geral do AutoML.
Pontuação: Este processo, também chamado previsão, usa um modelo de aprendizado de máquina treinado para gerar valores com base em novos dados de entrada. Os valores, ou pontuações, podem representar previsões de valores futuros, mas também podem representar uma categoria ou resultado provável.
Para obter mais informações, consulte os seguintes recursos:
- Modelo de Pontuação
- Implementar modelos para pontuação em endpoints de processamento em lote
Engenharia de características e featurização: Os dados de treino consistem em linhas e colunas. Cada linha é uma observação ou registo, e as colunas de cada linha são as características que descrevem cada registo. Normalmente, escolhe-se as características que melhor caracterizam os padrões nos dados para criar modelos preditivos.
Embora possa usar muitos dos campos de dados brutos para treinar um modelo, pode ser necessário criar outras funcionalidades engenheiradas que forneçam informação para diferenciar padrões nos dados de forma mais fácil. Este processo chama-se engenharia de características, onde se usa o conhecimento do domínio dos dados para criar funcionalidades que ajudam algoritmos de aprendizagem automática a aprender melhor.
No Machine Learning, técnicas de dimensionamento e normalização de dados são aplicadas para facilitar a engenharia de recursos. Coletivamente, essas técnicas e a engenharia de características são chamadas de featurização em experimentos AutoML. Para mais informações, veja Características de Dados no AutoML.
Microsoft Foundry
No Foundry, pode usar um processo chamado fine-tuning para adaptar modelos aos seus conjuntos de dados pessoais. Esta etapa de personalização otimiza o serviço ao proporcionar os seguintes benefícios:
- Resultados de maior qualidade comparados apenas com engenharia rápida
- A capacidade de treinar em mais exemplos do que o limite máximo de contexto de solicitação de um modelo geralmente permite
- Poupança de tokens devido a prompts mais curtos
- Pedidos de menor latência, especialmente quando usas modelos mais pequenos
Para obter mais informações, consulte os seguintes recursos:
- Personalize um modelo usando afinação fina
- Tutorial de ajuste fino do Azure OpenAI GPT-4o-mini
- Arquitetura de referência do chat do Baseline Foundry
Ferramentas Foundry para IA personalizada
O Foundry Tools oferece funcionalidades para construir modelos e aplicações de IA personalizadas. As seções a seguir fornecem uma visão geral desses principais recursos.
Fala personalizada
A fala personalizada é uma funcionalidade do Azure Speech. Você pode usar a fala personalizada para avaliar e melhorar a precisão do reconhecimento de fala para seus aplicativos e produtos. Use um modelo de fala personalizado para conversão de fala em texto em tempo real, tradução de fala e transcrição em lote.
Por padrão, o reconhecimento de fala usa um modelo de linguagem universal como modelo base. Este modelo é treinado com dados de propriedade da Microsoft e reflete a linguagem falada comumente usada. O modelo base é pré-treinado com dialetos e fonéticas que representam domínios comuns. Quando você faz uma solicitação de reconhecimento de fala, o modelo base mais recente para o idioma suportado é usado por padrão. O modelo base funciona bem na maioria dos cenários de reconhecimento de fala.
Você pode usar um modelo personalizado para aumentar o modelo base. Por exemplo, você pode melhorar o reconhecimento de vocabulário específico de domínio específico para um aplicativo fornecendo dados de texto para treinar o modelo. Você também pode melhorar o reconhecimento de condições de áudio específicas de um aplicativo fornecendo dados de áudio, incluindo transcrições de referência.
Se os dados seguirem um padrão, você poderá usar texto estruturado para treinar um modelo. Pode especificar pronúncias personalizadas e personalizar a formatação do texto de exibição usando normalização inversa de texto personalizada, reescrita personalizada e filtragem personalizada de palavrões.
Tradutor personalizado
Tradutor personalizado é uma funcionalidade do Azure Translator. Empresas, desenvolvedores de aplicativos e provedores de serviços linguísticos podem usar o tradutor personalizado para criar sistemas personalizados de tradução automática neural (NMT). Os sistemas de tradução personalizados integram-se em aplicações, fluxos de trabalho e websites existentes.
Você pode usar esse recurso para criar e publicar sistemas de tradução personalizados de e para o inglês. O tradutor personalizado suporta mais de três dúzias de idiomas que se alinham diretamente com os idiomas das redes neuronais de tradução. Para obter uma lista completa de idiomas, consulte suporte de idioma do Tradutor.
O tradutor personalizado oferece as seguintes funcionalidades.
| Característica | Descrição |
|---|---|
| Aplicar a tecnologia NMT | Aplique o NMT do tradutor personalizado para melhorar a sua tradução. |
| Crie sistemas que conheçam a terminologia do seu negócio | Personalize e construa sistemas de tradução usando documentos paralelos que utilizam a terminologia do seu negócio e setor. |
| Use um dicionário para criar seus modelos | Treina um modelo usando apenas dados de dicionário se não tiveres um conjunto de dados de treino. |
| Colabore com outras pessoas | Colabore com a sua equipa partilhando o seu trabalho com pessoas diferentes. |
| Use o seu modelo de tradução personalizado | Use o seu modelo de tradução personalizado a qualquer momento, utilizando as suas aplicações ou programas existentes através da Microsoft Translator Text API V3. |
Modelos à medida
O Azure Document Intelligence utiliza tecnologia avançada de aprendizagem automática para identificar documentos, detetar e extrair informação de formulários e documentos, e devolver os dados extraídos numa saída JSON estruturada. Use o Document Intelligence para tirar proveito de modelos de análise de documentos pré-criados ou pré-treinados ou modelos personalizados autônomos treinados.
modelos personalizados do Document Intelligence incluem modelos de classificação personalizados para cenários nos quais é necessário identificar o tipo de documento antes de invocar o modelo de extração. Você pode emparelhar um modelo de classificação com um modelo de extração personalizado para analisar e extrair campos de formulários e documentos específicos para sua empresa. Combine modelos de extração personalizados independentes para criar modelos compostos .
Analisador personalizado
O Azure Content Understanding utiliza IA generativa para processar ou ingerir muitos tipos de conteúdo, incluindo documentos, imagens, vídeos e áudio, num formato de saída definido pelo utilizador. A Compreensão de Conteúdos inclui analisadores pré-construídos para tipos e cenários comuns de conteúdo.
O analisador personalizado é uma funcionalidade do Content Understanding que cria analisadores personalizados adaptados às suas necessidades específicas de processamento de conteúdo. Pode definir regras de extração personalizadas e padrões de reconhecimento de entidades para satisfazer os requisitos do seu negócio.
Ferramentas de IA personalizadas
Os modelos de IA pré-construídos são úteis e cada vez mais flexíveis, mas a melhor maneira de otimizar a IA é adaptar um modelo às suas necessidades específicas. Duas ferramentas principais para criar modelos de IA personalizados são a IA generativa e o aprendizado de máquina tradicional.
estúdio do Azure Machine Learning
O Azure Machine Learning Studio é um serviço na cloud para acelerar e gerir o ciclo de vida do projeto de aprendizagem automática. Profissionais de aprendizagem automática, cientistas de dados e engenheiros podem utilizá-lo nos seus fluxos de trabalho para treinar e implementar modelos e gerir tarefas de aprendizagem automática.
Construa e treine modelos de Aprendizagem Automática utilizando qualquer tipo de computação, incluindo Spark e GPUs para cargas de trabalho de IA grandes em escala cloud.
Execute o AutoML e use a interface de seleção e movimentação para Aprendizagem Automática de Baixo Código.
Implementar tarefas de Aprendizagem Automática de ponta a ponta e pipelines repetíveis.
Utilize o painel de IA responsável para deteção de viés e análise de erros.
Gerir e orquestrar fluxos de promptagem e de modelos de linguagem.
Implemente modelos através de endpoints de API REST, com inferência em tempo real e inferência por lotes.
Use espaços de trabalho centrais para partilhar computação, quotas, segurança e conectividade com recursos empresariais, centralizando a governação para TI. Configura um hub uma vez e depois cria espaços de trabalho seguros diretamente a partir do estúdio para cada projeto. Use hubs para gerir o trabalho da sua equipa no estúdio e no portal da Foundry.
Fundição
A Foundry ajuda-o a construir e implementar de forma eficiente aplicações de IA generativa personalizadas, utilizando capacidades de IA Azure.
Construa em conjunto como uma equipa. A sua conta Foundry oferece segurança de nível empresarial e um ambiente colaborativo que inclui recursos partilhados e ligações a modelos, dados e computação pré-treinados.
Organize o seu trabalho. O seu projeto Foundry ajuda-o a guardar estado para que possa iterar desde a primeira ideia até ao primeiro protótipo e ao primeiro lançamento em produção. Convide facilmente outras pessoas para colaborar consigo.
Use a sua plataforma e frameworks de desenvolvimento preferidos, incluindo GitHub, Visual Studio Code, Agent Framework, Semantic Kernel e AutoGen.
Descubra e compare modelos de um catálogo amplo.
Configurar modelos como serviço (MaaS) através de APIs serverless e afinação alojada.
Incorpore vários modelos, fontes de dados e modalidades.
Crie RAG usando seus dados corporativos protegidos, sem a necessidade de ajuste fino.
Orquestrar e gerir a engenharia de prompts e a gestão de fluxos de grandes modelos de linguagem.
Projete e proteja aplicativos e APIs por meio de filtros e controles configuráveis.
Avalie as respostas do modelo usando fluxos de avaliação internos e personalizados.
Implante inovações de IA na infraestrutura gerenciada pelo Azure para fornecer monitoramento e governança contínuos em todos os ambientes.
Monitore continuamente os aplicativos implantados quanto à segurança, qualidade e consumo de tokens na produção.
Serviço de Agente da Fundição no portal da Fundição
O Foundry Agent Service é uma ferramenta que pode usar para criar agentes de IA utilizando uma abordagem no-code e não determinística. Os agentes são expostos como microserviços na conta da Foundry.
Cada agente liga-se a um modelo de fundação do catálogo Foundry Models. Os agentes podem, opcionalmente, ligar-se aos seus armazéns de conhecimento privados personalizados ou dados públicos. Os agentes também podem invocar ferramentas para executar código personalizado e realizar tarefas.
Linguagens de código de IA personalizadas
O conceito central da IA é o uso de algoritmos para analisar dados e gerar modelos para descrevê-los ou pontuá-los de maneiras úteis. Desenvolvedores e cientistas de dados, e às vezes outros algoritmos, usam código de programação para escrever algoritmos. Duas das linguagens de programação mais populares para desenvolvimento de IA são Python e R.
Python é uma linguagem de programação de alto nível de uso geral. Tem uma sintaxe simples que enfatiza a legibilidade. Não precisas de fazer uma etapa de compilação. Python tem uma grande biblioteca padrão, e suporta a capacidade de adicionar módulos e pacotes. Esse recurso incentiva a modularidade e permite expandir os recursos quando necessário. Existe um grande e crescente ecossistema de bibliotecas de IA e aprendizagem automática para Python, incluindo muitas em Azure.
Para obter mais informações, consulte os seguintes recursos:
- Python no Azure
- Azure for Python developers (Azure para programadores Python)
- SDK de Aprendizado de Máquina para Python
- Introdução ao aprendizado de máquina com Python e notebooks
- Scikit-learn biblioteca de aprendizagem automática open-source para Python
- biblioteca Python de código aberto PyTorch
- biblioteca de matemática simbólica de código aberto TensorFlow
- Tutorial: Aplicar modelos de aprendizado de máquina no Azure Functions com Python e TensorFlow
R é uma linguagem e ambiente para computação estatística e gráfica. Você pode usá-lo para tudo, desde o mapeamento de grandes tendências sociais e de marketing on-line até o desenvolvimento de modelos financeiros e climáticos.
A Microsoft adota totalmente a linguagem de programação R e fornece muitas opções para os desenvolvedores de R executarem seu código no Azure.
Para obter mais informações, consulte Usar R interativamente no Machine Learning.
Para obter informações gerais sobre IA personalizada no Azure, consulte os seguintes recursos:
- Microsoft AI no GitHub: exemplos, arquiteturas de referência e práticas recomendadas
- SDK de Aprendizado de Máquina para Python
- repositório de exemplos de Machine Learning
- Treinar modelos R usando a versão 2 da CLI de Machine Learning
Histórias de clientes
Muitas indústrias aplicam a IA de formas inovadoras e inspiradoras. Considere os seguintes estudos de caso de clientes e histórias de sucesso:
- A NSF permite que tratamentos que salvam vidas cheguem aos pacientes mais rapidamente com o Azure AI
- A PIMCO impulsiona o serviço ao cliente com uma plataforma de pesquisa baseada em IA baseada na IA do Azure
- Legrand e Azure OpenAI: Potencializando soluções mais inteligentes com ferramentas orientadas por IA
- C.H. Robinson supera barreiras de décadas para automatizar o setor de logística usando o Azure AI
Navegue por mais histórias de clientes de IA
Informações gerais sobre o Microsoft AI
Saiba mais sobre a Microsoft AI e mantenha-se atualizado com as notícias relacionadas:
- IA da Microsoft
- hub de aprendizagem de IA
- Azure AI
- Notícias da Microsoft AI
- Microsoft AI no GitHub: exemplos, arquiteturas de referência e práticas recomendadas