Partager via


Conception de l’architecture IA

L’IA est une technologie que les machines utilisent pour imiter le comportement humain intelligent. Les machines peuvent utiliser l’IA pour effectuer les tâches suivantes :

  • Analysez les données pour créer des images et des vidéos.
  • Analyser et synthétiser la voix.
  • Interagir verbalement de manière naturelle.
  • Effectuez des prédictions et générez de nouvelles données.

Vous pouvez incorporer l’IA dans des applications pour effectuer des fonctions ou prendre des décisions que la logique ou le traitement traditionnel ne peut pas gérer efficacement. En tant qu’architecte qui conçoit des solutions, vous devez vous familiariser avec le paysage de l'IA et du machine learning et comment intégrer des solutions Azure dans votre architecture des charges de travail.

Prise en main

Azure Architecture Center fournit des exemples d’architectures, de guides d’architecture, de bases de référence architecturales et d’idées que vous pouvez appliquer à votre scénario. Les charges de travail qui utilisent des composants IA et Machine Learning doivent suivre les instructions relatives aux charges de travail d’IA Azure Well-Architected Framework. Ces conseils incluent des principes et des guides de conception qui influencent les charges de travail IA et Machine Learning sur les cinq piliers de l’architecture. Implémentez ces recommandations dans les scénarios et le contenu dans le Centre d’architecture Azure.

Concepts de l’intelligence artificielle

Les concepts de l’IA englobent un large éventail de technologies et de méthodologies que les machines utilisent pour effectuer des tâches qui nécessitent généralement l’intelligence humaine. Les sections suivantes fournissent une vue d’ensemble des concepts clés de l’IA.

Algorithmes

Algorithmes ou algorithmes de Machine Learning sont des éléments de code qui aident les utilisateurs à explorer, analyser et trouver une signification dans des jeux de données complexes. Chaque algorithme est un ensemble fini d’instructions pas à pas non ambiguës qu’un ordinateur peut suivre pour atteindre un objectif spécifique. L’objectif d’un modèle Machine Learning est d’établir ou de découvrir des modèles que les humains peuvent utiliser pour effectuer des prédictions ou classer des informations. Un algorithme peut décrire comment vérifier si un animal est un chat, un chien, un poisson, un oiseau ou un lézard. Un algorithme plus complexe peut décrire comment identifier une langue écrite ou parlée, analyser ses mots, les traduire dans une autre langue, puis vérifier la traduction pour la précision.

Choisissez une famille d’algorithmes qui convient le mieux à votre tâche. Évaluez les différents algorithmes de la famille pour trouver l’ajustement approprié pour votre charge de travail. Pour plus d’informations, consultez les algorithmes Machine Learning.

apprentissage automatique

Le Machine Learning est une technique IA qui utilise des algorithmes pour créer des modèles prédictifs. Ces algorithmes analysent les champs de données et apprennent à partir des modèles au sein des données pour générer des modèles. Les modèles peuvent ensuite prendre des prédictions ou des décisions éclairées en fonction de nouvelles données.

Les modèles prédictifs sont validés par rapport aux données connues, mesurés par des métriques de performances pour des scénarios métier spécifiques, puis ajustés selon les besoins. Ce processus d’apprentissage et de validation est appelé formation. Grâce au réentraînement périodique, les modèles Machine Learning s’améliorent au fil du temps.

Dans votre conception de charge de travail, vous pouvez utiliser le Machine Learning si votre scénario inclut des observations passées que vous pouvez utiliser de manière fiable pour prédire les situations futures. Ces observations peuvent être des vérités universelles, comme la vision par ordinateur qui détecte une forme d’animal d’une autre. Ou ces observations peuvent être spécifiques à votre situation, comme la vision par ordinateur qui détecte une erreur d’assemblage potentielle sur vos lignes d’assemblage en fonction des données de revendication de garantie passées.

Pour plus d’informations, consultez la vue d’ensemble du Machine Learning.

Apprentissage approfondi

deep learning est un type de Machine Learning qui peut apprendre par le biais de son propre traitement des données. Comme le Machine Learning, il utilise également des algorithmes pour analyser les données. Mais il analyse les données à l’aide de réseaux neuronaux artificiels qui ont de nombreuses entrées, sorties et couches de traitement. Chaque couche peut traiter les données d’une manière différente. La sortie d’une couche devient l’entrée pour la suivante. Le Deep Learning utilise ce processus pour créer des modèles plus complexes que le Machine Learning traditionnel.

Le Deep Learning nécessite un investissement important pour générer des modèles hautement personnalisés ou exploratoires. Vous pouvez envisager d’autres solutions dans cet article avant d’ajouter un deep learning à votre charge de travail.

Pour plus d’informations, consultez vue d’ensemble du Deep Learning.

IA générative

L’IA générative entraîne les modèles pour générer du contenu d’origine basé sur de nombreuses formes de contenu, notamment le langage naturel, la vision par ordinateur, l’audio ou l’entrée d’image. En utilisant l’IA générative, vous pouvez décrire une sortie souhaitée dans la langue quotidienne, et le modèle peut répondre en créant un texte, une image et un code appropriés. Parmi les exemples d’applications IA génératives, citons Microsoft 365 Copilot et Microsoft Foundry.

  • Copilot est principalement une interface utilisateur qui vous permet d’écrire du code, des documents et d’autres contenus textuels. Elle est basée sur des modèles populaires d’OpenAI et d’Anthropic et est intégrée à un large éventail d’applications Microsoft et d’expériences utilisateur.

  • Foundry est une plateforme de développement en tant que service (PaaS) qui fournit l’accès à l’hébergement d’agents et à un catalogue de modèles de langage, y compris les options suivantes :

    • GPT-5.2 (OpenAI)
    • Sora2 (OpenAI)
    • Claude (Anthropic)
    • Phi (Microsoft)
    • Grok (xAI)

    Vous pouvez adapter ces modèles aux tâches spécifiques suivantes :

    • Génération de contenu
    • Résumé du contenu
    • Compréhension de l’image
    • Recherche sémantique
    • Langage naturel pour la traduction de code
    • Génération de vidéos
    • Conversion de la parole à la parole

Modèles de langage

Les modèles de langage sont un sous-ensemble d’IA générative qui se concentrent sur les tâches de traitement du langage naturel, telles que la génération de texte et l’analyse des sentiments. Ces modèles représentent le langage naturel en fonction de la probabilité de mots ou de séquences de mots qui se produisent dans un contexte donné.

Les modèles linguistiques conventionnels sont utilisés dans des contextes supervisés à des fins de recherche. Ces modèles sont formés sur des jeux de données de texte bien étiquetés pour des tâches spécifiques. Les modèles de langage préentraînés offrent un moyen simple de commencer à utiliser l’IA. Ils sont plus largement utilisés ces dernières années. Ces modèles sont formés sur des collections de texte à grande échelle à partir d’Internet via des réseaux neuronaux d’apprentissage profond. Vous pouvez les ajuster sur des jeux de données plus petits pour des tâches spécifiques.

Le nombre de paramètres ou de pondérations détermine la taille d’un modèle de langage. Les paramètres influencent la façon dont le modèle traite les données d’entrée et génère une sortie. Pendant l’entraînement, le modèle ajuste les pondérations pour réduire la différence entre ses prédictions et les données réelles. Ce processus est la façon dont le modèle apprend les paramètres. Plus un modèle a de paramètres, plus il est complexe et expressif. Mais il est également plus coûteux en termes de calcul à entraîner et à utiliser.

Les petits modèles de langage ont généralement moins de 10 milliards de paramètres, et les modèles de langage volumineux ont plus de 10 milliards de paramètres. Par exemple, la famille de modèles Microsoft Phi-4 inclut les versions suivantes :

  • Phi-4-Mini, qui a 3,8 milliards de paramètres
  • Phi-4-Modal-instruct, qui a 5,6 milliards de paramètres
  • Phi-4 (modèle de base), qui a 14 milliards de paramètres

Pour plus d’informations, consultez le catalogue de modèles linguistiques.

Copilotes

La disponibilité des modèles linguistiques a conduit à de nouvelles façons d’interagir avec les applications et les systèmes à l’aide de copilotes numériques et d’agents spécifiques au domaine connectés. Copilots sont des assistants IA génératifs qui s’intègrent aux applications, souvent en tant qu’interfaces de conversation. Ils fournissent une prise en charge contextuelle des tâches courantes dans ces applications.

Microsoft 365 Copilot s’intègre à un large éventail d’applications Microsoft et d’expériences utilisateur. Il est basé sur une architecture ouverte où les développeurs non-Microsoft peuvent créer leurs propres plug-ins pour étendre ou personnaliser l’expérience utilisateur à l’aide de Copilot. Les développeurs partenaires peuvent également créer leurs propres copilotes à l’aide de la même architecture ouverte.

Pour plus d'informations, reportez-vous aux ressources suivantes :

Génération augmentée de récupération

La génération d’extraction augmentée (RAG) est un modèle d’architecture qui augmente les fonctionnalités d’un modèle de langage, comme ChatGPT, qui est entraîné uniquement sur les données publiques. Vous pouvez utiliser ce modèle pour ajouter un système de récupération qui fournit des données de base pertinentes dans le contexte avec la demande de l’utilisateur. Un système de récupération d’informations permet de contrôler les données de base qu’un modèle de langage utilise lorsqu’il formule une réponse. L’architecture RAG vous permet d’étendre l’IA générative au contenu source de documents vectoriels, d’images et d’autres formats de données. RAG n’est pas limité au stockage de recherche vectorielle. Vous pouvez utiliser n’importe quelle technologie de magasin de données.

Pour plus d’informations, consultez Conception et développement d’une solution RAG et Choisir un service Azure pour la recherche vectorielle. Utilisez les bases de connaissances Foundry IQ pour baser les données dont les agents Foundry ont besoin comme approche clé en main de RAG.

Architecture basée sur l’agent

Les agents sont plus que du simple code. Ils appellent des modèles linguistiques pour répondre aux requêtes des utilisateurs. Ils peuvent effectuer des tâches de manière autonome, prendre des décisions et interagir avec d’autres systèmes. Vous pouvez concevoir des agents pour gérer des tâches spécifiques ou fonctionner dans des environnements complexes, ce qui les rend adaptés à de nombreuses applications. L’architecture multi-agent vous permet de décomposer des problèmes complexes en agents spécialisés qui coordonnent la production d’une solution.

Les outils tels que Microsoft Agent Framework et les workflows Foundry peuvent vous aider à créer des architectures basées sur des agents.

Pour plus d’informations sur la façon de coordonner plusieurs agents dans des scénarios IA complexes, consultez les modèles d’orchestration des agents IA.

Outils de fonderie

En utilisant Foundry Tools, les développeurs et les organisations peuvent utiliser des API et des modèles prêts à l’emploi, prédéfinis et personnalisables pour créer des applications intelligentes, prêtes pour le marché et responsables. Les cas d’usage incluent le traitement en langage naturel pour les conversations, la recherche, la surveillance, la traduction, la parole, la vision et la prise de décision.

Pour plus d'informations, reportez-vous aux ressources suivantes :

Modèles de langage IA

Les modèles de langage, comme les modèles GPT OpenAI, sont des outils puissants qui peuvent générer du langage naturel entre différents domaines et tâches. Pour choisir un modèle, tenez compte des facteurs tels que la confidentialité des données, l’utilisation éthique, la précision et le biais.

Les modèles phi ouverts sont de petits modèles moins gourmands en calcul pour les solutions d’IA génératives. Un petit modèle de langage peut être plus efficace, interprétable et expliqué qu’un modèle de langage volumineux.

Lorsque vous concevez une charge de travail, vous pouvez utiliser des modèles de langage comme solution hébergée derrière une API limitée. Pour de nombreux petits modèles de langage, vous pouvez héberger des modèles de langage au sein du même processus ou au moins sur la même ressource de calcul que l'utilisateur. Lorsque vous utilisez des modèles de langage dans votre solution, tenez compte de votre choix de modèle de langage et de ses options d’hébergement disponibles pour garantir une solution optimisée pour votre cas d’usage.

Plateformes et outils de développement IA

Les plateformes et outils de développement IA suivants peuvent vous aider à créer, déployer et gérer des modèles Machine Learning et IA.

Azure Machine Learning

Azure Machine Learning est un service Machine Learning que vous pouvez utiliser pour créer et déployer des modèles. Machine Learning fournit des interfaces web et des kits SDK pour vous permettre d’entraîner et de déployer vos modèles et pipelines Machine Learning à grande échelle. Utilisez ces fonctionnalités avec des frameworks Python open source comme PyTorch, TensorFlow et scikit-learn.

Pour plus d'informations, reportez-vous aux ressources suivantes :

Architectures de référence de l’IA et du Machine Learning pour Azure

Machine learning automatisé

Le Machine Learning automatisé (AutoML) est le processus d’automatisation des tâches itératives et fastidieuses du développement de modèles Machine Learning. Les scientifiques des données, les analystes et les développeurs peuvent utiliser AutoML pour créer des modèles Machine Learning qui ont une grande échelle, une efficacité et une productivité tout en conservant la qualité du modèle.

Pour plus d'informations, reportez-vous aux ressources suivantes :

MLflow

Les espaces de travail Machine Learning sont compatibles avec MLflow, ce qui signifie que vous pouvez utiliser un espace de travail Machine Learning de la même façon que vous utilisez un serveur MLflow. Cette compatibilité offre les avantages suivants :

  • Machine Learning n’héberge pas d’instances de serveur MLflow, mais peut utiliser directement les API MLflow.
  • Vous pouvez utiliser un espace de travail Machine Learning comme serveur de suivi pour n’importe quel code MLflow, qu’il s’exécute ou non dans Machine Learning. Vous devez configurer MLflow pour qu’il pointe vers l’espace de travail où le suivi doit se produire.
  • Vous pouvez exécuter des routines d’entraînement qui utilisent MLflow dans Machine Learning sans apporter de modifications.

Pour plus d’informations, consultez MLflow et Machine Learning et MLflow.

Outils d’IA générative

  • Foundry fournit une plateforme pour vous aider à expérimenter, développer et déployer des applications et DES API d’IA génératives de manière responsable. Utilisez le portail Foundry pour rechercher des outils Foundry, des modèles de base, un terrain de jeu et des ressources pour vous aider à affiner, évaluer et déployer des modèles IA et des agents IA.

    Le service d'agents Foundry héberge les agents que vous définissez. Ces agents se connectent à un modèle de base dans le catalogue de modèles IA et éventuellement à vos propres magasins de connaissances ou API personnalisés. Vous pouvez définir ces agents de manière déclarative ou Foundry peut les conteneuriser et les héberger.

  • Copilot Studio étend Copilot dans Microsoft 365. Vous pouvez utiliser Copilot Studio pour créer des copilotes personnalisés pour des scénarios internes et externes. Utilisez un canevas de création pour concevoir, tester et publier des copilotes. Vous pouvez facilement créer des conversations génératives compatibles avec l’IA, fournir un meilleur contrôle des réponses pour les copilotes existants et accélérer la productivité à l’aide de flux de travail automatisés.

Plateformes de données pour l’IA

Les plateformes suivantes fournissent des solutions pour le déplacement, le traitement, l’ingestion, la transformation, l’analytique en temps réel et la création de rapports.

Microsoft Fabric

Microsoft Fabric est une plateforme d’analytique et de données de bout en bout pour les entreprises qui nécessitent une solution unifiée. Les équipes de charge de travail peuvent utiliser des données dans Fabric. La plateforme couvre le déplacement, le traitement, l’ingestion, la transformation, le routage des événements en temps réel et la génération de rapports. Il fournit une suite de services, notamment Fabric Data Engineer, Fabric Data Factory, Fabric Data Science, Fabric Real-Time Intelligence, Fabric Data Warehouse et Fabric Databases.

Fabric intègre des composants distincts dans une pile cohérente. Au lieu de compter sur différentes bases de données ou entrepôts de données, vous pouvez centraliser le stockage des données à l’aide de OneLake. Les fonctionnalités d’IA sont incorporées dans Fabric, ce qui élimine la nécessité d’une intégration manuelle.

Pour plus d'informations, reportez-vous aux ressources suivantes :

Copilotes dans Fabric

Vous pouvez utiliser Copilot et d’autres fonctionnalités d’IA génératives pour transformer et analyser des données, générer des insights et créer des visualisations et des rapports dans Fabric et Power BI. Vous pouvez créer votre propre copilote ou choisir l’un des copilotes prédéfinis suivants :

Agent de données dans Fabric

L’agent de données dans Fabric est une fonctionnalité que vous pouvez utiliser pour créer vos propres systèmes Q&A conversationnels à l’aide de l’IA générative. Un agent de données Fabric facilite l'utilisation des analyses de données et les rend plus exploitables pour tous les membres de votre organisation.

Pour plus d'informations, reportez-vous aux ressources suivantes :

Plateformes de données basées sur Apache Spark pour l’IA

Apache Spark est une infrastructure de traitement parallèle qui prend en charge le traitement en mémoire pour améliorer les performances des applications d’analytique du Big Data. Spark fournit des blocs de construction de base pour le calcul des clusters en mémoire. Un travail Spark peut charger et mettre en cache des données en mémoire et les interroger à plusieurs reprises, ce qui est plus rapide que les applications basées sur disque, comme Hadoop.

Spark dans Fabric

Fabric Runtime est une plateforme intégrée à Azure basée sur Spark que vous pouvez utiliser pour implémenter et gérer des expériences d’ingénierie des données et de science des données. Fabric Runtime combine les composants clés provenant de sources internes et open source, qui fournissent une solution complète.

Fabric Runtime a les composants clés suivants :

  • Spark est une bibliothèque d’informatique distribuée open source que vous pouvez utiliser pour les tâches de traitement et d’analyse des données à grande échelle. Spark offre une plateforme polyvalente pour l’ingénierie des données et les expériences de science des données.

  • Delta Lake est une couche de stockage open source qui intègre des transactions atomicité, cohérence, isolation et durabilité (ACID) et d’autres fonctionnalités de fiabilité des données avec Spark. Intégré dans Fabric Runtime, Delta Lake améliore les fonctionnalités de traitement des données et permet de garantir la cohérence des données entre plusieurs tâches simultanées.

  • packages de niveau par défaut pour Java, Scala, Python et R sont des packages qui prennent en charge différents langages de programmation et environnements. Ces packages sont automatiquement installés et configurés afin que les développeurs puissent appliquer leurs langages de programmation préférés pour les tâches de traitement des données.

Fabric Runtime est basé sur un système d’exploitation open source qui assure la compatibilité avec différentes configurations matérielles et configuration système requise.

Pour plus d’informations, consultez les runtimes Spark dans Fabric.

Azure Databricks Runtime pour le Machine Learning

Azure Databricks est une plateforme d’analytique basée sur Spark qui inclut des workflows et un espace de travail interactif pour la collaboration entre les scientifiques des données, les ingénieurs et les analystes métier.

Vous pouvez utiliser Databricks Runtime pour Machine Learning pour démarrer un cluster Databricks avec toutes les bibliothèques requises pour l’apprentissage distribué. Cette fonctionnalité fournit un environnement pour le Machine Learning et la science des données. Il a plusieurs bibliothèques populaires, notamment TensorFlow, PyTorch, Keras et XGBoost. Il prend également en charge la formation distribuée via Horovod.

Pour plus d'informations, reportez-vous aux ressources suivantes :

Spark dans Azure HDInsight

Spark dans Azure HDInsight est l’implémentation Microsoft de Spark dans le cloud. Les clusters Spark dans HDInsight sont compatibles avec stockage Azure et Azure Data Lake Storage. Vous pouvez donc utiliser des clusters HDInsight Spark pour traiter les données que vous stockez dans Azure.

SynapseML est la bibliothèque De Machine Learning Microsoft pour Spark. Cette bibliothèque open source ajoute de nombreux outils de Deep Learning et de science des données, des fonctionnalités de mise en réseau et des performances de niveau de production à l’écosystème Spark.

Pour plus d'informations, reportez-vous aux ressources suivantes :

Stockage de données pour l’IA

Vous pouvez utiliser les plateformes suivantes pour stocker, utiliser et analyser efficacement de grands volumes de données.

Fabric OneLake

OneLake dans Fabric est un lac de données unifié et logique que vous pouvez adapter à l’ensemble de votre organisation. Il s’agit du hub central pour toutes les données d’analyse et est inclus avec chaque locataire Fabric. OneLake dans Fabric repose sur la base de Data Lake Storage.

OneLake au sein de Fabric offre les avantages suivants :

  • Prend en charge les types de fichiers structurés et non structurés
  • Stocke toutes les données tabulaires au format Delta-Parquet
  • Fournit un lac de données unique dans les limites du locataire régies par défaut
  • Prend en charge la création d’espaces de travail au sein d’un locataire afin que votre organisation puisse distribuer les stratégies de propriété et d’accès
  • Prend en charge la création de différents éléments de données, tels que lakehouses et entrepôts, où vous pouvez utiliser des données

Pour plus d'informations, consultez OneLake, le OneDrive des données.

Data Lake Storage

Data Lake Storage est un référentiel centralisé unique où vous pouvez stocker vos données structurées et non structurées. Utilisez un lac de données pour stocker, utiliser et analyser rapidement et facilement un large éventail de données dans un emplacement unique. Vous n’avez pas besoin de conformer vos données pour qu’elles correspondent à une structure existante. Au lieu de cela, vous pouvez stocker vos données dans son format brut ou natif, généralement sous forme de fichiers ou d’objets blob volumineux binaires.

Data Lake Storage fournit la sémantique du système de fichiers, la sécurité au niveau des fichiers et la mise à l’échelle. Étant donné que ces fonctionnalités sont basées sur stockage Blob Azure, vous bénéficiez également d’un stockage hiérarchisé à faible coût qui dispose de fonctionnalités de haute disponibilité et de récupération d’urgence.

Data Lake Storage utilise l’infrastructure de stockage pour créer une base pour créer des lacs de données d’entreprise sur Azure. Data Lake Storage peut traiter plusieurs pétaoctets d’informations tout en conservant des centaines de gigaoctets de débit afin de pouvoir gérer de grandes quantités de données.

Pour plus d'informations, reportez-vous aux ressources suivantes :

Traitement des données pour l’IA

Vous pouvez utiliser les outils suivants pour préparer des données pour les applications Machine Learning et IA. Assurez-vous que vos données sont propres et structurées afin de pouvoir les utiliser pour des analyses avancées.

usine de données Fabric

Vous pouvez utiliser Fabric Data Factory pour ingérer, préparer et transformer des données à partir de plusieurs sources de données, telles que des bases de données, des entrepôts de données, des lakehouses et des flux de données en temps réel. Cette fonctionnalité peut vous aider à répondre à vos besoins en matière d’opérations de données lorsque vous concevez des charges de travail.

Data Factory prend en charge les solutions basées sur du code et les solutions sans code ou avec peu de code.

  • Utilisez pipelines de données pour créer des fonctionnalités de flux de travail à l’échelle du cloud. Utilisez l’interface select-and-move pour créer des flux de travail qui peuvent actualiser votre flux de données, déplacer des données de taille pétaoctet et définir des pipelines de flux de contrôle.

  • Utilisez dataflows en tant qu’interface à faible code pour ingérer des données à partir de centaines de sources de données et les transformer à l’aide de plus de 300 transformations de données.

Pour plus d'informations, consultez le scénario de bout en bout de Data Factory : Introduction et architecture.

Azure Databricks

Vous pouvez utiliser databricks Data Intelligence Platform pour écrire du code pour créer un flux de travail Machine Learning à l’aide de l’ingénierie des fonctionnalités. l’ingénierie des fonctionnalités est le processus de transformation des données brutes en fonctionnalités que vous pouvez utiliser pour entraîner des modèles Machine Learning. La plateforme Databricks Data Intelligence inclut des fonctionnalités clés qui prennent en charge l’ingénierie des fonctionnalités :

  • Les pipelines de données ingèrent des données brutes , créent des tables de fonctionnalités, entraînent des modèles et effectuent une inférence par lots. Lorsque vous utilisez l’ingénierie des fonctionnalités dans le catalogue Unity pour entraîner et journaliser un modèle, le modèle est empaqueté avec des métadonnées de fonctionnalité. Quand vous utilisez le modèle pour du scoring par lot ou de l’inférence en ligne, il récupère automatiquement les valeurs des fonctionnalités. L’appelant n’a pas besoin de connaître les valeurs ni de mettre en œuvre la logique pour rechercher ou combiner des caractéristiques afin d’évaluer de nouvelles données.

  • Les points de terminaison pour la diffusion des modèles et des fonctionnalités sont immédiatement disponibles et offrent une latence de quelques millisecondes.

  • La surveillance permet de garantir la performance et la précision des données et des modèles.

Vous pouvez également utiliser Mosaic AI Vector Search pour stocker et récupérer les embeddings. Les incorporations sont cruciales pour les applications qui nécessitent des recherches de similarité, telles que RAG, des systèmes de recommandation et la reconnaissance d’images.

Pour plus d’informations, consultez Servir des données pour le Machine Learning et l’IA.

Connecteurs de données pour l’IA

Les pipelines Azure Data Factory et Azure Synapse Analytics prennent en charge de nombreux magasins de données et formats à travers des activités de copie, flux de données, recherche, métadonnées et suppression. Pour afficher les connecteurs de magasin de données disponibles, les fonctionnalités prises en charge et leurs configurations correspondantes et les options génériques Open Database Connectivity, consultez la vue d’ensemble du connecteur Azure Data Factory et Azure Synapse Analytics.

IA personnalisée

Les solutions d’IA personnalisées vous aident à répondre aux besoins et aux défis spécifiques de l’entreprise. Les sections suivantes fournissent une vue d’ensemble des différents outils et services que vous pouvez utiliser pour créer et gérer des modèles IA personnalisés.

Azure Machine Learning

Azure Machine Learning est un service cloud permettant d’accélérer et de gérer le cycle de vie du projet Machine Learning. Les professionnels du Machine Learning, les scientifiques des données et les ingénieurs peuvent utiliser ce service dans leurs workflows pour former et déployer des modèles et gérer des tâches de Machine Learning.

Machine Learning fournit les fonctionnalités suivantes :

  • Sélection de l’algorithme : Certains algorithmes effectuent des hypothèses spécifiques sur la structure de données ou les résultats souhaités. Choisissez un algorithme qui répond à vos besoins afin que vous puissiez obtenir des résultats plus utiles, des prédictions plus précises et des temps d’entraînement plus rapides. Pour plus d’informations, consultez Comment choisir des algorithmes pour Machine Learning.

  • paramétrage ou optimisation des hyperparamètres : Vous pouvez utiliser ce processus manuel pour rechercher des configurations d’hyperparamètres qui entraînent des performances optimales. Cette optimisation entraîne des coûts de calcul significatifs. les hyperparamètres sont des paramètres ajustables qui fournissent un contrôle dans le processus d’entraînement du modèle. Par exemple, vous pouvez choisir le nombre de couches masquées et le nombre de nœuds dans chaque couche de réseaux neuronaux. Les performances du modèle dépendent fortement des hyperparamètres.

    Vous pouvez utiliser Machine Learning pour automatiser le réglage des hyperparamètres et exécuter des expériences en parallèle pour optimiser efficacement les hyperparamètres.

    Pour plus d'informations, reportez-vous aux ressources suivantes :

  • Entraînement du modèle : Vous pouvez utiliser de manière itérative un algorithme pour créer ou enseigner des modèles. Après avoir entraîné les modèles, vous pouvez les utiliser pour analyser les données et effectuer des prédictions.

    Les étapes suivantes se produisent pendant la phase d’entraînement :

    1. Un ensemble de données connues est marqué de façon à ce que les champs individuels soient identifiables.

    2. Un algorithme configuré pour effectuer une prédiction particulière reçoit les données étiquetées.

    3. L’algorithme génère un modèle qui capture les modèles qu’il a identifiés dans les données. Le modèle utilise un ensemble de paramètres pour représenter ces modèles.

    Les étapes suivantes se produisent lors de la validation :

    1. Les données fraîches sont étiquetées et utilisées pour tester le modèle.

    2. L’algorithme est ajusté selon les besoins et peut-être effectue davantage d’entraînement.

    3. La phase de test utilise des données réelles sans balises ni cibles préélectionnées. Si les résultats du modèle sont précis, il est prêt à être utilisé et peut être déployé.

    Pour plus d'informations, reportez-vous aux ressources suivantes :

  • AutoML : Ce processus automatise les tâches itératives et fastidieuses du développement de modèles Machine Learning. Il peut réduire considérablement le temps nécessaire pour produire des modèles Machine Learning prêts pour la production. AutoML peut faciliter la sélection du modèle, le réglage des hyperparamètres, l’entraînement du modèle et d’autres tâches, sans nécessiter de connaissances approfondies en programmation ou domaine.

    Vous pouvez utiliser AutoML lorsque vous souhaitez que Machine Learning utilise une métrique cible spécifique pour entraîner et régler un modèle. Vous n’avez pas besoin d’une expertise en science des données pour trouver des problèmes dans un pipeline Machine Learning de bout en bout.

    Les professionnels du Machine Learning et les développeurs dans les secteurs peuvent utiliser AutoML pour effectuer les tâches suivantes :

    • Implémentez des solutions Machine Learning sans connaissances approfondies en programmation ou en machine learning.
    • Gagnez du temps et des ressources.
    • Appliquez les meilleures pratiques en matière de science des données.
    • Fournir une résolution de problèmes agile.

    Pour plus d’informations, consultez la vue d’ensemble d’AutoML.

  • Scoring : ce processus, également appelé prédiction, utilise un modèle Machine Learning entraîné pour générer des valeurs basées sur de nouvelles données d’entrée. Les valeurs, ou scores, peuvent représenter des prédictions de valeurs futures, mais elles peuvent également représenter une catégorie ou un résultat probable.

    Pour plus d'informations, reportez-vous aux ressources suivantes :

  • Ingénierie des caractéristiques et caractérisation : les données d’apprentissage se composent de lignes et de colonnes. Chaque ligne est une observation ou un enregistrement et les colonnes de chaque ligne sont les caractéristiques qui décrivent chaque enregistrement. En règle générale, vous choisissez les fonctionnalités qui caractérisent le mieux les modèles dans les données pour créer des modèles prédictifs.

Bien que vous puissiez utiliser la plupart des champs de données brutes pour entraîner un modèle, vous devrez peut-être créer d’autres fonctionnalités conçues qui fournissent des informations pour différencier les modèles dans les données plus facilement. Ce processus est appelé ingénierie des fonctionnalités, où vous utilisez la connaissance du domaine des données pour créer des fonctionnalités qui aident les algorithmes de Machine Learning à mieux apprendre.

Dans Machine Learning, les techniques de mise à l’échelle et de normalisation des données sont appliquées pour faciliter l’ingénierie des fonctionnalités. Collectivement, ces techniques et l'ingénierie des fonctionnalités sont appelées featurisation dans les expériences AutoML. Pour plus d’informations, consultez Caractérisation des données dans AutoML.

Microsoft Foundry

Dans Foundry, vous pouvez utiliser un processus appelé réglage précis pour adapter des modèles à vos jeux de données personnels. Cette étape de personnalisation optimise le service en fournissant les avantages suivants :

  • Résultats de qualité supérieure par rapport à l’ingénierie rapide uniquement
  • La possibilité d’effectuer l’apprentissage sur plus d’exemples que la limite maximale de contexte de requête d’un modèle autorise généralement
  • Économies de jetons en raison de invites plus courtes
  • Demandes à latence inférieure, en particulier lorsque vous utilisez des modèles plus petits

Pour plus d'informations, reportez-vous aux ressources suivantes :

Outils de fonderie pour l’IA personnalisée

Foundry Tools fournit des fonctionnalités permettant de créer des modèles et applications IA personnalisés. Les sections suivantes fournissent une vue d’ensemble de ces fonctionnalités clés.

Parole personnalisée

La reconnaissance vocale personnalisée est une fonctionnalité d’Azure Speech. Vous pouvez utiliser la reconnaissance vocale personnalisée pour évaluer et améliorer la précision de la reconnaissance vocale pour vos applications et produits. Utilisez un modèle de reconnaissance vocale personnalisé pour la reconnaissance vocale en temps réel, la traduction vocale et la transcription par lots.

Par défaut, la reconnaissance vocale utilise un modèle de langage universel comme modèle de base. Ce modèle est entraîné avec des données appartenant à Microsoft et reflète la langue parlée couramment utilisée. Le modèle de base est préentraîné avec des dialectes et des phonétiques qui représentent des domaines communs. Lorsque vous effectuez une demande de reconnaissance vocale, le modèle de base le plus récent pour votre langue prise en charge est utilisé par défaut. Le modèle de base fonctionne bien dans la plupart des scénarios de reconnaissance vocale.

Vous pouvez utiliser un modèle personnalisé pour augmenter le modèle de base. Par exemple, vous pouvez améliorer la reconnaissance du vocabulaire spécifique au domaine spécifique à une application en fournissant des données de texte pour entraîner le modèle. Vous pouvez également améliorer la reconnaissance pour des conditions audio spécifiques d’une application en fournissant des données audio, notamment des transcriptions de référence.

Si les données suivent un modèle, vous pouvez utiliser du texte structuré pour entraîner un modèle. Vous pouvez spécifier des prononciations personnalisées et personnaliser la mise en forme du texte d’affichage à l’aide d’une normalisation de texte inverse personnalisée, d’une réécriture personnalisée et d’un filtrage de profanité personnalisé.

Traducteur personnalisé

Le traducteur personnalisé est une fonctionnalité d’Azure Translator. Les entreprises, les développeurs d’applications et les fournisseurs de services linguistiques peuvent utiliser le traducteur personnalisé pour créer des systèmes de traduction automatique neuronale (NMT) personnalisés. Les systèmes de traduction personnalisés s’intègrent aux applications, workflows et sites web existants.

Vous pouvez utiliser cette fonctionnalité pour créer et publier des systèmes de traduction personnalisés vers et depuis l’anglais. Le traducteur personnalisé prend en charge plus de trois douzaines de langues qui correspondent directement aux langues de LMT. Pour obtenir la liste complète des langues, consultez Prise en charge des langues de Translator.

Le traducteur personnalisé fournit les fonctionnalités suivantes.

Fonctionnalité Descriptif
Appliquer la technologie NMT Appliquez NMT à partir du traducteur personnalisé pour améliorer votre traduction.
Créer des systèmes qui connaissent votre terminologie métier Personnalisez et créez des systèmes de traduction à l’aide de documents parallèles qui utilisent la terminologie de votre entreprise et de votre secteur d’activité.
Utiliser un dictionnaire pour générer vos modèles Entraîner un modèle à l’aide de données de dictionnaire uniquement si vous n’avez pas de jeu de données d’entraînement.
Collaborer avec d’autres personnes Collaborez avec votre équipe en partageant votre travail avec différentes personnes.
Utiliser votre modèle de traduction personnalisé Utilisez votre modèle de traduction personnalisé à tout moment à l’aide de vos applications ou programmes existants via l’API de traduction de texte Microsoft Translator Text V3.

Modèles personnalisés

Azure Document Intelligence utilise une technologie de Machine Learning avancée pour identifier les documents, détecter et extraire des informations à partir de formulaires et de documents, et retourner les données extraites dans une sortie JSON structurée. Utilisez Document Intelligence pour tirer parti des modèles d’analyse de documents prédéfinis ou préentraînés ou des modèles personnalisés autonomes formés.

Les modèles personnalisés de Document Intelligence comprennent des modèles de classification personnalisés pour les scénarios dans lesquels vous devez identifier le type de document avant d'invoquer le modèle d'extraction. Vous pouvez associer un modèle de classification à un modèle d’extraction personnalisé pour analyser et extraire des champs à partir de formulaires et de documents spécifiques à votre entreprise. Combinez des modèles d'extraction personnalisés autonomes pour créer des modèles composés

Analyseur personnalisé

Azure Content Understanding utilise l’IA générative pour traiter ou ingérer de nombreux types de contenu, notamment des documents, des images, des vidéos et du contenu audio, dans un format de sortie défini par l’utilisateur. Content Understanding est fourni avec des analyseurs prédéfinis pour les types et scénarios de contenu courants.

L’analyseur personnalisé est une fonctionnalité de Content Understanding qui crée des analyseurs personnalisés adaptés à vos besoins de traitement de contenu spécifiques. Vous pouvez définir des règles d’extraction personnalisées et des modèles de reconnaissance d’entité pour répondre à vos besoins métier.

Outils d’IA personnalisés

Les modèles IA prédéfinis sont utiles et de plus en plus flexibles, mais la meilleure façon d’optimiser l’IA consiste à adapter un modèle à vos besoins spécifiques. Deux outils principaux pour créer des modèles IA personnalisés sont l’IA générative et le Machine Learning traditionnel.

Azure Machine Learning Studio

Azure Machine Learning Studio est un service cloud permettant d’accélérer et de gérer le cycle de vie du projet Machine Learning. Les professionnels du Machine Learning, les scientifiques des données et les ingénieurs peuvent l’utiliser dans leurs workflows pour former et déployer des modèles et gérer des tâches de Machine Learning.

  • Créez et entraînez des modèles Machine Learning à l’aide de n’importe quel type de calcul, y compris Spark et les GPU pour les charges de travail d’IA à l’échelle du cloud.

  • Exécutez AutoML et utilisez l’interface utilisateur select-and-move pour Le Machine Learning à faible code.

  • Implémentez des tâches Machine Learning de bout en bout et des pipelines reproductibles.

  • Utilisez le tableau de bord IA responsable pour la détection de biais et l’analyse des erreurs.

  • Orchestrez et gérez les flux de modèles d’ingénierie et de langage prompts.

  • Déployez des modèles via des points de terminaison d’API REST, une inférence en temps réel et une inférence par lots.

  • Utilisez des espaces de travail hub pour partager le calcul, le quota, la sécurité et la connectivité aux ressources d’entreprise, tout en centralisant la gouvernance pour le service informatique. Configurez un hub une seule fois, puis créez des espaces de travail sécurisés directement à partir du studio pour chaque projet. Utilisez hubs pour gérer le travail de votre équipe dans le studio et le portail Foundry.

Fonderie

Foundry vous aide à créer et déployer efficacement des applications d’INTELLIGENCE artificielle personnalisées à l’aide des fonctionnalités d’IA Azure.

  • Créez ensemble en tant qu’équipe. Votre compte Foundry fournit une sécurité de niveau entreprise et un environnement collaboratif qui inclut des ressources partagées et des connexions aux modèles préentraînés, aux données et au calcul.

  • Organiser votre travail Votre projet Foundry vous aide à enregistrer l’état afin que vous puissiez itérer à partir de la première idée vers le premier prototype et le premier déploiement de production. Invitez facilement d’autres personnes à collaborer avec vous.

  • Utilisez votre plateforme et frameworks de développement préférés, notamment GitHub, Visual Studio Code, Agent Framework, Noyau sémantique et AutoGen.

  • Découvrez et testez des modèles à partir d’un large catalogue.

  • Déployez des modèles en tant que service (MaaS) via des API sans serveur et utilisez un ajustement fin hébergé.

  • Incorporez plusieurs modèles, sources de données et modalités.

  • Créez RAG à l’aide de vos données d’entreprise protégées, sans avoir besoin de réglage précis.

  • Orchestrez et gérez les flux d’ingénierie rapide et de modèles de langage volumineux.

  • Concevoir et protéger des applications et DES API via des filtres et des contrôles configurables.

  • Évaluez les réponses de modèle à l’aide de flux d’évaluation intégrés et personnalisés.

  • Déployez des innovations IA sur l’infrastructure managée par Azure pour fournir une supervision et une gouvernance continues dans les environnements.

  • Surveillez en continu les applications déployées afin d'assurer la sécurité, la qualité, et la consommation de jetons en production.

Service De l’agent Foundry dans le portail Foundry

Foundry Agent Service est un outil que vous pouvez utiliser pour créer des agents IA à l’aide d’une approche sans code et non déterministe. Les agents sont exposés en tant que microservices sur le compte Foundry.

Chaque agent se connecte à un modèle de base à partir du catalogue Modèles Foundry. Les agents peuvent éventuellement se connecter à vos magasins de connaissances privés personnalisés ou aux données publiques. Les agents peuvent également utiliser des outils pour interagir avec du code personnalisé et effectuer des tâches.

Langages de code IA personnalisés

Le concept fondamental de l'IA repose sur l'utilisation d'algorithmes pour analyser les données et générer des modèles qui les décrivent ou les évaluent de façons pratiques et utiles. Les développeurs et les scientifiques des données, et parfois d’autres algorithmes, utilisent du code de programmation pour écrire des algorithmes. Deux des langages de programmation les plus populaires pour le développement d’IA sont Python et R.

Python est un langage de programmation de haut niveau et à usage général. Il a une syntaxe simple qui met l’accent sur la lisibilité. Vous n’avez pas besoin d’exécuter une étape de compilation. Python dispose d’une grande bibliothèque standard et prend en charge la possibilité d’ajouter des modules et des packages. Cette fonctionnalité encourage la modularité et vous permet d’étendre les fonctionnalités si nécessaire. Il existe un écosystème important et croissant de bibliothèques d’IA et de Machine Learning pour Python, y compris beaucoup dans Azure.

Pour plus d'informations, reportez-vous aux ressources suivantes :

R est un langage et un environnement pour l’informatique statistique et les graphiques. Vous pouvez l’utiliser pour tout, de la cartographie des tendances sociales et marketing générales en ligne au développement de modèles financiers et climatiques.

Microsoft adopte entièrement le langage de programmation R et fournit de nombreuses options aux développeurs R pour exécuter leur code dans Azure.

Pour plus d’informations, consultez Utiliser R de manière interactive sur Machine Learning.

Pour obtenir des informations générales sur l’IA personnalisée sur Azure, consultez les ressources suivantes :

Témoignages client

De nombreuses industries appliquent l’IA de manière innovante et inspirante. Tenez compte des études de cas client suivantes et des histoires de réussite :

Parcourir d’autres récits de clients de l’IA

Informations générales sur Microsoft AI

En savoir plus sur l’IA Microsoft et rester à jour avec les actualités connexes :

Étape suivante