Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Note
Ce document fait référence au portail Microsoft Foundry (classique).
🔍 Consultez la documentation Microsoft Foundry (nouvelle) pour en savoir plus sur le nouveau portail.
Important
Si vous utilisez actuellement un Kit de développement logiciel (SDK) Azure AI Inference bêta avec les modèles Microsoft Foundry ou le service Azure OpenAI, nous vous recommandons vivement de passer à l’API OpenAI/v1 généralement disponible, qui utilise un SDK stable OpenAI.
Pour plus d’informations sur la migration vers l’API OpenAI/v1 à l’aide d’un SDK dans votre langage de programmation de votre choix, consultez Migrer du SDK d’inférence Azure AI vers le KIT SDK OpenAI.
Tous les modèles déployés sur les modèles Microsoft Foundry prennent en charge l’API d’inférence de modèle Azure AI et sa famille associée de kits SDK.
Pour utiliser ces kits SDK, connectez-les à l’URI d’inférence du modèle Azure AI (généralement sous la forme https://<resource-name>.services.ai.azure.com/models).
Package d’inférence Azure AI
Le package d’inférence Azure AI vous permet d’utiliser tous les modèles déployés sur la ressource Foundry et de basculer facilement le déploiement du modèle de l’un vers l’autre. Le package d’inférence Azure AI fait partie du Kit de développement logiciel (SDK) Microsoft Foundry.
| Langue | Documentation | Paquet | Exemples |
|---|---|---|---|
| C# | Référence | azure-ai-inference (NuGet) | Exemples C# |
| Java | Référence | azure-ai-inference (Maven) | Exemples Java |
| JavaScript | Référence | @azure/ai-inference (npm) | Exemples JavaScript |
| Python | Référence | azure-ai-inference (PyPi) | Exemples Python |
Intégrations
| Cadre | Langue | Documentation | Paquet | Exemples |
|---|---|---|---|---|
| LangChain | Python | Référence | langchain-azure-ai (PyPi) | Exemples Python |
| Llama-Index | Python | Référence |
llama-index-llms-azure-inference (PyPi) llama-index-embeddings-azure-inference (PyPi) |
Exemples Python |
| Noyau sémantique | Python | Référence | semantic-kernel[azure] (PyPi) | Exemples Python |
| AutoGen | Python | Référence | autogen-ext[azure] (PyPi) | Démarrage rapide |
Limites
Foundry ne prend pas en charge le Kit de développement logiciel (SDK) Cohere ou le Kit de développement logiciel (SDK) Mistral.
Étape suivante
- Pour voir les modèles qui sont actuellement pris en charge, consultez Modèles Foundry et fonctionnalités.