Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Nota:
Este documento hace referencia al portal de Microsoft Foundry (clásico).
🔍 Consulte la documentación de Microsoft Foundry (nuevo) para obtener información sobre el nuevo portal.
Importante
Si actualmente usa un SDK beta de inferencia de Azure AI con los modelos de Microsoft Foundry o el servicio Azure OpenAI, se recomienda encarecidamente realizar la transición a la API openAI/v1 disponible con carácter general, que usa un SDK estable de OpenAI.
Para más información sobre cómo migrar a la API de OpenAI/v1 mediante un SDK en el lenguaje de programación que prefiera, consulte Migración del SDK de inferencia de Azure AI a OpenAI SDK.
Todos los modelos implementados en Microsoft Foundry Models admiten la API de inferencia de modelos de Azure AI y su familia asociada de SDK.
Para usar estos SDK, conéctelos al URI de inferencia del modelo de Azure AI (normalmente con el formato https://<resource-name>.services.ai.azure.com/models).
Paquete de inferencia de Azure AI
El paquete de inferencia de Azure AI permite consumir todos los modelos implementados en el recurso Foundry y cambiar fácilmente la implementación del modelo de uno a otro. El paquete de inferencia de Azure AI forma parte del SDK de Microsoft Foundry.
| Lenguaje | Documentación | Paquete | Ejemplos |
|---|---|---|---|
| C# | Referencia | azure-ai-inference (NuGet) | Ejemplos de C# |
| Java | Referencia | azure-ai-inference (Maven) | Ejemplos de Java |
| JavaScript | Referencia | @azure/ai-inference (npm) | Ejemplos de JavaScript |
| Pitón | Referencia | azure-ai-inference (PyPi) | Ejemplos de Python |
Integraciones
| Marco de referencia | Lenguaje | Documentación | Paquete | Ejemplos |
|---|---|---|---|---|
| LangChain | Pitón | Referencia | langchain-azure-ai (PyPi) | Ejemplos de Python |
| Llama-Index | Pitón | Referencia |
llama-index-llms-azure-inference (PyPi) llama-index-embeddings-azure-inference (PyPi) |
Ejemplos de Python |
| Kernel semántico | Pitón | Referencia | semantic-kernel[azure] (PyPi) | Ejemplos de Python |
| AutoGen | Pitón | Referencia | autogen-ext[azure] (PyPi) | Inicio rápido |
Limitaciones
Foundry no admite el SDK de Cohere ni el SDK mistral.
Paso siguiente
- Para ver qué modelos se admiten actualmente, consulte Foundry Models y funcionalidades.