Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Dieses Dokument bezieht sich auf das Microsoft Foundry(klassische) Portal.
🔍 Zeigen Sie die Microsoft Foundry-Dokumentation (neu) an, um mehr über das neue Portal zu erfahren.
Von Bedeutung
Wenn Sie derzeit ein Azure AI Inference Beta SDK mit Microsoft Foundry Models oder Azure OpenAI-Dienst verwenden, empfehlen wir dringend, dass Sie zur allgemein verfügbaren OpenAI/v1-API wechseln, die ein openAI stable SDK verwendet.
Weitere Informationen zum Migrieren zur OpenAI/v1-API mithilfe eines SDK in Ihrer gewünschten Programmiersprache finden Sie unter Migrate from Azure AI Inference SDK to OpenAI SDK.
Alle Modelle, die für Microsoft Foundry Models eingesetzt werden, unterstützen die Azure AI Model Inference-API und die zugehörige Familie von SDKs.
Um diese SDKs zu verwenden, verbinden Sie sie mit dem Azure KI-Modellinferenz-URI (in der Regel im Format https://<resource-name>.services.ai.azure.com/models).
Azure KI-Rückschlusspaket
Das Azure AI Inference-Paket ermöglicht es Ihnen, alle Modelle zu nutzen, die für die Foundry-Ressource bereitgestellt sind, und die Modellbereitstellungen einfach von einer zur anderen zu wechseln. Das Azure AI Inference-Paket ist Teil des Microsoft Foundry SDK.
| Sprache | Dokumentation | Paket | Beispiele |
|---|---|---|---|
| C# | Referenz | azure-ai-inference (NuGet) | C#-Beispiele |
| Java | Referenz | azure-ai-inference (Maven) | Java-Beispiele |
| JavaScript | Referenz | @azure/ai-inference (npm) | JavaScript-Beispiele |
| Python | Referenz | azure-ai-inference (PyPi) | Python-Beispiele |
Integrationen
| Rahmenwerk | Sprache | Dokumentation | Paket | Beispiele |
|---|---|---|---|---|
| LangChain | Python | Referenz | langchain-azure-ai (PyPi) | Python-Beispiele |
| Llama-Index | Python | Referenz |
llama-index-llms-azure-inference (PyPi) llama-index-embeddings-azure-inference (PyPi) |
Python-Beispiele |
| Semantischer Kernel | Python | Referenz | semantischer Kernel[azure] (PyPi) | Python-Beispiele |
| AutoGen | Python | Referenz | autogen-ext[azure] (PyPi) | Schnellstart |
Einschränkungen
Foundry unterstützt nicht das Cohere SDK oder das Mistral SDK.
Nächster Schritt
- Informationen dazu, welche Modelle derzeit unterstützt werden, finden Sie unter Foundry Models und Funktionen.