Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga / Notatka
Ten dokument odnosi się do portalu Microsoft Foundry (klasycznego).
🔍 Zapoznaj się z dokumentacją rozwiązania Microsoft Foundry (nową), aby dowiedzieć się więcej o nowym portalu.
Ważne
Jeśli obecnie używasz wersji beta zestawu SDK do wnioskowania Azure AI z modelami Microsoft Foundry lub usługą Azure OpenAI, zdecydowanie zalecamy przejście na ogólnie dostępny interfejs API OpenAI/v1, który korzysta ze stabilnego zestawu SDK OpenAI.
Aby uzyskać więcej informacji na temat migracji do interfejsu API OpenAI/v1 za pomocą zestawu SDK w preferowanym języku programowania, zapoznaj się z Migracja z zestawu SDK wnioskowania Azure AI do zestawu SDK OpenAI.
Wszystkie modele wdrożone w Microsoft Foundry Models obsługują interfejs API wnioskowania modelu AI platformy Azure i skojarzoną z nim rodzinę zestawów SDK.
Aby użyć tych zestawów SDK, połącz je z identyfikatorem URI wnioskowania modelu AI platformy Azure (zwykle w postaci https://<resource-name>.services.ai.azure.com/models).
Pakiet inferencji Azure AI
Pakiet wnioskowania sztucznej inteligencji platformy Azure umożliwia korzystanie ze wszystkich modeli wdrożonych w zasobie rozwiązania Foundry i łatwe przełączanie wdrożenia modelu z jednego do drugiego. Pakiet wnioskowania usługi Azure AI jest częścią zestawu Microsoft Foundry SDK.
| Język | Dokumentacja | Pakiet | Przykłady |
|---|---|---|---|
| C# | Referencja | azure-ai-inference (NuGet) | Przykłady w języku C# |
| Java | Referencja | azure-ai-inference (Maven) | Przykłady języka Java |
| JavaScript | Referencja | @azure/wnioskowanie ai (npm) | Przykłady kodu JavaScript |
| Python | Referencja | azure-ai-inference (PyPi) | Przykłady języka Python |
Integracje
| Framework | Język | Dokumentacja | Pakiet | Przykłady |
|---|---|---|---|---|
| LangChain | Python | Referencja | langchain-azure-ai (PyPi) | Przykłady języka Python |
| Llama-Index | Python | Referencja |
llama-index-llms-azure-inference (PyPi) llama-index-embeddings-azure-inference (PyPi) |
Przykłady języka Python |
| Jądro semantyczne | Python | Referencja | semantyczne jądro[azure] (PyPi) | Przykłady języka Python |
| Autogen | Python | Referencja | autogen-ext[azure] (PyPi) | Szybki start |
Ograniczenia
Narzędzie Foundry nie obsługuje SDK Cohere ani SDK Mistral.
Następny krok
- Aby zobaczyć, jakie modele są obecnie obsługiwane, zobacz Modele i możliwości platformy Foundry.