你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
注释
本文档指的是 Microsoft Foundry(新) 门户网站。
本文介绍如何使用响应 API 为 Foundry 模型(如 Microsoft AI、DeepSeek 和 Grok 模型)生成文本响应。 有关支持使用响应 API 的 Foundry 模型的完整列表,请参阅 支持的 Foundry 模型。
先决条件
若要在应用程序中将响应 API 与已部署的模型配合使用,需要:
一份 Azure 订阅。 如果你正在使用 GitHub 模型,则可以升级体验并在此过程中创建 Azure 订阅。 阅读 从 GitHub 模型升级到 Microsoft Foundry 模型 (如果是这样的话)。
Foundry 项目。 此类项目在 Foundry 资源下管理。 如果没有 Foundry 项目,请参阅 为 Microsoft Foundry 创建项目。
Foundry 项目的端点 URL,其格式为
https://YOUR-RESOURCE-NAME.services.ai.azure.com/api/projects/YOUR_PROJECT_NAME。Foundry 模型的部署示例(如本文中使用的
MAI-DS-R1模型)。 如果还没有部署,请参阅 将 Foundry 模型添加到资源的模型部署并对其进行配置 。
使用响应 API 生成文本
使用本节中的代码对 Foundry 模型进行响应 API 调用。 在代码示例中,创建客户端以访问模型,然后向其发送简单请求。
注释
将无密钥身份验证与 Microsoft Entra ID 配合使用。 若要了解有关无密钥身份验证的详细信息,请参阅 什么是Microsoft Entra 身份验证? 和 DefaultAzureCredential。
安装库,包括 Azure 标识客户端库:
pip install azure-identity pip install openai pip install --pre azure-ai-projects>=2.0.0b1使用以下代码在项目路由中配置 OpenAI 客户端对象,指定部署并生成响应。
import os from azure.identity import DefaultAzureCredential from azure.ai.projects import AIProjectClient project_client = AIProjectClient( endpoint="https://YOUR-RESOURCE-NAME.services.ai.azure.com/api/projects/YOUR_PROJECT_NAME", credential=DefaultAzureCredential(), ) openai_client = project_client.get_openai_client() response = openai_client.responses.create( model="MAI-DS-R1", # Replace with your deployment name, not the model ID input="What is the capital/major city of France?", ) print(response.model_dump_json(indent=2))
支持的 Foundry 模型
支持一系列 Foundry 模型与响应 API 一起使用。
在 Foundry 门户中查看支持的模型
若要查看 Foundry 门户中支持模型的完整列表:
- 登录到 Microsoft Foundry。 确保 New Foundry 开关处于关闭状态。 这些步骤涉及到 Foundry(经典)。
登录到 Microsoft Foundry。 确保 New Foundry 开关处于打开状态。 这些步骤适用于 Foundry(新)。
- 转到 模型目录。
- 按 功能 筛选模型,然后选择 支持的代理。
- 登录到 Microsoft Foundry。 确保 New Foundry 开关处于关闭状态。 这些步骤涉及到 Foundry(经典)。
登录到 Microsoft Foundry。 确保 New Foundry 开关处于打开状态。 这些步骤适用于 Foundry(新)。
- 选择右上方导航中的“ 发现 ”,然后选择左窗格中的 “模型 ”。
- 打开 “功能 ”下拉列表并选择 “代理支持的 筛选器”。
支持的模型列表
本部分列出了支持用于响应 API 的一些 Foundry 模型。 有关支持的 Azure OpenAI 模型,请参阅 可用的 Azure OpenAI 模型。
Azure 直接销售的模型:
- MAI-DS-R1:确定性、以精度为中心的推理。
- grok-4:复杂多步解决问题的前沿规模推理。
- grok-4-fast-reasoning:针对工作流自动化优化的加速代理推理。
- grok-4-fast-non-reasoning:高吞吐量、低延迟生成和系统路由。
- grok-3:为复杂的系统级工作流提供强大的推理。
- grok-3-mini:针对交互式、大容量用例优化的轻型模型。
- Llama-3.3-70B-Instruct:适用于企业 Q&A、决策支持和系统编排的多功能模型。
- Llama-4-Maverick-17B-128E-Instruct-FP8:FP8 优化模型,可提供快速、经济高效的推理。
- DeepSeek-V3-0324:跨文本和图像的多模式理解。
- DeepSeek-V3.1:增强的多模式推理和地面检索。
- DeepSeek-R1-0528:高级长文本和多步骤推理模型。
- gpt-oss-120b:支持透明度和可重现性的开放生态系统模型。
来自合作伙伴和社区的模型:
- Claude-Opus-4-5:跨编码、代理、计算机使用和企业工作流的最佳性能。
- 克劳德-Opus-4-1:最复杂的问题解决的前沿推理。
- Claude-Sonnet-4-5:多模式和代理工作流的均衡性能。
- Claude-Haiku-4-5:用于交互式方案的轻型高速生成。
相关内容
- 从 Azure AI 推理 SDK 迁移到 OpenAI SDK
- Azure OpenAI 支持的编程语言
- 在 OpenAI 和 Azure OpenAI 终结点之间切换
- 通过 OpenAI v1 聊天补全 API ,借助 Foundry 模型生成聊天补全内容