你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

如何使用 Microsoft Foundry 模型生成文本响应

注释

本文档引用 Microsoft Foundry (经典) 门户。

🔄 如果你使用的是新门户,请切换到 Microsoft Foundry(新)文档

注释

本文档指的是 Microsoft Foundry(新) 门户网站。

本文介绍如何使用响应 API 为 Foundry 模型(如 Microsoft AI、DeepSeek 和 Grok 模型)生成文本响应。 有关支持使用响应 API 的 Foundry 模型的完整列表,请参阅 支持的 Foundry 模型

先决条件

若要在应用程序中将响应 API 与已部署的模型配合使用,需要:

使用响应 API 生成文本

使用本节中的代码对 Foundry 模型进行响应 API 调用。 在代码示例中,创建客户端以访问模型,然后向其发送简单请求。

注释

将无密钥身份验证与 Microsoft Entra ID 配合使用。 若要了解有关无密钥身份验证的详细信息,请参阅 什么是Microsoft Entra 身份验证?DefaultAzureCredential

  1. 安装库,包括 Azure 标识客户端库:

    pip install azure-identity
    pip install openai
    pip install --pre azure-ai-projects>=2.0.0b1 
    
  2. 使用以下代码在项目路由中配置 OpenAI 客户端对象,指定部署并生成响应。

    import os
    from azure.identity import DefaultAzureCredential
    from azure.ai.projects import AIProjectClient
    
    project_client = AIProjectClient(
        endpoint="https://YOUR-RESOURCE-NAME.services.ai.azure.com/api/projects/YOUR_PROJECT_NAME",
        credential=DefaultAzureCredential(),
    )
    
    openai_client = project_client.get_openai_client()
    
    response = openai_client.responses.create(
        model="MAI-DS-R1", # Replace with your deployment name, not the model ID 
        input="What is the capital/major city of France?",
    )
    
    print(response.model_dump_json(indent=2)) 
    

支持的 Foundry 模型

支持一系列 Foundry 模型与响应 API 一起使用。

在 Foundry 门户中查看支持的模型

若要查看 Foundry 门户中支持模型的完整列表:

  1. 登录到 Microsoft Foundry。 确保 New Foundry 开关处于关闭状态。 这些步骤涉及到 Foundry(经典)
    登录到 Microsoft Foundry。 确保 New Foundry 开关处于打开状态。 这些步骤适用于 Foundry(新)
  2. 转到 模型目录
  3. 功能 筛选模型,然后选择 支持的代理
  1. 登录到 Microsoft Foundry。 确保 New Foundry 开关处于关闭状态。 这些步骤涉及到 Foundry(经典)
    登录到 Microsoft Foundry。 确保 New Foundry 开关处于打开状态。 这些步骤适用于 Foundry(新)
  2. 选择右上方导航中的“ 发现 ”,然后选择左窗格中的 “模型 ”。
  3. 打开 “功能 ”下拉列表并选择 “代理支持的 筛选器”。

支持的模型列表

本部分列出了支持用于响应 API 的一些 Foundry 模型。 有关支持的 Azure OpenAI 模型,请参阅 可用的 Azure OpenAI 模型

Azure 直接销售的模型:

  • MAI-DS-R1:确定性、以精度为中心的推理。
  • grok-4:复杂多步解决问题的前沿规模推理。
  • grok-4-fast-reasoning:针对工作流自动化优化的加速代理推理。
  • grok-4-fast-non-reasoning:高吞吐量、低延迟生成和系统路由。
  • grok-3:为复杂的系统级工作流提供强大的推理。
  • grok-3-mini:针对交互式、大容量用例优化的轻型模型。
  • Llama-3.3-70B-Instruct:适用于企业 Q&A、决策支持和系统编排的多功能模型。
  • Llama-4-Maverick-17B-128E-Instruct-FP8:FP8 优化模型,可提供快速、经济高效的推理。
  • DeepSeek-V3-0324:跨文本和图像的多模式理解。
  • DeepSeek-V3.1:增强的多模式推理和地面检索。
  • DeepSeek-R1-0528:高级长文本和多步骤推理模型。
  • gpt-oss-120b:支持透明度和可重现性的开放生态系统模型。

来自合作伙伴和社区的模型:

  • Claude-Opus-4-5:跨编码、代理、计算机使用和企业工作流的最佳性能。
  • 克劳德-Opus-4-1:最复杂的问题解决的前沿推理。
  • Claude-Sonnet-4-5:多模式和代理工作流的均衡性能。
  • Claude-Haiku-4-5:用于交互式方案的轻型高速生成。