你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
注释
本文档指的是 Microsoft Foundry(新) 门户网站。
本文介绍如何使用 Foundry 门户在 Foundry 资源中部署 Foundry 模型,以便在执行推理任务时使用。 Foundry 模型包括 Azure OpenAI 模型、Meta Llama 模型等模型。 部署 Foundry 模型后,可以使用 Foundry Playground 与其交互,并使用代码推断它。
本文使用合作伙伴和社区 Llama-3.2-90B-Vision-Instruct 的 Foundry 模型进行演示。 合作伙伴和社区的模型要求在部署之前订阅 Azure 市场。 另一方面,由 Azure 直接销售的 Foundry 模型(如 Foundry 模型中的 Azure Open AI)没有此要求。 有关 Foundry 模型的详细信息,包括可供部署的区域,请参阅 由 Azure 直接销售的 Foundry 模型和来自合作伙伴和社区的 Foundry 模型。
先决条件
若要完成本文,需要做好以下准备:
具有有效付款方式的 Azure 订阅。 如果没有 Azure 订阅,请先创建一个付费的 Azure 帐户。 如果使用 GitHub 模型,则可以 升级到 Foundry 模型 并在过程中创建 Azure 订阅。
使用适当的权限访问 Microsoft Foundry,以创建和管理资源。
Microsoft Foundry 项目。 此类项目在 Foundry 资源下管理。
合作伙伴和社区的 Foundry 模型 需要访问 Azure 市场 才能创建订阅。 确保你拥有 订阅模型产品/服务所需的权限。 由 Azure 直接销售的 Foundry 模型没有此要求。
部署模型
在 Foundry 门户中按照以下步骤部署模型:
登录到 Microsoft Foundry。 确保 New Foundry 开关处于关闭状态。 这些步骤指Foundry(经典)。
登录到 Microsoft Foundry。 确保 New Foundry 开关处于打开状态。 这些步骤是指 Foundry (new) 。
转到 Foundry 门户中的 “模型目录 ”部分。
选择模型并在模型卡中查看其详细信息。 本文使用
Llama-3.2-90B-Vision-Instruct进行说明。选择“ 使用此模型”。
对于合作伙伴和社区的 Foundry 模型,需要订阅 Azure 市场。 例如,此要求适用于
Llama-3.2-90B-Vision-Instruct。 阅读使用条款,然后选择 “同意并继续 ”接受条款。注释
对于 直接由 Azure 销售的 Foundry 模型(例如 Azure OpenAI 模型
gpt-4o-mini),你不会订阅 Azure 市场。配置部署设置。 默认情况下,部署接收要部署的模型的名称,但可以在部署模型之前根据需要修改名称。 稍后在推理过程中,部署名称用于
model参数中,将请求路由到此特定模型部署。 此约定允许为模型部署配置特定名称。小窍门
每个模型支持不同的部署类型,提供不同的数据驻留或吞吐量保证。 有关更多详细信息,请参阅部署类型。 在此示例中,模型支持全局标准部署类型。
Foundry 门户会自动选择与项目关联的 Foundry 资源作为 连接的 AI 资源。 根据需要选择“ 自定义 ”以更改连接。 如果要在 无服务器 API 部署类型下部署,则项目和资源必须位于模型支持的部署区域之一。
选择“部署”。 在创建部署时,模型部署详细信息页随即打开。
部署完成后,模型可供使用。 还可以使用 Foundry Playgrounds 以交互方式测试模型。
在 Foundry 门户中按照以下步骤部署模型:
登录到 Microsoft Foundry。 确保 New Foundry 开关处于关闭状态。 这些步骤指Foundry(经典)。
登录到 Microsoft Foundry。 确保 New Foundry 开关处于打开状态。 这些步骤是指 Foundry (new) 。
在 Foundry 门户主页中,选择右上角导航中的 “发现 ”,然后在左窗格中选择 “模型 ”。
选择模型并在模型卡中查看其详细信息。 本文使用
Llama-3.2-90B-Vision-Instruct进行说明。选择“ 部署>自定义设置” 以自定义部署。 或者,可以通过选择“部署>默认设置”来使用默认部署设置。
对于合作伙伴和社区的 Foundry 模型,需要订阅 Azure 市场。 例如,此要求适用于
Llama-3.2-90B-Vision-Instruct。 阅读使用条款,然后选择 “同意并继续 ”接受条款。注释
对于 直接由 Azure 销售的 Foundry 模型(例如 Azure OpenAI 模型
gpt-4o-mini),你不会订阅 Azure 市场。配置部署设置。 默认情况下,部署接收要部署的模型的名称,但可以在部署模型之前根据需要修改名称。 稍后在推理过程中,部署名称用于
model参数中,将请求路由到此特定模型部署。 此约定允许为模型部署配置特定名称。 选择 “部署 ”以创建部署。小窍门
每个模型支持不同的部署类型,提供不同的数据驻留或吞吐量保证。 有关更多详细信息,请参阅部署类型。 在此示例中,模型支持全局标准部署类型。
Foundry 门户会自动在与项目关联的 Foundry 资源中部署模型。 项目和资源必须位于模型部署支持的区域之一。
选择“部署”。 部署完成后,将登陆 Foundry Playgrounds ,可在其中以交互方式测试模型。
管理模型
可以使用 Foundry 门户管理资源中的现有模型部署。
转到 Foundry 门户 的模型 + 终结点 部分。
门户对每个资源进行分组并显示模型部署。 请在 Foundry 资源的对应部分中选择“Llama-3.2-90B-Vision-Instruct”模型部署。 该操作将打开模型的部署页面。
可以使用 Foundry 门户管理资源中的现有模型部署。
在右上角导航中选择“ 生成 ”。
在左窗格中选择 “模型 ”以查看资源中的部署列表。
在操场中测试部署
可以在 Foundry 门户中使用沙盒与新模型进行交互。 操场是基于 Web 的界面,可用于实时与模型交互。 使用操场以不同的提示测试模型,并查看模型的响应。
可以在 Foundry 门户中使用沙盒与新模型进行交互。 操场是基于 Web 的界面,可用于实时与模型交互。 使用操场以不同的提示测试模型,并查看模型的响应。
从部署列表中,选择“Llama-3.2-90B-Vision-Instruct”部署,以打开试验场页面。
键入提示并查看输出。
选择“ 代码 ”选项卡以查看有关如何以编程方式访问模型部署的详细信息。
使用代码推断模型
若要使用代码示例对已部署的模型执行推理,请参阅以下示例:
若要将 响应 API 与 Azure 直接销售的 Foundry 模型(如 Microsoft AI、DeepSeek 和 Grok 模型)配合使用,请参阅 如何使用 Microsoft Foundry 模型生成文本响应。
若要将 响应 API 与 OpenAI 模型配合使用,请参阅 响应 API 入门。
若要将 聊天完成 API 与合作伙伴销售的模型(如本文中部署的 Llama 模型)配合使用,请参阅 聊天完成的模型支持。
模型的区域可用性和配额限制
对于 Foundry 模型,默认配额因模型和区域而异。 某些模型可能仅在某些区域可用。 有关可用性和配额限制的详细信息,请参阅 Microsoft Foundry 模型配额和限制中的 Azure OpenAI ,以及 Microsoft Foundry 模型配额和限制。
用于部署和推理模型的配额
对于 Foundry 模型,部署和推理会消耗 Azure 按区域、按模型分配到订阅的配额,该配额以每分钟令牌数 (TPM) 为单位。 注册 Foundry 时,你会收到大多数可用模型的默认配额。 然后,你在创建 TPM 时将 TPM 分配给每个部署,从而减少该模型的可用配额。 可以继续创建部署并为其分配 TPM,直到达到配额上限。
达到配额限制后,只有在以下情况下才能创建该模型的新部署:
- 通过提交配额提高表单来请求更多配额。
- 在 Foundry 门户上调整其他模型部署的已分配配额,以释放令牌供新部署使用。
有关配额的详细信息,请参阅 Microsoft Foundry 模型配额和限制 以及 管理 Azure OpenAI 配额。