你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
注释
本文档指的是 Microsoft Foundry(新) 门户网站。
重要
本文中标记了“(预览版)”的项目目前为公共预览版。 此预览版未提供服务级别协议,不建议将其用于生产工作负载。 某些功能可能不受支持或者受限。 有关详细信息,请参阅 Microsoft Azure 预览版补充使用条款。
在利用最先进的模型进行开发并用于创建智能体和应用时,Microsoft Foundry 操场提供按需的零设置环境,该环境旨在将代码提交到生产代码库前进行快速原型制作、API 探索和技术验证。
Foundry游乐场体验的亮点
Foundry游乐场体验的一些亮点包括:
- 智能体操场中对评估和跟踪的 AgentOps 支持。。
- 适用于聊天和代理操场的“在 VS Code 中打开”功能。 此功能通过自动将终结点和密钥从 Foundry 导入 VS Code 中的多语言代码示例来节省时间。
- 图像游乐场 2.0 适用于 gpt-image-1、稳定扩散 3.5 大型模型和 FLUX.1-Kontext-pro 模型。
- Azure OpenAI Sora-2 的视频测试平台。
- 适用于模型 gpt-4o-audio-preview、gpt-4o-transcribe 和 gpt-4o-mini-tts 的音频操场。
小窍门
在Playground落地页的屏幕截图中,门户的左窗格被自定义为显示"Playgrounds"选项卡。若要了解如何在左窗格中查看其他项目,请参阅 自定义左窗格。
作为生产前奏的操场
现代开发涉及在多个系统(API、服务、SDK 和数据模型)之间进行协作,通常是在您准备好完全投入框架、编写测试或启动基础设施之前。 随着软件生态系统的复杂性的增加,需要安全、轻型的环境来验证想法变得至关重要。 游乐场是为了满足这一需求而建造的。
Foundry游乐场提供所有必要工具和功能均已预先安装的即用型环境,因此您无需设置项目、管理依赖项或解决兼容性问题。 这些平台可以通过验证 API 行为、更快编写代码、降低试验成本和交付时间、加速集成、优化提示等方式来提升开发人员的开发速度。
游乐场还可以在你有疑问时快速提供清晰的答案,方法是在几秒钟内(而不是几个小时)给予回答,并允许你在承诺进行大规模构建之前测试和验证想法。 例如,操场非常适合快速回答这样的问题:
- 获取所需输出所需的最小提示是什么?
- 在编写完整集成之前,此逻辑是否正常工作?
- 延迟或令牌使用情况如何随不同的配置而变化?
- 在将模型演变为代理之前,哪种模型提供最佳的性价比?
“在 VS Code 中打开”功能
在多语言示例代码示例中提供, 在 VS Code 中打开 会自动将代码示例、API 终结点和密钥导入环境中的 VS Code 工作区 /azure 。 借助此功能,可以轻松地通过 Foundry 门户在 VS Code IDE 中工作。
若要从聊天和代理沙箱中使用“在 VS Code 中打开”功能,请执行以下步骤:
选择“试用聊天操场”将其打开。 或者,可以通过在代理操场卡上选择“开始吧”,在代理操场中执行这些步骤。
如果还没有部署,请选择“ 创建新部署 ”并部署模型,例如
gpt-4o-mini。请确保在“部署”框中选择了部署。
选择 “查看代码 ”以查看代码示例。
选择“ 在 VS Code 中打开 ”,在浏览器窗口的新选项卡中打开 VS Code。
你将被重定向到
/azureVS Code 环境,其中代码示例、API 终结点和密钥已从 Foundry 开发环境导入。请浏览
INSTRUCTIONS.md文件以获取运行模型的说明。在
run_model.py文件中查看代码示例。查看文件中的相关依赖项
requirements.txt。
通过模型操场和智能体操场,可以使用“在 VS Code 网页版中打开”按钮在 VS Code 中工作。 可以在模型场的聊天窗格中的“ 代码 ”选项卡中找到此按钮。
“在 VS Code 网页版中打开”按钮可用于多语言示例代码示例,会自动将代码示例、API 终结点和密钥导入 环境中的 VS Code 工作区/azure。 借助此功能,可以轻松地通过 Foundry 门户在 VS Code IDE 中工作。
代理人的乐园
借助代理场,无需运行任何代码,即可浏览、原型和测试代理。 在此页中,可以快速迭代并试验新的想法。
若要开始使用代理平台,请参阅 快速入门:创建新的代理。
若要开始使用代理沙盒,请参阅 了解代理开发生命周期。
聊天操场
聊天体验区是一个用于测试包括 Azure OpenAI、DeepSeek 和 Meta 最新推理模型的地方。 对于所有推理模型,聊天互动平台提供了一个思维链条总结下拉菜单,让你可以在共享输出之前查看模型是如何进行思考并生成响应的。
若要了解有关聊天场的详细信息,请参阅 快速入门:在聊天场中获取答案。
模型试验场
在 Microsoft Foundry 门户中部署模型时,会立即进入其测试环境。 模型场是一种交互式体验,旨在供开发人员测试和试验来自 Azure Open AI、DeepSeek、xAI 和 Meta 等提供商的最新模型。 平台提供对模型行为、安全和部署的完全控制,以便你可以微调系统提示、实时比较模型输出或集成 Web 搜索和代码执行工具。
该平台专为快速迭代和适应生产环境而设计。 它支持从原型制作到性能基准测试的所有内容。 操场可帮助你准备在生产工作流中使用模型,轻松地将模型升级为智能体,并在部署为智能体 Web 应用程序之前,使用额外的工具、知识和记忆继续在智能体操场中进行原型设计。
使用模型场的好处
全堆栈试验和控制:在单个环境中配置参数(如温度、top_p、max_tokens)、注入系统提示,并启用高级工具(如 Web 搜索、文件搜索和代码解释器)。 此设置允许您精确调整模型行为,并快速迭代提示词设计、基础和 RAG 工作流,将模型升级为代理。
内置安全和治理:分配或创建防护措施,防止越狱、间接提示注入和不安全输出。 此集成安全层可确保在受控、可测试的沙盒中验证合规性和负责任的 AI 行为,而无需连接外部审查逻辑。
内置比较功能和可部署性:可同时比较三个模型,输入/输出同步,以衡量响应质量为基准。 导出多语言代码示例,提取终结点和密钥,并在 VS Code 中打开,以便立即集成,在一个简化的开发人员工作流程中将试验联接到生产。
比较模型
通过比较模式,开发人员可以使用同步的输入流同时跨最多三个模型运行受控并行评估。 每个模型接收完全相同的提示上下文、系统消息和参数配置,确保输出基准测试的一致测试条件。 响应实时流式传输,使开发人员能够并排测量和可视化延迟、令牌吞吐量和响应保真度的差异。
若要在已部署模型的测试环境中使用比较模式,请执行以下步骤:
- 选择右上角的 “比较模型 ”。
- 从现有部署或新部署中选择最多两个模型。 所选模型的聊天窗口在操场上并排打开,并带有同步的提示栏和设置。 如果需要,可以从每个模型的 “设置 ”窗格关闭同步。
- 在任何提示栏中输入提示符,并查看提示同时显示在其他提示栏中。
- 提交提示以查看每个模型的输出,并比较响应的质量。
- 切换到每个模型的聊天窗格中的“ 代码 ”选项卡以查看多语言代码示例。
- 对于首选模型,请从代码选项卡中选择“ 在 VS Code 中打开 Web ”以继续开发工作,或者 “另存为代理 ”以在代理场中继续原型制作。
生成和解释代码
使用代码解释器,可以通过在实验环境中启用内联代码执行来扩展模型的功能,不仅局限于文本生成。 激活后,支持的模型可以直接在安全的沙盒环境中编写、运行和调试代码。 此环境非常适合用于执行计算、数据转换、绘制可视化效果或验证逻辑。
要使用已部署模型的测试场景中的代码解释器,请按照以下步骤执行:
展开已部署模型实验环境中的“工具”部分。
小窍门
当您使用比较模式对模型进行并行评估时,工具部分在试验区不可见。 首先,必须关闭用于比较的其他模型,然后才能看到包含已部署模型的工具和其他选项的详细操场。
选择 “添加>代码解释器”,并为代码解释器附加代码文件。
使用沙盒来提问、解释或简化你的代码。 例如,“如何提高附加代码文件的效率?”
音频乐园
音频场(预览版)允许将文本转语音和听录功能与 Azure OpenAI 中的最新音频模型配合使用。
若要尝试文本转语音功能,请执行以下步骤:
选择 试用音频试验场 来打开它。
如果还没有部署,请选择“ 创建新部署 ”并部署模型,例如
gpt-4o-mini-tts。请确保在“部署”框中选择了部署。
输入文本提示。
调整模型参数,如语音和响应格式。
选择“ 生成 ”以接收包含播放、回退、向前、调整速度和音量的播放控件的语音输出。
将音频文件下载到本地计算机。
若要尝试听录功能,请执行以下步骤:
如果还没有部署,请选择“ 创建新部署 ”并部署模型,例如
gpt-4o-transcribe。请确保在“部署”框中选择了部署。
(可选)将短语列表作为文本机制包含在一起,以指导音频输入。
通过上传一个音频文件或从提示栏中录制音频来输入音频文件。
选择 “生成听录 ”以将音频输入发送到模型,并接收文本和 JSON 格式的转录输出。
语言游乐场
语言场提供了一个无代码的环境,用于测试和验证 Azure AI 语言功能。 使用它来试验自然语言处理(NLP)功能,例如 关键数据提取、 信息摘要、 文本分类和 自定义模型微调。
语言场由四个主要部分组成:
- 顶部横幅:从可用的语言功能中进行选择,包括语言检测、实体识别、情绪分析、PII 检测、摘要和对话语言理解。
- 左窗格:配置服务选项,例如 API 版本、模型版本和特定于功能的参数。
- 中心窗格:输入或上传要处理的文本。 执行作后,结果会显示在此处。
- 右窗格:查看详细的作结果,包括实体类别、置信度分数、偏移量和 JSON 格式的响应。
若要使用语言游乐场:
从左窗格中选择“游乐场地”。
选择 体验 Azure 语言实验室。
从顶部横幅中选择语言功能,例如:
选择“ 配置 ”可指定 API 版本、模型版本和特定于功能的选项,例如语言选择、要包括的实体类型或 PII 的修订策略。
直接在示例窗口中输入文本,从下拉菜单中选择预加载的文本示例,或使用剪纸图标上传自己的文本文件。
选择适当的作按钮(例如 检测、 提取、 分析或 汇总)来处理文本。
查看在中心窗格中显示的结果,并在右侧窗格的 “详细信息 ”部分中检查详细的输出信息,包括置信度分数、实体类别、字符偏移量和长度。
选择 “查看代码 ”以访问 Python、C#、JavaScript 和其他语言中的多语言代码示例,以便集成到应用程序中。
语言场可加速开发,并在生产实现之前快速原型制作和验证 NLP 功能。 它还支持使用实时调试对自定义命名实体识别(NER)模型进行训练、部署、测试和微调。
翻译工具试验场
Translator 试验场提供了一个无代码的环境,用于测试和验证 Azure Translator 功能。 它支持文本翻译和文档翻译工作流,使开发人员能够使用 GPT-4o 和 GPT-4o-mini 试验神经机器翻译(NMT)和基于大型语言模型(LLM)的翻译。
若要使用翻译器实验平台,请按照以下步骤:
从左窗格中选择“游乐场地”。
选择试用翻译器沙盒。
对于文本翻译:
在输入字段中输入或粘贴要翻译的文本。
选择源语言或启用自动语言检测。
选择一个或多个目标语言进行翻译输出。
选择翻译模型:Azure-MT(神经机器翻译)、GPT-4o 或 GPT-4o-mini。 LLM 模型支持通过调整特定性别或语调进行翻译,并且可以使用特定领域的术语来优化。
(可选)配置高级选项,例如不雅处理、文本类型或自定义词汇表。
选择 “翻译 ”以生成翻译。
查看翻译后的输出,并比较不同模型选择的结果。
对于文档翻译:
选择 “文档翻译 ”选项。
上传源文档或选择预加载的文档示例。
指定翻译的目标语言。
(可选)应用自定义翻译模型或自定义术语表来维护特定于域的术语一致性。
选择 “翻译 ”以处理文档。 这会保留原始布局和格式设置。
将翻译的文档下载到本地计算机。
选择 “查看代码 ”以访问多个编程语言中的 REST API 示例和 SDK 代码示例,以便将 Translator 功能集成到应用程序中。
翻译器测试平台可在生产实施之前实时验证翻译质量、提示语结构和自定义术语表的有效性。 使用它来比较模型输出并优化特定用例的翻译配置。
视频游乐场
视频场(预览版)是用于探索、优化和验证生成视频工作流的快速迭代环境。 它专为需要以精确、可控和快速的方式从创意变为原型的开发人员设计。 该操场提供了一个低摩擦接口,用于测试提示结构、评估运动精准度、跨帧评估模型一致性,以及跨模型比较输出,而无需编写模板代码或浪费计算周期。 这也是首席产品官和工程副总裁的出色演示界面。
所有模型终结点都与 Azure AI 内容安全集成。 因此,视频游乐场会在有害和不安全的图像显示之前进行筛选。 如果内容审查策略标记文本提示或视频生成,则会收到警告通知。
可以将视频操场与 Azure OpenAI Sora-2 模型配合使用。
小窍门
按照以下步骤使用视频游乐场:
谨慎
由于数据隐私,生成的视频将保留 24 小时。 将视频下载到本地计算机以延长保留期。
选择“试用视频操场”将其打开。
如果还没有部署,请从主页右上角选择“ 立即部署 ”并部署
sora-2模型。在视频操场的主页上,受到按“行业”筛选整理的预建提示的启发。 在此处,你可以全屏观看视频,并从视频右下角复制提示,然后基于提示进行操作。
复制提示以将其粘贴到提示栏中。 调整关键控件(例如纵横比或分辨率),以深入了解特定的模型响应能力和约束。
选择“ 生成 ”以基于复制的提示生成视频。
通过“使用 AI 改写”功能,用 gpt-4o 改写文本提示语法。
打开“ 开始使用行业系统提示 ”功能,选择行业,并指定原始提示所需的更改。
选择 “更新 ”以更新提示,然后选择“ 生成 ”以创建新视频。
转到“生成历史记录”选项卡,以网格或列表视图的形式查看生成。 选择视频时,可以在全屏模式下打开它们以完全沉浸。 直观地观察提示调整或参数更改前后的输出。
在全屏模式下,编辑提示并提交以进行重新生成。
在全屏模式下或通过悬停在视频上时显示的选项按钮,将视频下载到本地计算机、查看视频生成信息标记、查看代码或删除视频。
从选项菜单中选择“ 查看代码 ”,以多种语言查看视频代系的上下文示例代码,包括 Python、JavaScript、C#、JSON、Curl 和 Go。
通过将代码示例复制到 VS Code,将代码示例移植到生产环境。
按照以下步骤使用视频游乐场:
谨慎
由于数据隐私,生成的视频将保留 24 小时。 将视频下载到本地计算机以延长保留期。
- 从右上角导航中选择“ 生成 ”。
- 从左窗格中选择 “模型 ”。
- 从已部署的模型列表中选择视频生成模型,例如 sora-2 。 如果还没有部署,请从页面右上角选择 “部署基本模型 ”并部署模型
sora-2。 - 输入文本提示:从要生成的视频的任何文本提示开始。 对于启用图像到视频生成的模型,请将图像附件上传到提示栏并生成视频。
- 探索特定于模型 API 的生成控件:调整关键控件(例如纵横比和持续时间),以便更深入地了解特定模型响应能力和约束。
- 网格视图中的并排观察:直观比较提示调整或参数更改后的输出。
- 使用多语言代码示例移植到生产:将多语言代码示例与 视图代码配合使用。 视频沙盒是您在 VS Code 中进行开发工作的启动平台。
在视频游乐场中进行试验时需要验证的内容
使用视频沙盘来规划您的制作工作负载时,请浏览并验证以下属性:
提示到运动的转换
- 视频模型是否以符合逻辑和时间顺序的方式理解你的提示?
- 动作是否与描述的行动或场景一致?
帧一致性
- 字符、对象和样式是否在帧之间保持一致?
- 是否存在视觉伪影、抖动或不自然的切换?
场景控件
- 如何控制场景构图、主体表现或相机角度?
- 是否可以指导场景转换或背景环境?
长度和计时
- 不同的提示结构如何影响视频长度和节奏?
- 视频感觉太快、太慢还是太短?
多模式输入集成
- 提供引用图像、姿势数据或音频输入时会发生什么情况?
- 是否可以生成与给定画外音口型同步的视频?
处理后需求
- 需要编辑工具之前,可以期望哪种级别的原始保真度?
- 在用于正式发布之前,是否需要对视频进行提高分辨率、稳定处理或润色?
延迟和性能
- 为不同的提示类型或分辨率生成视频需要多长时间?
- 生成 5 秒与 15 秒剪辑的成本性能权衡是什么?
图像操场
图像操场非常适合那些构建图像生成流程的开发人员。 此实验平台是一个功能齐全的受控环境,旨在开展高保真试验,并专为特定模型的 API 生成和编辑图像而设计。
小窍门
请观看 gpt-image-1 图像操场的 60 秒短片和关于 Foundry 中图像操场的开发者博客。
可以将图像操场用于以下模型:
- gpt-image-1 和 dall-e-3 来自 Azure OpenAI。
- 来自 Stability AI 的 Stable Diffusion 3.5 Large、Stable Image Core、Stable Image Ultra。
- 来自黑森林实验室的 FLUX.1-Kontext-pro 和 FLUX-1.1-pro。
按照以下步骤使用图像操场:
选择 “试用图像游乐场” 以打开它。
如果还没有部署,请选择“ 创建部署 ”并部署模型,例如
gpt-image-1。输入文本提示:从用于生成图像的任意文本提示开始操作。 对于启用图像到图像生成的模型,请将图像附件上传到提示栏。
在模型部署后浏览模型 API 特定的生成控件: 调整关键控件(例如变体数、质量、大小、图像格式),以深刻理解特定的模型响应能力和约束。
然后选择“生成”。
网格视图中的并排观察:以直观方式观察提示调整或参数更改前后的输出。
使用 API 工具进行转换:使用文本转换进行图像修复可用于 gpt-image-1。 使用图像修复选择来更改原始图像的各个部分。 使用文本提示指定更改。
移植到具有多语言代码示例的生产环境:通过“查看代码”使用 Python、Java、JavaScript、C# 代码示例。 图像沙盒是您在 VS Code 中进行开发工作的起点。
可以将图像操场用于以下模型:
- gpt-image-1 和 dall-e-3 来自 Azure OpenAI。
- 来自 Stability AI 的 Stable Diffusion 3.5 Large、Stable Image Core、Stable Image Ultra。
- 来自黑森林实验室的 FLUX.1-Kontext-pro 和 FLUX-1.1-pro。
按照以下步骤使用图像操场:
- 从右上角导航中选择“ 生成 ”。
- 从左窗格中选择 “模型 ”。
- 从已部署的模型列表中选择映像生成模型,例如 gpt-image-1 。 如果还没有部署,请从页面右上角选择 “部署基本模型 ”并部署模型
gpt-image-1。 - 输入文本提示:从用于生成图像的任意文本提示开始操作。 对于启用图像到图像生成的模型,请将图像附件上传到提示栏并生成图像。
- 探索特定于模型 API 的生成控件:调整关键控件(例如变体数和纵横比),以便更深入地了解特定模型响应能力和约束。
- 网格视图中的并排观察:直观比较提示调整或参数更改后的输出。
- 使用 API 工具进行转换:使用文本转换进行图像修复可用于 gpt-image-1。 使用图像修复选择来更改原始图像的各个部分。 使用文本提示指定更改。
- 使用多语言代码示例移植到生产:将多语言代码示例与 视图代码配合使用。 图像沙盒是您在 VS Code 中进行开发工作的起点。
在图像操场中进行试验时要验证的内容
通过使用图像沙盒,可以在规划生产工作负载时探索和验证以下方面:
提示有效性
- 此提示为企业用例生成哪种类型的视觉输出?
- 我的语言可以有多具体或抽象,从而取得好的结果?
- 模型是否准确理解“超现实主义”或“网络朋克”等样式引用?
风格一致性
- 如何在多个图像中维护相同的字符、样式或主题?
- 是否可以使用最小偏移循环访问同一基本提示的变体?
参数优化
- 更改模型参数(如引导尺度、种子、步数等)有什么影响?
- 如何平衡创造力与提示保真度?
模型比较
- 结果在模型之间有何差异,例如 SDXL 与 DALL·E?
- 哪个模型在处理现实人脸与艺术合成时表现更好?
合成控件
- 如果使用空间约束(如边界框或修补蒙版),将会发生什么情况?
- 能否引导模型走向特定布局或焦点?
输入变体
- 提示措辞或结构中的细微变化如何影响结果?
- 提示对称性、特定相机角度或情感的最佳方法是什么?
集成就绪情况
- 此图像是否满足产品 UI 的约束,包括纵横比、分辨率和内容安全?
- 输出是否符合品牌准则或客户期望?