Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Dica
Um início rápido alternativo do projeto foundry está disponível: Início Rápido: Introdução ao Microsoft Foundry (projetos do Foundry).
Este tutorial rápido configura seu ambiente local para projetos baseados em hub, implanta um modelo e cria um script de chat simples rastreado/avaliável.
Pré-requisitos
- Assinatura do Azure.
- Projeto de hub existente (ou criar um). Caso contrário, considere o uso de um início rápido do projeto da Fábrica.
Configurar seu ambiente de desenvolvimento
- Instalar pré-requisitos (Python, CLI do Azure, logon).
- Instalar pacotes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Diferentes tipos de projeto precisam de versões distintas do azure-ai-projects. Mantenha cada projeto em seu próprio ambiente isolado para evitar conflitos.
Implantar um modelo
- Portal: Entre, abra o projeto do hub.
- Catálogo de modelos: selecione gpt-4o-mini.
- Use esse modelo > aceite o nome de implantação padrão > Implantar.
- Após ter sucesso, abra no playground para verificar.
Criar o aplicativo de chat
Crie chat.py com o código de exemplo:
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Insira a cadeia de conexão do seu projeto a partir da página de Visão Geral do Projeto (copie e substitua o marcador no código).
Run:
python chat.py
Adicionar modelagem de solicitação
Adicione get_chat_response usando o modelo mustache (consulte o exemplo chat-template.py) e invoque com mensagens de usuário/contexto.
Execute novamente para exibir a resposta modelo.
Limpar os recursos
Exclua a implantação ou o projeto ao terminar para evitar cobranças.