Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Sugestão
Está disponível um quickstart alternativo para projetos Foundry: Quickstart: Comece com o Microsoft Foundry (projetos Foundry).
Este quickstart configura a sua configuração local para projetos baseados em hub, implanta um modelo e cria um script de chat simples rastreável/avaliável.
Pré-requisitos
- Subscrição do Azure.
- Projeto de hub existente (ou crie um). Caso contrário, considere usar um início rápido do projeto Foundry.
Configurar seu ambiente de desenvolvimento
- Pré-requisitos de instalação (Python, CLI do Azure, login).
- Instalar pacotes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Diferentes tipos de projeto precisam de versões distintas do azure-ai-projects. Mantenha cada projeto em seu próprio ambiente isolado para evitar conflitos.
Implementar um modelo
- Portal: Entrar, abrir projeto de hub.
- Catálogo de modelos: selecione gpt-4o-mini.
- Utilize este modelo > para aceitar o nome padrão de implementação > Deploy.
- Após o sucesso: Abra no playground para verificar.
Crie seu aplicativo de bate-papo
Crie chat.py com código de exemplo:
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Insira a cadeia de conexão do projeto na página Visão geral do projeto (copie, substitua o placeholder no código).
Executar:
python chat.py
Adicionar modelagem de prompt
Adicione get_chat_response usando o modelo Mustache (consulte o exemplo chat-template.py) e invoque com mensagens de utilizador/contexto.
Execute novamente para exibir a resposta modelada.
Limpeza de recursos
Exclua a implantação ou o projeto quando concluído para evitar cobranças.