Compartilhar via


Início Rápido: Introdução ao Microsoft Foundry (projetos do Hub)

Dica

Um início rápido alternativo do projeto foundry está disponível: Início Rápido: Introdução ao Microsoft Foundry (projetos do Foundry).

Este tutorial rápido configura seu ambiente local para projetos baseados em hub, implanta um modelo e cria um script de chat simples rastreado/avaliável.

Pré-requisitos

  • Assinatura do Azure.
  • Projeto de hub existente (ou criar um). Caso contrário, considere o uso de um início rápido do projeto da Fábrica.

Configurar seu ambiente de desenvolvimento

  1. Instalar pré-requisitos (Python, CLI do Azure, logon).
  2. Instalar pacotes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Diferentes tipos de projeto precisam de versões distintas do azure-ai-projects. Mantenha cada projeto em seu próprio ambiente isolado para evitar conflitos.

Implantar um modelo

  1. Portal: Entre, abra o projeto do hub.
  2. Catálogo de modelos: selecione gpt-4o-mini.
  3. Use esse modelo > aceite o nome de implantação padrão > Implantar.
  4. Após ter sucesso, abra no playground para verificar.

Criar o aplicativo de chat

Crie chat.py com o código de exemplo:

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insira a cadeia de conexão do seu projeto a partir da página de Visão Geral do Projeto (copie e substitua o marcador no código).

Run:

python chat.py

Adicionar modelagem de solicitação

Adicione get_chat_response usando o modelo mustache (consulte o exemplo chat-template.py) e invoque com mensagens de usuário/contexto.

Execute novamente para exibir a resposta modelo.

Limpar os recursos

Exclua a implantação ou o projeto ao terminar para evitar cobranças.

Próxima etapa

Início Rápido: introdução ao Foundry (projetos Foundry).