Partilhar via


Início Rápido: Comece com o Microsoft Foundry (Projetos Hub)

Sugestão

Está disponível um quickstart alternativo para projetos Foundry: Quickstart: Comece com o Microsoft Foundry (projetos Foundry).

Este quickstart configura a sua configuração local para projetos baseados em hub, implanta um modelo e cria um script de chat simples rastreável/avaliável.

Pré-requisitos

  • Subscrição do Azure.
  • Projeto de hub existente (ou crie um). Caso contrário, considere usar um início rápido do projeto Foundry.

Configurar seu ambiente de desenvolvimento

  1. Pré-requisitos de instalação (Python, CLI do Azure, login).
  2. Instalar pacotes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Diferentes tipos de projeto precisam de versões distintas do azure-ai-projects. Mantenha cada projeto em seu próprio ambiente isolado para evitar conflitos.

Implementar um modelo

  1. Portal: Entrar, abrir projeto de hub.
  2. Catálogo de modelos: selecione gpt-4o-mini.
  3. Utilize este modelo > para aceitar o nome padrão de implementação > Deploy.
  4. Após o sucesso: Abra no playground para verificar.

Crie seu aplicativo de bate-papo

Crie chat.py com código de exemplo:

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insira a cadeia de conexão do projeto na página Visão geral do projeto (copie, substitua o placeholder no código).

Executar:

python chat.py

Adicionar modelagem de prompt

Adicione get_chat_response usando o modelo Mustache (consulte o exemplo chat-template.py) e invoque com mensagens de utilizador/contexto.

Execute novamente para exibir a resposta modelada.

Limpeza de recursos

Exclua a implantação ou o projeto quando concluído para evitar cobranças.

Próximo passo

Início rápido: Comece com a Foundry (projetos da Foundry).