Partager via


Démarrage rapide : Prise en main de Microsoft Foundry (projets Hub)

Conseil / Astuce

Il existe une alternative au démarrage rapide d'un projet Foundry : Démarrage rapide : Prise en main de Microsoft Foundry (projets Foundry).

Ce guide de démarrage rapide configure votre environnement local pour les projets basés sur le hub, déploie un modèle et crée un script de conversation simple tracé/évaluable.

Prerequisites

  • Abonnement Azure.
  • Projet hub existant (ou créez-en un). Si ce n’est pas le cas, envisagez d’utiliser un démarrage rapide du projet Foundry.

Configurer votre environnement de développement

  1. Installer les prérequis (Python, Azure CLI, connexion).
  2. Installer des packages :
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Différents types de projets ont besoin de versions distinctes d’azure-ai-projects. Conservez chaque projet dans son propre environnement isolé pour éviter les conflits.

Déployer un modèle

  1. Portail : Connectez-vous, ouvrez le projet hub.
  2. Catalogue de modèles : sélectionnez gpt-4o-mini.
  3. Utilisez ce modèle > pour accepter le nom > de déploiement par défaut Déployer.
  4. Après la réussite : ouvrez dans le terrain de jeu pour vérifier.

Créer votre application de conversation

Créez chat.py avec un exemple de code :

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insérez la chaîne de connexion de votre projet à partir de la page Vue d'ensemble du projet (copiez-la et remplacez l'espace réservé dans le code).

Run:

python chat.py

Ajouter une création de modèle de requête

Ajoutez get_chat_response à l’aide d’un modèle de moustache (voir chat-template.py exemple), puis appelez-le avec des messages utilisateur/contexte.

Réexécutez pour afficher la réponse modèle.

Nettoyer les ressources

Supprimez le déploiement ou le projet quand vous avez terminé pour éviter les frais.

Étape suivante

Démarrage rapide : Commencer avec Foundry (projets Foundry).