Partager via


Référence CLI locale de Foundry

Important

  • Foundry Local est disponible en préversion. Les versions en préversion publique fournissent un accès anticipé aux fonctionnalités qui sont en déploiement actif.
  • Les fonctionnalités, approches et processus peuvent changer ou avoir des capacités limitées avant la disponibilité générale (GA).

Cet article fournit une référence complète pour l’interface de ligne de commande (CLI) Foundry Local. L’interface CLI organise les commandes en catégories logiques pour vous aider à gérer les modèles, contrôler le service et gérer votre cache local.

Prerequisites

  • Installez Foundry Local. Pour connaître les étapes de configuration, consultez Prise en main de Foundry Local.
  • Utilisez un terminal local où l’interface foundry CLI est disponible.
  • Vérifiez que vous disposez d’un accès Internet pour les téléchargements de première fois (fournisseurs d’exécution et modèles).
  • RBAC Azure : Non applicable (s’exécute localement).
  • Si vous disposez d’un processeur réseau Intel sur Windows, installez le pilote Intel NPU pour une accélération NPU optimale.

Vérification rapide

Exécutez ces commandes pour confirmer que l’interface CLI est installée et que le service est accessible.

  1. Afficher l’aide de l’interface CLI :

     foundry --help
    

    Cette commande imprime les informations d’utilisation et la liste des groupes de commandes disponibles.

    Référence : Vue d’ensemble

  2. Vérifiez l’état du service :

     foundry service status
    

    Cette commande imprime si le service local Foundry est en cours d’exécution et inclut son point de terminaison local.

    Référence : Commandes de service

Aperçu

Utilisez l’aide intégrée pour explorer les commandes et les options.

L’interface CLI organise les commandes en trois catégories principales :

  • Modèle : commandes pour la gestion et l’exécution de modèles IA
  • Service : commandes pour contrôler le service local Foundry
  • Cache : commandes pour la gestion de votre stockage de modèle local

Commandes de modèle

Le tableau suivant récapitule les commandes relatives à la gestion et à l’exécution des modèles :

Remarque

Vous pouvez spécifier l’argument model par son alias ou son ID de modèle. Utilisation d’un alias :

  • Sélectionne automatiquement le meilleur modèle pour votre matériel disponible. Par exemple, si vous disposez d’un GPU Nvidia disponible, Foundry Local sélectionne le meilleur modèle GPU. Si vous disposez d’un NPU pris en charge, Foundry Local sélectionne le modèle NPU.
  • Vous permet d’utiliser un nom plus court sans avoir à mémoriser l’ID de modèle.

Si vous souhaitez exécuter un modèle spécifique, utilisez l’ID de modèle. Par exemple, pour exécuter qwen2.5-0.5b sur le processeur, sans tenir compte de votre matériel disponible, utilisez : foundry model run qwen2.5-0.5b-instruct-generic-cpu.

Commande Description
foundry model --help Affiche toutes les commandes liées au modèle disponibles et leur utilisation.
foundry model run <model> Exécute un modèle spécifié, le télécharge s’il n’est pas mis en cache et démarre une interaction.
foundry model list Répertorie tous les modèles disponibles pour une utilisation locale. Lors de la première exécution, il télécharge les fournisseurs d’exécution (EP) pour votre matériel.
foundry model list --filter <key>=<value> Répertorie les modèles filtrés par les critères spécifiés (appareil, tâche, alias, fournisseur).
foundry model info <model> Affiche des informations détaillées sur un modèle spécifique.
foundry model info <model> --license Affiche les informations de licence d’un modèle spécifique.
foundry model download <model> Télécharge un modèle dans le cache local sans l’exécuter.
foundry model load <model> Charge un modèle dans le service.
foundry model unload <model> Décharge un modèle à partir du service.

Ordre des listes de modèles

Lorsque plusieurs variantes d’ID de modèle sont disponibles pour un alias, la liste des modèles affiche les modèles dans l’ordre de priorité. Le premier modèle de la liste est le modèle qui s’exécute lorsque vous spécifiez le modèle par alias.

Filtrage de liste de modèles

La foundry model list commande prend en charge le filtrage des modèles à l’aide de l’option --filter . Vous pouvez filtrer des modèles en fonction d’un attribut unique à l’aide de paires clé-valeur.

foundry model list --filter <key>=<value>

Cette commande imprime les modèles qui correspondent à la clé de filtre et à la valeur.

Référence : Filtrage de liste de modèles

Remarque

Lorsque vous exécutez foundry model list pour la première fois après l’installation, Foundry Local télécharge automatiquement les fournisseurs d’exécution appropriés pour la configuration matérielle de votre machine. Vous voyez une barre de progression indiquant l’achèvement du téléchargement avant l’affichage de la liste des modèles.

Clés de filtre prises en charge :

appareil - Catégorie d'appareil matériel

Filtre les modèles par l’appareil matériel sur lequel ils s’exécutent.

Valeurs possibles :

  • CPU - Modèles d’unité de traitement central
  • GPU - Modèles d’unité de traitement graphique
  • NPU - Modèles d’unité de traitement neuronal

fournisseur - Fournisseur d’exécution

Filtre les modèles par leur fournisseur d’exécution ou leur runtime.

Valeurs possibles :

  • CPUExecutionProvider - Exécution basée sur le processeur
  • CUDAExecutionProvider - Exécution du GPU NVIDIA CUDA
  • WebGpuExecutionProvider - Exécution de WebGPU
  • QNNExecutionProvider - Exécution du réseau neuronal Qualcomm (NPU)
  • OpenVINOExecutionProvider - Exécution d’Intel OpenVINO
  • NvTensorRTRTXExecutionProvider - Exécution de TensorRT NVIDIA
  • VitisAIExecutionProvider - Exécution d’AMD Vitis AI

tâche - Type de tâche modèle

Filtre les modèles selon leur cas d’usage ou leur tâche prévue.

Valeurs courantes :

  • chat-completion: Modèles IA conversationnels
  • text-generation: Modèles de génération de texte

alias - Alias de modèle

Filtre les modèles par leur identificateur d’alias. Prend en charge la correspondance de caractères génériques avec le suffixe *.

Exemples de valeurs :

  • phi4-cpu
  • qwen2.5-coder-0.5b-instruct-generic-cpu
  • deepseek-r1-distill-qwen-1.5b-generic-cpu
  • phi-4-mini-instruct-generic-cpu

Fonctionnalités de filtre spéciales

Prise en charge de la négation : Préfixez n’importe quelle valeur avec ! pour exclure les modèles correspondants.

foundry model list --filter device=!GPU

Cette commande exclut les modèles GPU des résultats.

Référence : Fonctionnalités de filtre spéciales

Correspondance par caractère générique (alias uniquement) : Ajouter * pour faire correspondre les préfixes lors du filtrage par alias.

foundry model list --filter alias=qwen*

Cette commande retourne des modèles dont l’alias commence par qwen.

Référence : Fonctionnalités de filtre spéciales

Examples

foundry model list --filter device=GPU
foundry model list --filter task=chat-completion
foundry model list --filter provider=CUDAExecutionProvider

Ces exemples filtrent la liste des modèles par appareil, tâche et fournisseur d’exécution.

Référence : Filtrage de liste de modèles

Remarque

  • Aucune comparaison n’est sensible à la casse.
  • Un seul filtre peut être utilisé par commande.
  • Les clés de filtre non reconnues entraînent une erreur.

Commandes de service

Le tableau suivant récapitule les commandes relatives à la gestion et à l’exécution du service Local Foundry :

Commande Description
foundry service --help Affiche toutes les commandes liées au service disponibles et leur utilisation.
foundry service start Démarre le service local Foundry.
foundry service stop Arrête le service local Foundry.
foundry service restart Redémarre le service local Foundry.
foundry service status Affiche l’état actuel du service Local Foundry.
foundry service ps Répertorie tous les modèles actuellement chargés dans le service Foundry Local.
foundry service diag Affiche les journaux du service Local Foundry.
foundry service set <options> Définit la configuration du service local Foundry.

Commandes de cache

Le tableau suivant récapitule les commandes permettant de gérer le cache local où les modèles sont stockés :

Commande Description
foundry cache --help Affiche toutes les commandes liées au cache disponibles et leur utilisation.
foundry cache location Affiche le répertoire du cache actif.
foundry cache list Répertorie tous les modèles stockés dans le cache local.
foundry cache cd <path> Remplace le répertoire du cache par le chemin d’accès spécifié.
foundry cache remove <model> Supprime un modèle du cache local.

Fournisseurs d’exécution

Les fournisseurs d’exécution sont des bibliothèques d’accélération spécifiques au matériel qui exécutent des modèles aussi efficacement que possible sur votre appareil.

Fournisseurs d’exécution intégrés

Foundry Local inclut le fournisseur d’exécution du processeur, le fournisseur d’exécution webGPU et le fournisseur d’exécution CUDA.

Le fournisseur d’exécution CPU utilise les sous-routines MLAS (Microsoft Linear Algebra Subroutines) pour s’exécuter sur n’importe quel CPU et constitue la solution de repli pour Foundry Local.

Le fournisseur d’exécution WebGPU utilise Dawn, l’implémentation native de l’API Web, pour l’accélération sur n’importe quel GPU et sert de solution de repli pour le GPU de Foundry Local.

Le fournisseur d’exécution CUDA utilise NVIDIA CUDA pour l’accélération sur les GPU NVIDIA. Il nécessite une série NVIDIA GeForce RTX 30 et versions ultérieures avec une version minimale recommandée du pilote 32.0.15.5585 et CUDA version 12.5. Il est soumis aux termes du contrat de licence suivant : Contrat de licence pour les kits de développement logiciel NVIDIA — CLUF.

Fournisseurs d’exécution de plug-ins

Les fournisseurs d’exécution répertoriés dans le tableau suivant sont disponibles pour le téléchargement et l’inscription dynamiques sur Windows, en fonction de la compatibilité des périphériques et des pilotes. Ils sont soumis aux termes du contrat de licence spécifiés.

Foundry Local télécharge automatiquement ces fournisseurs d’exécution lors de la première exécution. Les fournisseurs d’exécution de plug-in sont automatiquement mis à jour lorsque de nouvelles versions sont disponibles.

Nom (fournisseur) Spécifications Termes du contrat de licence
NvTensorRTRTXExecutionProvider (NVIDIA) NVIDIA GeForce RTX 30XX et versions ultérieures avec la version minimale recommandée du pilote 32.0.15.5585 et CUDA version 12.5 Contrat de licence pour les kits de développement logiciel NVIDIA — CLUF
OpenVINOExecutionProvider (Intel) PROCESSEUR : Intel TigerLake (11e génération) et versions ultérieures avec le pilote min recommandé 32.0.100.9565
GPU : Intel AlderLake (12e génération) et versions ultérieures avec le pilote minimum recommandé 32.0.101.1029
NPU : Intel ArrowLake (15e génération) et versions ultérieures avec le pilote minimum recommandé 32.0.100.4239
Contrat de licence d’utilisation commerciale de distribution Intel OBL v2025.02.12
QNNExecutionProvider (Qualcomm) Snapdragon(R) X Elite - X1Exxxxx - Qualcomm(R) Hexagon(TM) NPU avec une version minimale du pilote 30.0.140.0 et les versions ultérieures
Snapdragon(R) X Plus - X1Pxxxxx - Qualcomm(R) Hexagon(TM) NPU avec une version minimale du pilote 30.0.140.0 et les versions ultérieures
Pour afficher la licence QNN, téléchargez le Qualcomm® Neural Processing SDK, extrayez le fichier ZIP et ouvrez le fichier LICENSE.pdf.
VitisAIExecutionProvider (AMD) Min : Adrenalin Edition 25.6.3 avec le driver NPU 32.00.0203.280
Max : Adrenalin Edition 25.9.1 avec le pilote NPU 32.00.0203.297
Aucune licence supplémentaire n’est requise