Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Von Bedeutung
- Foundry Local ist in der Vorschau verfügbar. Öffentliche Vorschauversionen bieten frühzeitigen Zugriff auf Features, die sich in der aktiven Bereitstellung befinden.
- Features, Ansätze und Prozesse können sich vor der allgemeinen Verfügbarkeit (General Availability, GA) noch ändern oder eine eingeschränkte Funktionalität aufweisen.
Dieser Artikel enthält eine umfassende Referenz für die Befehlszeilenschnittstelle "Foundry Local" (CLI). Die CLI organisiert Befehle in logische Kategorien, um Modelle zu verwalten, den Dienst zu steuern und den lokalen Cache zu verwalten.
Voraussetzungen
- Installieren Sie Foundry Local. Schritte zum Einrichten finden Sie unter "Erste Schritte mit Foundry Local".
- Verwenden Sie ein lokales Terminal, in dem die
foundryCLI verfügbar ist. - Stellen Sie sicher, dass Sie zum ersten Mal über Internetzugriff verfügen (Ausführungsanbieter und Modelle).
- Azure RBAC: Nicht anwendbar (lokal ausgeführt).
- Wenn Sie über eine Intel NPU unter Windows verfügen, installieren Sie den Intel NPU-Treiber für eine optimale NPU-Beschleunigung.
Schnelle Überprüfung
Führen Sie diese Befehle aus, um zu bestätigen, dass die CLI installiert ist und der Dienst erreichbar ist.
CLI-Hilfe anzeigen:
foundry --helpDieser Befehl druckt Nutzungsinformationen und die Liste der verfügbaren Befehlsgruppen.
Referenz: Übersicht
Überprüfen Sie den Dienststatus:
foundry service statusDieser Befehl gibt an, ob der lokale Foundry-Dienst ausgeführt wird und seinen lokalen Endpunkt enthält.
Referenz: Dienstbefehle
Überblick
Verwenden Sie die integrierte Hilfe, um Befehle und Optionen zu erkunden.
Die CLI organisiert Befehle in drei Hauptkategorien:
- Modell: Befehle zum Verwalten und Ausführen von KI-Modellen
- Dienst: Befehle zum Steuern des lokalen Foundry-Diensts
- Cache: Befehle zum Verwalten des lokalen Modellspeichers
Modellbefehle
In der folgenden Tabelle sind die Befehle im Zusammenhang mit der Verwaltung und Ausführung von Modellen zusammengefasst:
Hinweis
Sie können das model Argument anhand des Alias oder der Modell-ID angeben. Verwenden eines Alias:
- Wählt das beste Modell für Ihre verfügbare Hardware automatisch aus. Wenn Sie beispielsweise über eine Nvidia-GPU verfügen, wählt Foundry Local das beste GPU-Modell aus. Wenn Sie eine unterstützte NPU verfügbar haben, wählt Foundry Local das NPU-Modell aus.
- Hiermit können Sie einen kürzeren Namen verwenden, ohne sich die Modell-ID merken zu müssen.
Wenn Sie ein bestimmtes Modell ausführen möchten, verwenden Sie die Modell-ID. Um beispielsweise qwen2.5-0.5b auf der CPU auszuführen – unabhängig von der verfügbaren Hardware – verwenden Sie: foundry model run qwen2.5-0.5b-instruct-generic-cpu.
| Befehl | Beschreibung |
|---|---|
foundry model --help |
Zeigt alle verfügbaren modellbezogenen Befehle und deren Verwendung an. |
foundry model run <model> |
Führt ein angegebenes Modell aus, lädt es herunter, wenn es nicht zwischengespeichert ist, und startet eine Interaktion. |
foundry model list |
Listet alle verfügbaren Modelle für die lokale Verwendung auf. Bei der ersten Ausführung lädt sie Ausführungsanbieter (EPs) für Ihre Hardware herunter. |
foundry model list --filter <key>=<value> |
Listet Modelle auf, die nach den angegebenen Kriterien gefiltert werden (Gerät, Aufgabe, Alias, Anbieter). |
foundry model info <model> |
Zeigt detaillierte Informationen zu einem bestimmten Modell an. |
foundry model info <model> --license |
Zeigt die Lizenzinformationen für ein bestimmtes Modell an. |
foundry model download <model> |
Lädt ein Modell in den lokalen Cache herunter, ohne es auszuführen. |
foundry model load <model> |
Lädt ein Modell in den Dienst. |
foundry model unload <model> |
Entlädt ein Modell aus dem Dienst |
Modelllistenbestellung
Wenn mehrere Modell-ID-Varianten für einen Alias verfügbar sind, zeigt die Modellliste die Modelle in der Prioritätsreihenfolge an. Das erste Modell in der Liste ist das Modell, das ausgeführt wird, wenn Sie das Modell nach alias angeben.
Filtern in der Modellliste
Der foundry model list Befehl unterstützt Filtermodelle mithilfe der --filter Option. Sie können Modelle anhand eines einzelnen Attributs mithilfe von Schlüsselwertpaaren filtern.
foundry model list --filter <key>=<value>
Mit diesem Befehl werden Modelle gedruckt, die mit dem Filterschlüssel und -wert übereinstimmen.
Referenz: Filterung der Modellliste
Hinweis
Wenn Sie foundry model list nach der Installation zum ersten Mal ausführen, lädt Foundry Local automatisch die relevanten Ausführungsanbieter (EPs) für die Hardwarekonfiguration Ihres Geräts herunter. Es wird eine Statusleiste angezeigt, die den Abschluss des Downloads anzeigt, bevor die Modellliste angezeigt wird.
Unterstützte Filterschlüssel:
gerät – Hardwaregerätetyp
Filtert Modelle nach dem Hardwaregerät, auf dem sie ausgeführt werden.
Mögliche Werte:
-
CPU- Zentrale Verarbeitungseinheitsmodelle -
GPU- Grafikverarbeitungseinheitsmodelle -
NPU- Neurale Verarbeitungseinheitsmodelle
Provider – Ausführungs-Provider
Filtert Modelle nach ihrem Ausführungsanbieter oder ihrer Laufzeit.
Mögliche Werte:
-
CPUExecutionProvider- CPU-basierte Ausführung -
CUDAExecutionProvider- NVIDIA CUDA GPU-Ausführung -
WebGpuExecutionProvider- WebGPU-Ausführung -
QNNExecutionProvider- Neurale Netzwerkausführung von Qualcomm (NPU) -
OpenVINOExecutionProvider- Intel OpenVINO-Ausführung -
NvTensorRTRTXExecutionProvider- NVIDIA TensorRT-Ausführung -
VitisAIExecutionProvider: AMD Vitis AI-Ausführung
task - Modellaufgabentyp
Filtert Modelle nach dem beabsichtigten Anwendungsfall oder der beabsichtigten Aufgabe.
Allgemeine Werte:
-
chat-completion: Konversationelle KI-Modelle -
text-generation: Modelle der Textgenerierung
Alias – Modellalias
Filtert Modelle anhand ihres Aliasbezeichners. Unterstützt den Platzhalterabgleich mit dem Suffix *.
Beispielwerte:
phi4-cpuqwen2.5-coder-0.5b-instruct-generic-cpudeepseek-r1-distill-qwen-1.5b-generic-cpuphi-4-mini-instruct-generic-cpu
Spezielle Filterfeatures
Negation-Unterstützung: Präfixen Sie jeden beliebigen Wert mit !, um übereinstimmende Modelle auszuschließen.
foundry model list --filter device=!GPU
Dieser Befehl schließt GPU-Modelle aus den Ergebnissen aus.
Referenz: Spezielle Filterfeatures
Platzhalterabgleich (nur Alias): Fügen Sie * an, um Präfixe beim Filtern nach Alias abzugleichen.
foundry model list --filter alias=qwen*
Dieser Befehl gibt Modelle zurück, deren Alias mit qwen beginnt.
Referenz: Spezielle Filterfeatures
Examples
foundry model list --filter device=GPU
foundry model list --filter task=chat-completion
foundry model list --filter provider=CUDAExecutionProvider
In diesen Beispielen wird die Modellliste nach Geräte-, Aufgaben- und Ausführungsanbietern gefiltert.
Referenz: Modelllistenfilterung
Hinweis
- Beim allen Vergleichen wird die Groß-/Kleinschreibung nicht beachtet.
- Pro Befehl kann nur ein Filter verwendet werden.
- Nicht erkannte Filterschlüssel führen zu einem Fehler.
Dienstbefehle
In der folgenden Tabelle sind die Befehle im Zusammenhang mit der Verwaltung und Ausführung des lokalen Foundry-Diensts zusammengefasst:
| Befehl | Beschreibung |
|---|---|
foundry service --help |
Zeigt alle verfügbaren dienstbezogenen Befehle und deren Verwendung an. |
foundry service start |
Startet den Dienst "Foundry Local". |
foundry service stop |
Beendet den Foundry Local-Dienst |
foundry service restart |
Startet den lokalen Foundry-Dienst neu. |
foundry service status |
Zeigt den aktuellen Status des lokalen Foundry-Diensts an. |
foundry service ps |
Listet alle Modelle auf, die zurzeit im lokalen Foundry-Dienst geladen wurden. |
foundry service diag |
Zeigt die Protokolle des lokalen Foundry-Diensts an. |
foundry service set <options> |
Legt die Konfiguration des lokalen Foundry-Diensts fest. |
Cachebefehle
In der folgenden Tabelle sind die Befehle zum Verwalten des lokalen Caches zusammengefasst, in dem Modelle gespeichert sind:
| Befehl | Beschreibung |
|---|---|
foundry cache --help |
Zeigt alle verfügbaren cachebezogenen Befehle und deren Verwendung an. |
foundry cache location |
Zeigt das aktuelle Cacheverzeichnis an. |
foundry cache list |
Listet alle Modelle auf, die im lokalen Cache gespeichert sind. |
foundry cache cd <path> |
Ändert das Cacheverzeichnis in den angegebenen Pfad. |
foundry cache remove <model> |
Entfernt ein Modell aus dem lokalen Cache. |
Ausführungsanbieter
Ausführungsanbieter sind hardwarespezifische Beschleunigungsbibliotheken, die Modelle so effizient wie möglich auf Ihrem Gerät ausführen.
Integrierte Ausführungsanbieter
Foundry Local umfasst den CPU-Ausführungsanbieter, den WebGPU-Ausführungsanbieter und den CUDA-Ausführungsanbieter.
Der CPU-Ausführungsanbieter verwendet Microsoft Linear Algebra Subroutines (MLAS), um auf einer beliebigen CPU ausgeführt zu werden und ist der CPU-Fallback für Foundry Local.
Der WebGPU-Ausführungsanbieter verwendet Dawn, die native Implementierung der webbasierten API, für die Beschleunigung auf jeder GPU und ist der GPU-Fallback für Foundry Local.
Der CUDA-Ausführungsanbieter verwendet NVIDIA CUDA für beschleunigung auf NVIDIA GPUs. Es erfordert eine NVIDIA GeForce RTX 30-Serie und höher mit mindestens empfohlener Treiberversion 32.0.15.5585 und CUDA Version 12.5. Es unterliegt den folgenden Lizenzbedingungen: Lizenzvertrag für NVIDIA Software Development Kits – EULA.
Plug-In-Ausführungsanbieter
Die in der folgenden Tabelle aufgeführten Ausführungsanbieter stehen je nach Geräte- und Treiberkompatibilität für den dynamischen Download und die Registrierung unter Windows zur Verfügung. Sie unterliegen den angegebenen Lizenzbedingungen.
Foundry Local lädt diese Ausführungsanbieter automatisch bei der ersten Ausführung herunter. Die Plugin-Ausführungsanbieter werden automatisch aktualisiert, wenn neue Versionen verfügbar sind.
| Name (Anbieter) | Anforderungen | Lizenzbedingungen |
|---|---|---|
NvTensorRTRTXExecutionProvider (NVIDIA) |
NVIDIA GeForce RTX 30XX und höhere Versionen mit mindestens empfohlener Treiberversion 32.0.15.5585 und CUDA, Version 12.5 | Lizenzvertrag für NVIDIA Software Development Kits – EULA |
OpenVINOExecutionProvider (Intel) |
CPU: Intel TigerLake (11. Generation) und spätere Versionen mit mindestens empfohlener Treiber 32.0.100.9565 GPU: Intel AlderLake (12. Generation) und höhere Versionen mit min. empfohlenem Treiber 32.0.101.1029 NPU: Intel ArrowLake (15. Generation) und späteren Versionen mit mindestens empfohlenem Treiber 32.0.100.4239 |
Intel OBL Distribution Commercial Use License Agreement v2025.02.12 |
QNNExecutionProvider (Qualcomm) |
Snapdragon(R) X Elite - X1Exxxxx - Qualcomm(R) Hexagon(TM) NPU mit mindester Treiberversion 30.0.140.0 und höher Snapdragon(R) X Plus - X1Pxxxxx - Qualcomm(R) Hexagon(TM) NPU mit mindester Treiberversion 30.0.140.0 und höher |
Um die QNN-Lizenz anzuzeigen, laden Sie das Neural Processing SDK von Qualcomm® herunter, extrahieren Sie die ZIP-Datei, und öffnen Sie die LICENSE.pdf Datei. |
VitisAIExecutionProvider (AMD) |
Min: Adrenalin Version 25.6.3 mit NPU-Treiber 32.00.0203.280 Max: Adrenalin Edition 25.9.1 mit NPU Treiber 32.00.0203.297 |
Keine zusätzliche Lizenz erforderlich |