Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ważne
- Program Foundry Local jest dostępny w wersji zapoznawczej. Publiczne wersje zapoznawcze zapewniają wczesny dostęp do funkcji, które są w aktywnym wdrożeniu.
- Funkcje, podejścia i procesy mogą ulec zmianie lub mieć ograniczone możliwości przed ogólną dostępnością.
Ten artykuł zawiera kompleksowe informacje dotyczące lokalnego interfejsu wiersza polecenia (CLI, Foundry Local). Interfejs wiersza polecenia organizuje polecenia w kategorie logiczne, aby ułatwić zarządzanie modelami, kontrolowanie usługi i konserwowanie lokalnej pamięci podręcznej.
Wymagania wstępne
- Zainstaluj lokalnie program Foundry. Aby uzyskać instrukcje konfiguracji, zobacz Wprowadzenie do rozwiązania Foundry Local.
- Użyj lokalnego terminala, gdzie dostępny jest
foundryinterfejs wiersza polecenia. - Upewnij się, że masz dostęp do Internetu podczas pobierania po raz pierwszy (dostawcy i modele wykonywania).
- Azure RBAC: nie dotyczy (działa lokalnie).
- Jeśli masz procesor NPU firmy Intel w systemie Windows, zainstaluj sterownik NPU firmy Intel , aby uzyskać optymalne przyspieszenie NPU.
Szybka weryfikacja
Uruchom te polecenia, aby potwierdzić, że CLI (interfejs wiersza polecenia) jest zainstalowane i usługa jest dostępna.
Pokaż pomoc CLI (interfejsu wiersza polecenia):
foundry --helpTo polecenie wyświetla informacje o użyciu i listę dostępnych grup poleceń.
Dokumentacja: Omówienie
Sprawdź stan usługi:
foundry service statusTo polecenie wyświetla, czy usługa lokalna Foundry jest uruchomiona i zawiera lokalny punkt końcowy.
Dokumentacja: Polecenia usługi
Przegląd
Skorzystaj z wbudowanej pomocy, aby zapoznać się z poleceniami i opcjami.
Interfejs wiersza polecenia organizuje polecenia w trzech głównych kategoriach:
- Model: polecenia do zarządzania i uruchamiania modeli sztucznej inteligencji
- Usługa: polecenia do kontrolowania lokalnej usługi Foundry
- Pamięć podręczna: polecenia do zarządzania lokalnym magazynem modeli
Polecenia modelu
Poniższa tabela zawiera podsumowanie poleceń związanych z zarządzaniem i uruchamianiem modeli:
Uwaga / Notatka
Możesz określić argument przy użyciu model lub identyfikatora modelu. Używanie aliasu:
- Wybiera najlepszy model dla dostępnego sprzętu automatycznie. Jeśli na przykład masz dostępny procesor GPU firmy Nvidia, narzędzie Foundry Local wybiera najlepszy model procesora GPU. Jeśli masz dostępną obsługiwaną jednostkę NPU, funkcja Foundry Local wybiera model NPU.
- Umożliwia użycie krótszej nazwy bez konieczności zapamiętania identyfikatora modelu.
Jeśli chcesz uruchomić określony model, użyj identyfikatora modelu. Aby na przykład uruchomić qwen2.5-0.5b na procesorze CPU — niezależnie od dostępnego sprzętu — użyj: foundry model run qwen2.5-0.5b-instruct-generic-cpu.
| Polecenie | Opis |
|---|---|
foundry model --help |
Wyświetla wszystkie dostępne polecenia związane z modelem i ich użycie. |
foundry model run <model> |
Uruchamia określony model, pobiera go, jeśli nie jest buforowany i uruchamia interakcję. |
foundry model list |
Wyświetla listę wszystkich dostępnych modeli do użytku lokalnego. Przy pierwszym uruchomieniu pobiera dostawców uruchamiania (EP) dla sprzętu. |
foundry model list --filter <key>=<value> |
Wyświetla listę modeli filtrowanych według określonych kryteriów (urządzenie, zadanie, alias, dostawca). |
foundry model info <model> |
Wyświetla szczegółowe informacje o określonym modelu. |
foundry model info <model> --license |
Wyświetla informacje o licencji dla określonego modelu. |
foundry model download <model> |
Pobiera model do lokalnej pamięci podręcznej bez jego uruchamiania. |
foundry model load <model> |
Ładuje model do usługi. |
foundry model unload <model> |
Wyładowuje model z serwisu. |
Porządkowanie listy modeli
Jeśli dla aliasu jest dostępnych wiele wariantów identyfikatorów modelu, lista modeli jest wyświetlana w kolejności priorytetów. Pierwszy model na liście to model uruchamiany podczas określania modelu za pomocą polecenia alias.
Filtrowanie listy modeli
Polecenie foundry model list obsługuje filtrowanie modeli przy użyciu --filter opcji . Modele można filtrować na podstawie pojedynczego atrybutu przy użyciu par klucz-wartość.
foundry model list --filter <key>=<value>
To polecenie wyświetla modele zgodne z kluczem i wartością filtru.
Dokumentacja: Filtrowanie listy modeli
Uwaga / Notatka
Podczas pierwszego uruchomienia foundry model list po instalacji, program Foundry Local automatycznie pobiera odpowiednich dostawców zasobów wykonawczych (EPs) dla konfiguracji sprzętowej maszyny. Zostanie wyświetlony pasek postępu wskazujący ukończenie pobierania przed wyświetleniem listy modeli.
Obsługiwane klucze filtru:
urządzenie — typ urządzenia sprzętowego
Filtruje modele według urządzenia sprzętowego, na których działają.
Możliwe wartości:
-
CPU- Centralne modele jednostek przetwarzania -
GPU- Modele jednostek przetwarzania graficznego -
NPU- Modele jednostek przetwarzania neuronowego
dostawca — dostawca usług wykonawczych
Filtruje modele według dostawcy wykonywania lub środowiska uruchomieniowego.
Możliwe wartości:
-
CPUExecutionProvider- Wykonywanie oparte na procesorze -
CUDAExecutionProvider- Wykonywanie procesora GPU NVIDIA CUDA -
WebGpuExecutionProvider- Wykonywanie protokołu WebGPU -
QNNExecutionProvider- Przetwarzanie sieci neuronowej Qualcomm (NPU) -
OpenVINOExecutionProvider- Wykonanie Intel OpenVINO -
NvTensorRTRTXExecutionProvider- Wykonywanie NVIDIA TensorRT -
VitisAIExecutionProvider— Wykonywanie sztucznej inteligencji przez oprogramowanie AMD Vitis
zadanie — typ zadania modelu
Filtruje modele według zamierzonego przypadku użycia lub zadania.
Typowe wartości:
-
chat-completion: Modele konwersacyjnej sztucznej inteligencji -
text-generation: Modele generowania tekstu
alias — alias modelowy
Filtruje modele według identyfikatora aliasu. Obsługuje dopasowanie symboli wieloznacznych z sufiksem *.
Przykładowe wartości:
phi4-cpuqwen2.5-coder-0.5b-instruct-generic-cpudeepseek-r1-distill-qwen-1.5b-generic-cpuphi-4-mini-instruct-generic-cpu
Specjalne funkcje filtru
Obsługa negacji: Poprzedź dowolną wartość prefiksem !, aby wykluczyć pasujące modele.
foundry model list --filter device=!GPU
To polecenie wyklucza modele procesora GPU z wyników.
Dokumentacja: Specjalne funkcje filtru
Dopasowywanie symboli wieloznacznych (tylko dla aliasów): Dołącz * do dopasowywania prefiksów przy filtrowaniu według aliasu.
foundry model list --filter alias=qwen*
To polecenie zwraca modele, których alias zaczyna się od qwen.
Dokumentacja: Specjalne funkcje filtru
Przykłady
foundry model list --filter device=GPU
foundry model list --filter task=chat-completion
foundry model list --filter provider=CUDAExecutionProvider
Te przykłady filtrują listę modeli według urządzenia, zadania i dostawcy usług wykonawczych.
Dokumentacja: Filtrowanie listy modeli
Uwaga / Notatka
- Wszystkie porównania są niewrażliwe na wielkość liter.
- Tylko jeden filtr może być użyty na polecenie.
- Nierozpoznane klucze filtrów powodują błąd.
Polecenia serwisowe
W poniższej tabeli przedstawiono podsumowanie poleceń związanych z zarządzaniem i uruchamianiem lokalnej usługi Foundry:
| Polecenie | Opis |
|---|---|
foundry service --help |
Wyświetla wszystkie dostępne polecenia związane z usługą i ich użycie. |
foundry service start |
Uruchamia lokalną usługę Foundry. |
foundry service stop |
Zatrzymuje usługę Foundry Lokalnej. |
foundry service restart |
Uruchamia ponownie usługę lokalną Foundry. |
foundry service status |
Wyświetla bieżący stan usługi lokalnej Foundry. |
foundry service ps |
Wyświetla listę wszystkich modeli aktualnie załadowanych w usłudze lokalnej Foundry. |
foundry service diag |
Wyświetla dzienniki usługi lokalnej Foundry. |
foundry service set <options> |
Ustawia konfigurację usługi lokalnej Foundry. |
Komendy pamięci podręcznej
Poniższa tabela zawiera podsumowanie poleceń zarządzania lokalną pamięcią podręczną, w której są przechowywane modele:
| Polecenie | Opis |
|---|---|
foundry cache --help |
Pokazuje wszystkie dostępne komendy związane z pamięcią podręczną oraz ich użycie. |
foundry cache location |
Pokazuje bieżący katalog pamięci podręcznej. |
foundry cache list |
Wyświetla listę wszystkich modeli przechowywanych w lokalnej pamięci podręcznej. |
foundry cache cd <path> |
Zmienia katalog pamięci podręcznej na określoną ścieżkę. |
foundry cache remove <model> |
Usuwa model z lokalnej pamięci podręcznej. |
Dostawcy wykonywania
Dostawcy akceleracji to biblioteki przyspieszania specyficzne dla sprzętu, które uruchamiają modele tak wydajnie, jak to możliwe na Twoim urządzeniu.
Dostawcy wbudowanych usług wykonawczych
Foundry Local obejmuje moduł wykonawczy CPU, moduł wykonawczy WebGPU i moduł wykonawczy CUDA.
Dostawca wykonawczy CPU używa biblioteki Microsoft Linear Algebra Subroutines (MLAS) do uruchamiania na dowolnym CPU i stanowi zapas dla usługi Foundry Local.
Dostawca wykonawczy WebGPU używa Dawn, natywnej implementacji internetowego API, do przyspieszania na dowolnym GPU i jest alternatywą dla GPU w usłudze Foundry Local.
Dostawca wykonywania CUDA używa NVIDIA CUDA do przyspieszania obliczeń na procesorach GPU firmy NVIDIA. Wymaga to serii NVIDIA GeForce RTX 30 i nowszych z minimalną zalecaną wersją sterownika 32.0.15.5585 i CUDA w wersji 12.5. Podlega ona następującym postanowieniom licencyjnym: Umowa licencyjna dla zestawów NVIDIA Software Development Kit — EULA.
Dostawcy wykonywania wtyczek
Dostawcy wykonywania wymienioni w poniższej tabeli są dostępni do dynamicznego pobierania i rejestracji w systemie Windows, w zależności od zgodności urządzeń i sterowników. Podlegają one określonym postanowieniom licencyjnym.
Usługa Foundry Local automatycznie pobiera tych dostawców wykonywania podczas pierwszego uruchomienia. Dostawcy wykonywania wtyczki są automatycznie aktualizowani, gdy są dostępne nowe wersje.
| Nazwa (dostawca) | Requirements | Warunki licencji |
|---|---|---|
NvTensorRTRTXExecutionProvider (NVIDIA) |
NVIDIA GeForce RTX 30XX i nowsze wersje z minimalną zalecaną wersją sterownika 32.0.15.5585 i CUDA w wersji 12.5 | Umowa licencyjna dotycząca zestawów NVIDIA Software Development Kit — EULA |
OpenVINOExecutionProvider (Intel) |
Procesor CPU: Intel TigerLake (11. generacja) i nowsze wersje z minimalnym zalecanym sterownikiem 32.0.100.9565 Procesor GPU: Intel AlderLake (12. generacja) i nowsze wersje z minimalnym zalecanym sterownikiem 32.0.101.1029 NPU: Intel ArrowLake (15th Gen) i nowsze wersje z minimalnym zalecanym sterownikiem 32.0.100.4239 |
Intel OBL Distribution Commercial Use License Agreement v2025.02.12 |
QNNExecutionProvider (Qualcomm) |
Snapdragon(R) X Elite - X1Exxxxx - Qualcomm(R) Hexagon(TM) NPU z minimalną wersją sterownika 30.0.140.0 i nowszymi wersjami Snapdragon(R) X Plus - X1Pxxxxx - Qualcomm(R) Hexagon(TM) NPU z minimalną wersją sterownika 30.0.140.0 i nowszymi wersjami |
Aby wyświetlić licencję QNN, pobierz zestaw SDK przetwarzania neuronowego Qualcomm®, wyodrębnij plik ZIP i otwórz plik LICENSE.pdf. |
VitisAIExecutionProvider (AMD) |
Min: Adrenalin Edition 25.6.3 ze sterownikiem NPU 32.00.0203.280 Max: Adrenalin Edition 25.9.1 ze sterownikiem NPU 32.00.0203.297 |
Brak wymaganej dodatkowej licencji |