Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Rozwiązanie PyTorch z językiem DirectML zapewnia łatwy w użyciu sposób dla deweloperów wypróbowanie najnowszych i największych modeli sztucznej inteligencji na maszynie z systemem Windows. Narzędzie PyTorch można pobrać za pomocą języka DirectML, instalując pakiet PyPi torch-directml . Po skonfigurowaniu możesz zacząć od naszych przykładów lub użyć zestawu narzędzi AI Toolkit for VS Code.
Sprawdzanie wersji systemu Windows
Pakiet torch-directml w podsystemie Windows dla systemu Linux (WSL) 2 działa począwszy od systemu Windows 11 (Kompilacja 22000 lub nowsza). Numer wersji kompilacji można sprawdzić, uruchamiając winver polecenie Uruchom (logo systemu Windows + R).
Sprawdzanie aktualizacji sterowników procesora GPU
Upewnij się, że masz zainstalowany najnowszy sterownik procesora GPU. Wybierz pozycję Sprawdź dostępność aktualizacji w sekcji Windows Updatew obszarze Ustawienia systemu Windows.
Skonfiguruj Torch-DirectML
Instalowanie programu WSL 2
Aby zainstalować podsystem Windows dla systemu Linux (WSL) 2, zobacz instrukcje w temacie Instalowanie programu WSL.
Następnie zainstaluj sterownik graficznego interfejsu użytkownika WSL, postępując zgodnie z instrukcjami w pliku w README.md repozytorium microsoft/wslg GitHub.
Konfigurowanie środowiska języka Python
Zalecamy skonfigurowanie wirtualnego środowiska języka Python w środowisku WSL 2. Istnieje wiele narzędzi, których można użyć do skonfigurowania wirtualnego środowiska języka Python — w tym temacie użyjemy programu Miniconda platformy Anaconda. W pozostałej części tej konfiguracji przyjęto założenie, że używasz środowiska Miniconda.
Zainstaluj narzędzie Miniconda, postępując zgodnie ze wskazówkami instalatora systemu Linux w witrynie platformy Anaconda lub uruchamiając następujące polecenia w programie WSL 2.
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
bash Miniconda3-latest-Linux-x86_64.sh
Po zainstalowaniu narzędzia Miniconda utwórz środowisko języka Python o nazwie pytdml i aktywuj je za pomocą następujących poleceń:
conda create --name pytdml -y
conda activate pytdml
Instalowanie biblioteki PyTorch i Torch-DirectML
Uwaga / Notatka
Pakiet torch-directml obsługuje do PyTorch 2.3.1
Wszystko, co jest potrzebne do skonfigurowania, to zainstalowanie najnowszej wersji torch-directml poprzez uruchomienie następującego polecenia:
pip install torch-directml
Weryfikacja i tworzenie urządzenia
Po zainstalowaniu pakietu torch-directml możesz sprawdzić, czy działa prawidłowo, dodając dwa tensory. Najpierw rozpocznij interaktywną sesję języka Python i zaimportuj torch z następującymi wierszami:
import torch
import torch_directml
dml = torch_directml.device()
Bieżąca wersja torch-directml jest przypisywana do backendu "PrivateUse1". Interfejs API torch_directml.device() to wygodne opakowanie do przesyłania tensorów do urządzenia DirectML.
Po stworzeniu urządzenia DirectML możesz teraz zdefiniować dwa proste tensory: jeden tensor zawierający 1, a drugi zawierający 2. Umieść tensory na urządzeniu "dml".
tensor1 = torch.tensor([1]).to(dml) # Note that dml is a variable, not a string!
tensor2 = torch.tensor([2]).to(dml)
Dodaj tensory i wyświetl wyniki.
dml_algebra = tensor1 + tensor2
dml_algebra.item()
Powinna zostać wyświetlona liczba 3, jak w poniższym przykładzie.
>>> import torch
>>> tensor1 = torch.tensor([1]).to(dml)
>>> tensor2 = torch.tensor([2]).to(dml)
>>> dml_algebra = tensor1 + tensor2
>>> dml_algebra.item()
3
PyTorch z przykładami i opiniami dotyczącymi DirectML
Zapoznaj się z naszymi przykładami , aby zobaczyć więcej zastosowań rozwiązania PyTorch z językiem DirectML. Jeśli wystąpią problemy lub masz opinię na temat pakietu PyTorch z językiem DirectML, skontaktuj się z naszym zespołem tutaj.