Udostępnij przez


Szkolenie uczenia maszynowego przyspieszone dzięki GPU

Grafika Windows ML

W tej dokumentacji opisano konfigurację scenariuszy szkolenia ML z akceleracją GPU dla podsystemu Windows dla systemu Linux (WSL) i natywnego systemu Windows.

Ta funkcja obsługuje zarówno scenariusze profesjonalne, jak i dla początkujących. Poniżej znajdziesz wskazówki krok po kroku dotyczące sposobu konfigurowania systemu w zależności od poziomu wiedzy na temat uczenia maszynowego, dostawcy procesora GPU i biblioteki oprogramowania, której zamierzasz użyć.

NVIDIA CUDA w programie WSL

Jeśli jesteś profesjonalnym analitykiem danych, który używa codziennego środowiska natywnego systemu Linux do opracowywania i eksperymentowania w wewnętrznej pętli uczenia maszynowego, a masz procesor GPU FIRMY NVIDIA, zalecamy skonfigurowanie funkcji NVIDIA CUDA w programie WSL.

PyTorch z językiem DirectML

Aby użyć PyTorch z frameworkiem, który działa w całym zakresie procesorów GPU obsługujących DirectX 12, zalecamy skonfigurowanie pakietu PyTorch z DirectML. Ten pakiet przyspiesza przepływy pracy na procesorach GPU AMD, Intel i NVIDIA.

Jeśli znasz już natywne środowisko systemu Linux, zalecamy uruchomienie biblioteki PyTorch z językiem DirectML wewnątrz biblioteki WSL.

Jeśli znasz system Windows, zalecamy uruchomienie biblioteki PyTorch z językiem DirectML w natywnym systemie Windows.

TensorFlow z językiem DirectML

Ważne

Ten projekt został teraz przerwany i nie jest aktywnie rozwijany.

Aby użyć biblioteki TensorFlow z strukturą, która działa w całym zakresie procesorów GPU obsługujących funkcję DirectX 12, zalecamy skonfigurowanie pakietu TensorFlow z pakietem DirectML. Ten pakiet przyspiesza przepływy pracy na procesorach GPU AMD, Intel i NVIDIA.

Dalsze kroki