Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
W tej dokumentacji opisano konfigurację scenariuszy szkolenia ML z akceleracją GPU dla podsystemu Windows dla systemu Linux (WSL) i natywnego systemu Windows.
Ta funkcja obsługuje zarówno scenariusze profesjonalne, jak i dla początkujących. Poniżej znajdziesz wskazówki krok po kroku dotyczące sposobu konfigurowania systemu w zależności od poziomu wiedzy na temat uczenia maszynowego, dostawcy procesora GPU i biblioteki oprogramowania, której zamierzasz użyć.
NVIDIA CUDA w programie WSL
Jeśli jesteś profesjonalnym analitykiem danych, który używa codziennego środowiska natywnego systemu Linux do opracowywania i eksperymentowania w wewnętrznej pętli uczenia maszynowego, a masz procesor GPU FIRMY NVIDIA, zalecamy skonfigurowanie funkcji NVIDIA CUDA w programie WSL.
PyTorch z językiem DirectML
Aby użyć PyTorch z frameworkiem, który działa w całym zakresie procesorów GPU obsługujących DirectX 12, zalecamy skonfigurowanie pakietu PyTorch z DirectML. Ten pakiet przyspiesza przepływy pracy na procesorach GPU AMD, Intel i NVIDIA.
Jeśli znasz już natywne środowisko systemu Linux, zalecamy uruchomienie biblioteki PyTorch z językiem DirectML wewnątrz biblioteki WSL.
Jeśli znasz system Windows, zalecamy uruchomienie biblioteki PyTorch z językiem DirectML w natywnym systemie Windows.
TensorFlow z językiem DirectML
Ważne
Ten projekt został teraz przerwany i nie jest aktywnie rozwijany.
Aby użyć biblioteki TensorFlow z strukturą, która działa w całym zakresie procesorów GPU obsługujących funkcję DirectX 12, zalecamy skonfigurowanie pakietu TensorFlow z pakietem DirectML. Ten pakiet przyspiesza przepływy pracy na procesorach GPU AMD, Intel i NVIDIA.