Freigeben über


GPU-beschleunigtes ML-Training

Windows ML-Grafik

Diese Dokumentation befasst sich mit dem Einrichten von GPU beschleunigten Ml-Schulungsszenarien (Machine Learning) für das Windows-Subsystem für Linux (WSL) und systemeigene Windows.

Diese Funktionalität unterstützt sowohl professionelle als auch Anfängerszenarien. Unten finden Sie Zeiger zu schrittweisen Anleitungen zum Einrichten Ihres Systems je nach Ihrem Fachwissen in ML, Ihrem GPU-Anbieter und der Softwarebibliothek, die Sie verwenden möchten.

NVIDIA CUDA in WSL

Wenn Sie ein professioneller Data-Wissenschaftler sind, der täglich eine native Linux-Umgebung für die Entwicklung und Experimentierung in inneren Schleifen ML verwendet, und Sie über eine NVIDIA GPU verfügen, empfehlen wir die Einrichtung von NVIDIA CUDA in WSL.

PyTorch mit DirectML

Um PyTorch mit einem Framework zu verwenden, das über die Breite von DirectX 12-fähigen GPUs hinweg funktioniert, empfehlen wir das Einrichten des PyTorch mit DirectML-Paket . Dieses Paket beschleunigt Workflows für AMD, Intel und NVIDIA GPUs.

Wenn Sie mit einer nativen Linux-Umgebung vertraut sind, empfehlen wir, PyTorch mit DirectML in WSL auszuführen.

Wenn Sie mit Windows vertraut sind, empfehlen wir, PyTorch mit DirectML unter systemeigenem Windows auszuführen.

TensorFlow mit DirectML

Von Bedeutung

Dieses Projekt wird nun nicht mehr aktiv bearbeitet.

Um TensorFlow mit einem Framework zu verwenden, das über die Breite von DirectX 12-fähigen GPUs hinweg funktioniert, empfehlen wir das Einrichten des TensorFlow mit DirectML-Paket. Dieses Paket beschleunigt Workflows für AMD, Intel und NVIDIA GPUs.

Nächste Schritte