Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Esta documentação aborda a configuração de cenários de treinamento de ML (aprendizado de máquina) acelerado de GPU para o Subsistema do Windows para Linux (WSL) e o Windows nativo.
Essa funcionalidade dá suporte a cenários profissionais e iniciantes. Abaixo, você encontrará ponteiros para guias passo a passo sobre como configurar seu sistema dependendo do nível de experiência em ML, seu fornecedor de GPU e a biblioteca de software que você pretende usar.
NVIDIA CUDA no WSL
Se você for um cientista de dados profissional que usa um ambiente nativo do Linux no dia-a-dia para desenvolvimento e experimentação de ML de loop interno e tiver uma GPU NVIDIA, recomendamos configurar o NVIDIA CUDA no WSL.
PyTorch com DirectML
Para usar o PyTorch com uma estrutura que funciona na amplitude das GPUs compatíveis com o DirectX 12, recomendamos configurar o PyTorch com o pacote DirectML . Esse pacote acelera os fluxos de trabalho em GPUs AMD, Intel e NVIDIA.
Se você estiver mais familiarizado com um ambiente nativo do Linux, recomendamos executar o PyTorch com DirectML dentro do WSL.
Se você estiver mais familiarizado com o Windows, recomendamos executar o PyTorch com DirectML no Windows nativo.
TensorFlow com DirectML
Importante
Este projeto agora foi descontinuado e não está sendo trabalhado ativamente.
Para usar o TensorFlow com uma estrutura que funciona na amplitude das GPUs compatíveis com DirectX 12, recomendamos configurar o TensorFlow com o pacote DirectML. Esse pacote acelera os fluxos de trabalho em GPUs AMD, Intel e NVIDIA.