Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Importante
Este recurso está em versão Beta. Os administradores do espaço de trabalho podem controlar o acesso a esse recurso na página Visualizações . Consulte Gerenciar visualizações do Azure Databricks.
Este artigo descreve a computação de GPU sem servidor no Databricks e fornece casos de uso recomendados, orientação sobre como configurar recursos de computação de GPU e limitações de recursos.
O que é computação GPU sem servidor?
A computação GPU sem servidor faz parte da oferta de computação sem servidor. A computação GPU sem servidor é especializada para cargas de trabalho personalizadas de aprendizagem profunda de um e vários nós. Você pode usar a computação GPU sem servidor para treinar e ajustar modelos personalizados usando suas estruturas favoritas e obter eficiência, desempenho e qualidade de última geração.
A computação GPU sem servidor inclui:
- Uma experiência integrada em Notebooks, Unity Catalog e MLflow: Você pode desenvolver seu código interativamente usando Notebooks.
- Aceleradores de GPU A10:As GPUs A10 são projetadas para acelerar cargas de trabalho de aprendizado de máquina e aprendizado profundo de pequeno a médio, incluindo modelos clássicos de ML e ajuste fino de modelos de linguagem menores. Os A10 são adequados para tarefas com requisitos computacionais moderados.
- Suporte a multi-GPU e multi-nós: Você pode executar cargas de trabalho de treinamento distribuídas, várias GPUs e vários nós usando a API Python da GPU sem servidor. Consulte Formação distribuída.
Os pacotes pré-instalados na computação GPU sem servidor não substituem o Databricks Runtime ML. Embora existam pacotes comuns, nem todas as dependências e bibliotecas do Databricks Runtime ML são refletidas no ambiente de computação GPU sem servidor.
Ambientes Python na computação GPU sem servidor
O Databricks fornece dois ambientes gerenciados para atender a casos de uso diferentes.
Observação
Ambientes base de workspace não são suportados para computação de GPU serverless. Em vez disso, use o ambiente padrão ou o de inteligência artificial e especifique dependências adicionais diretamente no painel lateral dos Ambientes ou pip install neles.
Ambiente base padrão
Isso fornece um ambiente mínimo com API de cliente estável para garantir a compatibilidade do aplicativo. Apenas os pacotes Python necessários são instalados. Isso permite que o Databricks atualize o servidor de forma independente, oferecendo melhorias de desempenho, melhorias de segurança e correções de bugs sem exigir alterações de código nas cargas de trabalho. Este é o ambiente padrão quando escolhes computação com GPU serverless. Escolha este ambiente se quiser personalizar totalmente o ambiente para o seu treinamento.
Para mais detalhes sobre as versões dos pacotes instaladas em diferentes versões, consulte as notas de lançamento:
Ambiente de IA
O ambiente Databricks AI está disponível no ambiente GPU sem servidor 4. O ambiente de IA é construído sobre o ambiente base predefinido, com pacotes de execução comuns e específicos para aprendizagem automática em GPUs. Contém bibliotecas populares de aprendizagem automática, incluindo PyTorch, LangChain, Transformers, Ray e XGBoost para treino e inferência de modelos. Escolha este ambiente para realizar cargas de trabalho de treino.
Para mais detalhes sobre as versões dos pacotes instaladas em diferentes versões, consulte as notas de lançamento:
Casos de uso recomendados
O Databricks recomenda a computação de GPU sem servidor para qualquer caso de uso de treinamento de modelo que exija personalizações de treinamento e GPUs.
Por exemplo:
- Ajuste fino LLM
- Visão computacional
- Sistemas de recomendação
- Aprendizagem por reforço
- Previsão de séries cronológicas baseada em aprendizagem profunda
Requerimentos
- Um espaço de trabalho em uma das seguintes regiões com suporte do Azure:
eastuseastus2centralusnorthcentraluswestcentraluswestus
Configurar computação GPU sem servidor
Para conectar seu notebook à computação GPU sem servidor e configurar o ambiente:
- No computador portátil, clique no menu suspenso Conectar na parte superior e selecione GPU sem servidor.
- Clique no
para abrir o painel lateral Ambiente .
- Selecione A10 no campo Acelerador .
- Selecione Nenhum para o ambiente padrão ou AI v4 para o ambiente de IA no campo Ambiente básico .
- Se você escolher Nenhum no campo Ambiente base , selecione a Versão do ambiente.
- Clique em Aplicar e, em seguida, em Confirmar que pretende aplicar a computação GPU sem servidor ao seu ambiente de bloco de notas.
Observação
A conexão com sua computação termina automaticamente após 60 minutos de inatividade.
Adicionar bibliotecas ao ambiente
Você pode instalar bibliotecas adicionais no ambiente de computação GPU sem servidor. Consulte Adicionar dependências ao notebook.
Observação
A adição de dependências usando o painel Ambientes , como visto em Adicionar dependências ao notebook, não é suportada para trabalhos agendados de computação de GPU sem servidor.
Criar e agendar um trabalho
As etapas a seguir mostram como criar e agendar trabalhos para suas cargas de trabalho de computação de GPU sem servidor. Consulte Criar e gerenciar trabalhos agendados de blocos de anotações para obter mais detalhes.
Depois de abrir o bloco de notas que pretende utilizar:
- Selecione o botão Agendar no canto superior direito.
- Selecione Adicionar agenda.
- Preencha o formulário Nova agenda com o Nome do trabalho, Agenda e Computação.
- Selecione Criar.
Você também pode criar e agendar trabalhos a partir da interface do usuário Trabalhos e pipelines . Consulte Criar um novo trabalho para obter orientação passo a passo.
Formação distribuída
Limitações
- A computação GPU sem servidor suporta apenas aceleradores A10.
- Private Link não é suportado. Não há suporte para armazenamento ou repositórios pip por trás do Private Link.
- A computação de GPU sem servidor não é suportada para espaços de trabalho de perfil de segurança de conformidade (como HIPAA ou PCI). O processamento de dados regulamentados não é suportado no momento.
- Para trabalhos agendados na computação GPU sem servidor, não há suporte para o comportamento de recuperação automática para versões de pacotes incompatíveis associadas ao seu notebook.
- O tempo de execução máximo para uma carga de trabalho é de sete dias. Para trabalhos de treinamento de modelo que excedam este limite, implemente o checkpointing e reinicie o trabalho assim que o tempo de execução máximo for atingido.
Carregamento de dados
Veja Carregar dados na computação de GPU Serverless.
Melhores práticas
Consulte Práticas recomendadas para computação de GPU sem servidor.
Resolução de problemas no Serverless GPU Compute
Se você encontrar problemas ao executar cargas de trabalho na computação de GPU sem servidor, consulte o guia de solução de problemas para problemas comuns, soluções alternativas e recursos de suporte.
Exemplos de cadernos
Abaixo estão vários exemplos de notebook que demonstram como usar a computação GPU sem servidor para diferentes tarefas.
| Tarefa | Description |
|---|---|
| Modelos linguísticos de grande dimensão (LLM) | Exemplos de ajuste fino de grandes modelos linguísticos, incluindo métodos eficientes em termos de parâmetros, como Low-Rank Adaptation (LoRA) e abordagens supervisionadas de ajuste fino. |
| Visão computacional | Exemplos de tarefas de visão computacional, incluindo deteção de objetos e classificação de imagens. |
| Sistemas de recomendação baseados em aprendizagem profunda | Exemplos para a construção de sistemas de recomendação usando abordagens modernas de aprendizagem profunda, como modelos de duas torres. |
| ML clássico | Exemplos de tarefas tradicionais de aprendizado de máquina, incluindo treinamento de modelo XGBoost e previsão de séries temporais. |
| Treinamento distribuído com várias GPUs e vários nós | Exemplos de treinamento de dimensionamento em várias GPUs e nós usando a API de GPU sem servidor, incluindo ajuste fino distribuído. |
Exemplos de formação com multi-GPU
Veja Treino distribuído multi-GPU e multi-nós em notebooks que demonstram o uso de várias bibliotecas de treino distribuído para treino multi-GPU.