Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O notebook de exemplo neste artigo demonstra o fluxo de trabalho de inferência de aprendizado profundo recomendado pelo Azure Databricks com TensorFlow e TensorFlowRT. Esse exemplo mostra como otimizar um modelo ResNet-50 treinado com o TensorRT para inferência de modelo.
O NVIDIA TensorRT é um otimizador e runtime de inferência de alto desempenho que fornece baixa latência e alta taxa de transferência para aplicativos de inferência de aprendizado profundo. O TensorRT está instalado na versão habilitada para GPU do Databricks Runtime para Machine Learning.