Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
O Tempo de Execução ONNX fornecido com o Windows ML permite que os aplicativos executem inferência em modelos ONNX localmente.
Criando uma sessão de inferência
As APIs são as mesmas que ao usar o ONNX Runtime diretamente. Por exemplo, para criar uma sessão de inferência:
// Create inference session using compiled model
using InferenceSession session = new(compiledModelPath, sessionOptions);
Sugerimos ler os documentos do ONNX Runtime para obter mais informações sobre como usar as APIs do ONNX Runtime no Windows ML. O código de inferência do modelo será diferente para cada modelo.
Compilar modelos
Antes de usar um modelo ONNX em uma sessão de inferência, ele geralmente deve ser compilado em uma representação otimizada que pode ser executada de forma eficiente no hardware subjacente do dispositivo.
A partir do ONNX Runtime 1.22, há novas APIs que encapsulam melhor as etapas de compilação. Mais detalhes estão disponíveis na documentação de compilação do ONNX Runtime (consulte OrtCompileApi struct).
// Prepare compilation options
OrtModelCompilationOptions compileOptions = new(sessionOptions);
compileOptions.SetInputModelPath(modelPath);
compileOptions.SetOutputModelPath(compiledModelPath);
// Compile the model
compileOptions.CompileModel();
Note
A compilação pode levar vários minutos para ser concluída. Para que qualquer interface do usuário permaneça responsiva, considere fazer isso como uma operação em segundo plano em seu aplicativo.
Sugestão
Para um desempenho ideal, compile seus modelos uma vez e reutilize a versão compilada. Armazene modelos compilados na pasta de dados local do seu aplicativo para execuções subsequentes. Observe que as atualizações para os EPs ou tempo de execução podem exigir recompilação.