Partilhar via


Carregar um modelo

Importante

O Windows Machine Learning requer modelos ONNX, versão 1.2 ou superior.

Depois de obter um modelo ONNX treinado, você distribuirá o(s) arquivo(s) de modelo .onnx com seu aplicativo. Você pode incluir o(s) arquivo(s) .onnx em seu pacote APPX ou, para aplicativos de desktop, eles podem estar em qualquer lugar que seu aplicativo possa acessar no disco rígido.

Há várias maneiras de carregar um modelo usando métodos estáticos na classe LearningModel :

Os métodos LoadFromStream* permitem que os aplicativos tenham mais controle sobre a origem do modelo. Por exemplo, um aplicativo pode optar por ter o modelo criptografado no disco e descriptografá-lo apenas na memória antes de chamar um dos métodos LoadFromStream*. Outras opções incluem carregar o fluxo do modelo a partir de um compartilhamento de rede ou outra mídia.

Sugestão

Carregar um modelo pode levar algum tempo, portanto, tome cuidado para não chamar um método Load* do thread da interface do usuário.

O exemplo a seguir mostra como você pode carregar um modelo em seu aplicativo:

private async LearningModel LoadModelAsync(string modelPath)
{
    // Load and create the model
    var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
        new Uri(modelPath));

    LearningModel model =
        await LearningModel.LoadFromStorageFileAsync(modelFile);

    return model;
}

Ver também

Observação

Use os seguintes recursos para obter ajuda com o Windows ML:

  • Para fazer ou responder a perguntas técnicas sobre o Windows ML, use a tag windows-machine-learning no Stack Overflow.
  • Para relatar um bug, registre um problema em nosso GitHub.