Compartilhar via


Carregar um modelo

Importante

O Windows Machine Learning requer modelos ONNX, versão 1.2 ou superior.

Depois de obter um modelo ONNX treinado, você distribuirá os arquivos de modelo .onnx com seu aplicativo. Você pode incluir os arquivos .onnx em seu pacote APPX ou, para aplicativos da área de trabalho, eles podem estar em qualquer lugar que seu aplicativo possa acessar no disco rígido.

Há várias maneiras de carregar um modelo usando métodos estáticos na classe LearningModel :

Os métodos LoadFromStream* permitem que os aplicativos tenham mais controle sobre de onde o modelo vem. Por exemplo, um aplicativo poderia optar por ter o modelo criptografado em disco e descriptografá-lo somente na memória antes de chamar um dos métodos LoadFromStream*. Outras opções incluem carregar o fluxo de modelo de um compartilhamento de rede ou outra mídia.

Dica

Carregar um modelo pode levar algum tempo, portanto, tome cuidado para não chamar um método Load* do thread da interface do usuário.

O exemplo a seguir mostra como você pode carregar um modelo em seu aplicativo:

private async LearningModel LoadModelAsync(string modelPath)
{
    // Load and create the model
    var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
        new Uri(modelPath));

    LearningModel model =
        await LearningModel.LoadFromStorageFileAsync(modelFile);

    return model;
}

Consulte também

Observação

Use os seguintes recursos para obter ajuda com o Windows ML:

  • Para fazer ou responder perguntas técnicas sobre o Windows ML, use a marca windows-machine learning no Stack Overflow.
  • Para relatar um bug, registre um problema em nosso GitHub.