Partilhar via


Método ILearningModelDeviceFactoryNative.CreateFromD3D12CommandQueue

Cria um LearningModelDevice que executará a inferência no ID3D12CommandQueue especificado pelo usuário.

HRESULT CreateFromD3D12CommandQueue(
    ID3D12CommandQueue * value,
    [out] IUnknown ** result);

Parâmetros

Nome Tipo Descrição
valor ID3D12CommandQueue* O ID3D12CommandQueue contra o qual o LearningModelDevice será executado.
Resultado IUnknown** O LearningModelDevice a ser criado.

Devoluções

HRESULTADO O resultado da operação.

Exemplos

 // 1. create the d3d device.
com_ptr<ID3D12Device> pD3D12Device = nullptr;
CHECK_HRESULT(D3D12CreateDevice(
    nullptr,
    D3D_FEATURE_LEVEL::D3D_FEATURE_LEVEL_11_0,
    __uuidof(ID3D12Device),
    reinterpret_cast<void**>(&pD3D12Device)));

// 2. create the command queue.
com_ptr<ID3D12CommandQueue> dxQueue = nullptr;
D3D12_COMMAND_QUEUE_DESC commandQueueDesc = {};
commandQueueDesc.Type = D3D12_COMMAND_LIST_TYPE_DIRECT;
CHECK_HRESULT(pD3D12Device->CreateCommandQueue(
    &commandQueueDesc,
    __uuidof(ID3D12CommandQueue),
    reinterpret_cast<void**>(&dxQueue)));
com_ptr<ILearningModelDeviceFactoryNative> devicefactory =
    get_activation_factory<LearningModelDevice, ILearningModelDeviceFactoryNative>();
com_ptr<::IUnknown> spUnk;
CHECK_HRESULT(devicefactory->CreateFromD3D12CommandQueue(dxQueue.get(), spUnk.put()));

Ver também

Requerimentos

Requisito
Cliente mínimo suportado Windows 10, compilação 17763
Servidor mínimo suportado Windows Server 2019 com Experiência Desktop
Cabeçalho windows.ai.machinelearning.native.h

Observação

Use os seguintes recursos para obter ajuda com o Windows ML:

  • Para fazer ou responder a perguntas técnicas sobre o Windows ML, use a tag windows-machine-learning no Stack Overflow.
  • Para relatar um bug, registre um problema em nosso GitHub.