Compartilhar via


Método ILearningModelDeviceFactoryNative.CreateFromD3D12CommandQueue

Cria um LearningModelDevice que executará a inferência na ID3D12CommandQueue especificada pelo usuário.

HRESULT CreateFromD3D12CommandQueue(
    ID3D12CommandQueue * value,
    [out] IUnknown ** result);

Parâmetros

Nome Tipo Descrição
valor ID3D12CommandQueue* O ID3D12CommandQueue contra o qual o LearningModelDevice será executado.
resultado IUnknown** O LearningModelDevice a ser criado.

Devoluções

HRESULT O resultado da operação.

Exemplos

 // 1. create the d3d device.
com_ptr<ID3D12Device> pD3D12Device = nullptr;
CHECK_HRESULT(D3D12CreateDevice(
    nullptr,
    D3D_FEATURE_LEVEL::D3D_FEATURE_LEVEL_11_0,
    __uuidof(ID3D12Device),
    reinterpret_cast<void**>(&pD3D12Device)));

// 2. create the command queue.
com_ptr<ID3D12CommandQueue> dxQueue = nullptr;
D3D12_COMMAND_QUEUE_DESC commandQueueDesc = {};
commandQueueDesc.Type = D3D12_COMMAND_LIST_TYPE_DIRECT;
CHECK_HRESULT(pD3D12Device->CreateCommandQueue(
    &commandQueueDesc,
    __uuidof(ID3D12CommandQueue),
    reinterpret_cast<void**>(&dxQueue)));
com_ptr<ILearningModelDeviceFactoryNative> devicefactory =
    get_activation_factory<LearningModelDevice, ILearningModelDeviceFactoryNative>();
com_ptr<::IUnknown> spUnk;
CHECK_HRESULT(devicefactory->CreateFromD3D12CommandQueue(dxQueue.get(), spUnk.put()));

Consulte também

Requisitos

Requisito
Cliente com suporte mínimo Windows 10, compilação 17763
servidor com suporte mínimo Windows Server 2019 com Experiência Desktop
cabeçalho windows.ai.machinelearning.native.h

Observação

Use os seguintes recursos para obter ajuda com o Windows ML:

  • Para fazer perguntas ou responder a perguntas técnicas sobre o Windows ML, use a marca windows-machine-learning no Stack Overflow.
  • Para relatar um bug, registre um problema no nosso GitHub.