Freigeben über


ILearningModelDeviceFactoryNative.CreateFromD3D12CommandQueue-Methode

Erstellt ein LearningModelDevice, das Inference auf der vom Benutzer angegebenen ID3D12CommandQueue durchführen wird.

HRESULT CreateFromD3D12CommandQueue(
    ID3D12CommandQueue * value,
    [out] IUnknown ** result);

Die Parameter

Name Typ BESCHREIBUNG
Wert ID3D12CommandQueue* Die ID3D12CommandQueue, gegen die das LearningModelDevice verwendet wird.
Ergebnis IUnbekannt** Das zu erstellende LearningModelDevice .

Rückkehr

HRESULT Das Ergebnis des Vorgangs.

Beispiele

 // 1. create the d3d device.
com_ptr<ID3D12Device> pD3D12Device = nullptr;
CHECK_HRESULT(D3D12CreateDevice(
    nullptr,
    D3D_FEATURE_LEVEL::D3D_FEATURE_LEVEL_11_0,
    __uuidof(ID3D12Device),
    reinterpret_cast<void**>(&pD3D12Device)));

// 2. create the command queue.
com_ptr<ID3D12CommandQueue> dxQueue = nullptr;
D3D12_COMMAND_QUEUE_DESC commandQueueDesc = {};
commandQueueDesc.Type = D3D12_COMMAND_LIST_TYPE_DIRECT;
CHECK_HRESULT(pD3D12Device->CreateCommandQueue(
    &commandQueueDesc,
    __uuidof(ID3D12CommandQueue),
    reinterpret_cast<void**>(&dxQueue)));
com_ptr<ILearningModelDeviceFactoryNative> devicefactory =
    get_activation_factory<LearningModelDevice, ILearningModelDeviceFactoryNative>();
com_ptr<::IUnknown> spUnk;
CHECK_HRESULT(devicefactory->CreateFromD3D12CommandQueue(dxQueue.get(), spUnk.put()));

Siehe auch

Anforderungen

Anforderung
Mindestens unterstützter Client Windows 10, Build 17763
Mindestanforderungen für unterstützte Server Windows Server 2019 mit Desktopoberfläche
Überschrift windows.ai.machinelearning.native.h

Hinweis

Verwenden Sie die folgenden Ressourcen, wenn Sie Hilfe mit Windows ML benötigen:

  • Wenn Sie technische Fragen zu Windows ML stellen oder beantworten möchten, verwenden Sie das Tag windows-machine-learning auf Stack Overflow.
  • Um einen Fehler zu melden, erstellen Sie bitte eine Meldung auf unserem GitHub.