Partager via


Méthode IMLOperatorKernelContext.GetOutputTensor

Surcharges

Nom Descriptif
GetOutputTensor(uint32_t, IMLOperatorTensor**) Obtient le tenseur de sortie de l’opérateur à l’index spécifié.
GetOutputTensor(uint32_t, uint32_t, const uint32_t*, IMLOperatorTensor**) Obtient le tenseur de sortie de l’opérateur à l’index spécifié, tout en déclarant sa forme.

GetOutputTensor(uint32_t, IMLOperatorTensor**)

Obtient le tenseur de sortie de l’opérateur à l’index spécifié. Cela définit le tensor sur nullptr pour les sorties facultatives qui n’existent pas. Si le noyau d’opérateur a été inscrit sans méthode d’inférence de forme, la surcharge de GetOutputTensor qui consomme la forme du tensor doit être appelée à la place. Retourne une erreur si la sortie à l’index spécifié n’est pas un tenseur.

void GetOutputTensor(
    uint32_t outputIndex,
    _COM_Outptr_result_maybenull_ IMLOperatorTensor** tensor)

GetOutputTensor(uint32_t, uint32_t, const uint32_t*, IMLOperatorTensor**)

Obtient le tenseur de sortie de l’opérateur à l’index spécifié, tout en déclarant sa forme. Cela retourne nullptr pour les sorties facultatives qui n’existent pas. Si le noyau d’opérateur a été inscrit avec une méthode d’inférence de forme, la surcharge de GetOutputTensor qui ne consomme pas de forme peut également être appelée. Retourne une erreur si la sortie à l’index spécifié n’est pas un tenseur.

void GetOutputTensor(
    uint32_t outputIndex,
    uint32_t dimensionCount,
    _In_reads_(dimensionCount) const uint32_t* dimensionSizes,
    _COM_Outptr_result_maybenull_ IMLOperatorTensor** tensor)

Spécifications

Besoin
Client minimum pris en charge Windows 10, build 17763
serveur minimum pris en charge Windows Server 2019 avec expérience de bureau
En-tête MLOperatorAuthor.h

Remarque

Utilisez les ressources suivantes pour obtenir de l’aide sur Windows ML :

  • Pour poser ou répondre à des questions techniques sur Windows ML, utilisez la balise windows-machine-learning sur Stack Overflow.
  • Pour signaler un bogue, veuillez signaler un problème sur notre GitHub.