Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
À déterminer
Important
Cette API est disponible dans le cadre du package redistribuable autonome DirectML (voir Microsoft.AI.DirectML version 1.15.0 et versions ultérieures. Consultez également l’historique des versions DirectML.
Syntaxe
struct DML_DEQUANTIZE_OPERATOR_DESC
{
const DML_TENSOR_DESC* InputTensor;
DML_QUANTIZATION_TYPE QuantizationType;
UINT QuantizationTensorCount;
_Field_size_(QuantizationTensorCount) const DML_TENSOR_DESC* QuantizationTensors;
const DML_TENSOR_DESC* OutputTensor;
};
Membres
InputTensor
Type : const DML_TENSOR_DESC*
Capteur d’entrée à partir duquel lire.
QuantizationType
Type : DML_QUANTIZATION_TYPE
À déterminer
QuantizationTensorCount
Type : UINT
À déterminer. Ce champ détermine la taille du tableau QuantizationTensors .
QuantizationTensors
Type : _Field_size_(QuantizationTensorCount) const DML_TENSOR_DESC*
À déterminer
OutputTensor
Type : const DML_TENSOR_DESC*
Le tensoriel de sortie dans lequel écrire les résultats.
Disponibilité
Cet opérateur a été introduit dans DML_FEATURE_LEVEL_6_3.
Contraintes Tensor
InputTensor, OutputTensor et QuantizationTensors doivent avoir le même DimensionCount.
Prise en charge de Tensor
| Tenseur | Genre | Nombres de dimensions pris en charge | Types de données pris en charge |
|---|---|---|---|
| InputTensor | Entrée | 1 à 8 | INT8, INT4, UINT8, UINT4 |
| QuantificationTenseurs | Tableau d’entrées | 1 à 8 | FLOAT32, FLOAT16, INT8, INT4, UINT8, UINT4 |
| Tenseur de sortie | Sortie | 1 à 8 | FLOAT32, FLOAT16 |