Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Wykonuje funkcję aktywacji jednostki liniowej błędu gaussian (GELU) dla każdego elementu w InputTensor, umieszczając wynik w odpowiednim elemmencie OutputTensor.
f(x) = 0.5 * x * (1.0 + erf(x / sqrt(2)))
Gdzie erf(x) jest DML_ELEMENT_WISE_ERF_OPERATOR_DESC.
Ważne
Ten interfejs API jest dostępny w ramach autonomicznego pakietu redystrybucyjnego DirectML (zobacz Microsoft.AI.DirectML w wersji 1.9 lub nowszej. Zobacz również historię wersji języka DirectML.
Składnia
struct DML_ACTIVATION_GELU_OPERATOR_DESC
{
const DML_TENSOR_DESC* InputTensor;
const DML_TENSOR_DESC* OutputTensor;
};
Członkowie
InputTensor
Typ: const DML_TENSOR_DESC*
Tensor wejściowy do odczytu.
OutputTensor
Typ: const DML_TENSOR_DESC*
Tensor wyjściowy do zapisania wyników.
Dostępność
Ten operator został wprowadzony w DML_FEATURE_LEVEL_5_1.
Ograniczenia dotyczące tensorów
Klasy InputTensor i OutputTensor muszą mieć te same wartości DataType, DimensionCount i Size.
Obsługa biblioteki Tensor
| Tensor | Rodzaj | Obsługiwane liczby wymiarów | Obsługiwane typy danych |
|---|---|---|---|
| Tensor wejściowy | Dane wejściowe | Od 1 do 8 | FLOAT32, FLOAT16 |
| Tensor wyjściowy | Wynik | Od 1 do 8 | FLOAT32, FLOAT16 |
Wymagania
| Nagłówek | directml.h |