TextClassificationTrainer.TextClassificationOptions Klasa
Definicja
Ważne
Niektóre informacje odnoszą się do produktu w wersji wstępnej, który może zostać znacząco zmodyfikowany przed wydaniem. Firma Microsoft nie udziela żadnych gwarancji, jawnych lub domniemanych, w odniesieniu do informacji podanych w tym miejscu.
public class TextClassificationTrainer.TextClassificationOptions : Microsoft.ML.TorchSharp.NasBert.NasBertTrainer.NasBertOptions
type TextClassificationTrainer.TextClassificationOptions = class
inherit NasBertTrainer.NasBertOptions
Public Class TextClassificationTrainer.TextClassificationOptions
Inherits NasBertTrainer.NasBertOptions
- Dziedziczenie
-
TextClassificationTrainer.TextClassificationOptions
Konstruktory
| TextClassificationTrainer.TextClassificationOptions() |
Pola
| ActivationDropout |
Współczynnik spadku po funkcjach aktywacji w warstwach FFN. Powinna mieścić się w zakresie [0, 1). (Odziedziczone po NasBertTrainer.NasBertOptions) |
| AdamBetas |
Wersje beta optymalizatora Adama. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| AdamEps |
Epsilon dla optymalizatora Adama. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| AttentionDropout |
Współczynnik spadku uwagi. Powinna mieścić się w zakresie [0, 1). (Odziedziczone po NasBertTrainer.NasBertOptions) |
| BatchSize |
Liczba próbek do użycia na potrzeby trenowania minisadowego. (Odziedziczone po TorchSharpBaseTrainer.Options) |
| ClipNorm |
Próg przycinania gradientów. Powinna znajdować się w zakresie [0, +Inf). 0 oznacza, że nie należy przycinać norm. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| Dropout |
Współczynnik spadku w ogólnych sytuacjach. Powinna mieścić się w zakresie [0, 1). (Odziedziczone po NasBertTrainer.NasBertOptions) |
| DynamicDropout |
Czy należy używać dynamicznego dropoutu. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| EncoderNormalizeBefore |
Czy należy zastosować normalizację warstwy przed każdym blokiem kodera. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| FinalLearningRateRatio |
Ostateczny wskaźnik nauki dla harmonogramu rozkładu wielomianowego. (Odziedziczone po TorchSharpBaseTrainer.Options) |
| FreezeEncoder |
Czy zablokować parametry kodera. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| FreezeTransfer |
Czy zablokować parametry modułu transferu. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| LabelColumnName |
Nazwa kolumny etykiety. (Odziedziczone po TorchSharpBaseTrainer.Options) |
| LayerNormTraining |
Czy trenować parametry normy warstwy. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| LearningRate |
Szybkość nauki dla pierwszych N epok; wszystkie epoki N używające >LR_N. Uwaga: może to być interpretowane inaczej w zależności od harmonogramu. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| MaxEpoch |
Zatrzymaj trenowanie w przypadku osiągnięcia tej liczby epok. (Odziedziczone po TorchSharpBaseTrainer.Options) |
| PoolerDropout |
Współczynnik spadku liczby w warstwach puli modeli języka maskowanego. Powinna mieścić się w zakresie [0, 1). (Odziedziczone po NasBertTrainer.NasBertOptions) |
| PredictionColumnName |
Nazwa kolumny Prediction( Przewidywanie). (Odziedziczone po TorchSharpBaseTrainer.Options) |
| ScoreColumnName |
Nazwa kolumny Score (Generowanie wyników). (Odziedziczone po TorchSharpBaseTrainer.Options) |
| Sentence1ColumnName |
Pierwsza kolumna zdania. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| Sentence2ColumnName |
Druga kolumna zdania. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| StartLearningRateRatio |
Wskaźnik rozpoczęcia nauki dla harmonogramu rozkładu wielomianowego. (Odziedziczone po TorchSharpBaseTrainer.Options) |
| TaskType |
Typ zadania, który jest powiązany z głową modelu. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| ValidationSet |
Zestaw weryfikacji używany podczas trenowania w celu poprawy jakości modelu. (Odziedziczone po TorchSharpBaseTrainer.Options) |
| WarmupRatio |
Proporcja kroków rozgrzewania w harmonogramie rozkładu wielomianowego. (Odziedziczone po NasBertTrainer.NasBertOptions) |
| WeightDecay |
Nieefektywność rozkładu masy ciała. Powinna znajdować się w zakresie [0, +Inf). (Odziedziczone po TorchSharpBaseTrainer.Options) |