Delen via


KnownStochasticOptimizer enum

Bekende waarden van StochasticOptimizer die de service accepteert.

Velden

Adam

Adam is algoritme dat stochastische objectieve functies optimaliseert op basis van adaptieve schattingen van momenten

Adamw

AdamW is een variant van de optimizer Adam die een verbeterde implementatie van gewichtsverval heeft.

None

Er is geen optimalisatie geselecteerd.

Sgd

Stochastic Gradient Descent optimizer.