Skip to content
Learn with Hubert
Road to AMI Labs
›
Optimisation
›
Quiz
Optimisation — Quiz
1/10
L'optimiseur Adam combine deux mécanismes. Lesquels ?
Momentum (moyenne mobile du gradient) et adaptation du learning rate par paramètre (moyenne mobile du gradient²)
Régularisation L2 et clipping du gradient
Nesterov momentum et weight decay découplé
Gradient stochastique pur et learning rate cyclique