API名称 |
是否支持 |
限制与说明 |
---|---|---|
Optimizer.add_param_group |
是 |
|
Optimizer.load_state_dict |
是 |
|
Optimizer.state_dict |
是 |
|
Optimizer.step |
是 |
|
Optimizer.zero_grad |
是 |
|
torch.optim.Adadelta |
是 |
支持fp16,fp32 |
torch.optim.Adadelta.add_param_group |
是 |
|
torch.optim.Adadelta.load_state_dict |
是 |
|
torch.optim.Adadelta.state_dict |
是 |
|
torch.optim.Adadelta.step |
是 |
|
torch.optim.Adadelta.zero_grad |
是 |
|
torch.optim.Adagrad |
是 |
支持fp16,fp32 |
torch.optim.Adagrad.add_param_group |
是 |
|
torch.optim.Adagrad.load_state_dict |
是 |
|
torch.optim.Adagrad.state_dict |
是 |
|
torch.optim.Adagrad.step |
是 |
|
torch.optim.Adagrad.zero_grad |
是 |
|
torch.optim.Adam |
是 |
支持fp16,fp32 |
torch.optim.Adam.add_param_group |
是 |
|
torch.optim.Adam.load_state_dict |
是 |
|
torch.optim.Adam.state_dict |
是 |
|
torch.optim.Adam.step |
是 |
|
torch.optim.Adam.zero_grad |
是 |
|
torch.optim.AdamW |
是 |
支持fp16,fp32 |
torch.optim.Adamax |
是 |
|
torch.optim.RMSprop |
是 |
|
torch.optim.SGD |
是 |
支持fp16,fp32 |
torch.optim.lr_scheduler.LambdaLR |
是 |
|
torch.optim.lr_scheduler.MultiplicativeLR |
是 |
|
torch.optim.lr_scheduler.StepLR |
是 |
|
torch.optim.lr_scheduler.MultiStepLR |
是 |
|
torch.optim.lr_scheduler.LinearLR.get_last_lr |
是 |
|
torch.optim.lr_scheduler.LinearLR.load_state_dict |
是 |
|
torch.optim.lr_scheduler.LinearLR.print_lr |
是 |
|
torch.optim.lr_scheduler.LinearLR.state_dict |
是 |
|
torch.optim.lr_scheduler.ExponentialLR |
是 |
|
torch.optim.lr_scheduler.ExponentialLR.get_last_lr |
是 |
|
torch.optim.lr_scheduler.ExponentialLR.load_state_dict |
是 |
|
torch.optim.lr_scheduler.ExponentialLR.print_lr |
是 |
|
torch.optim.lr_scheduler.ExponentialLR.state_dict |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingLR |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingLR.get_last_lr |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingLR.load_state_dict |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingLR.print_lr |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingLR.state_dict |
是 |
|
torch.optim.lr_scheduler.ReduceLROnPlateau |
是 |
|
torch.optim.lr_scheduler.OneCycleLR |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingWarmRestarts |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.get_last_lr |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.load_state_dict |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.print_lr |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.state_dict |
是 |
|
torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.step |
是 |