昇腾社区首页
中文
注册

torch_npu.optim.NpuFusedAdamW

函数原型

[object Object]

功能说明

通过张量融合实现的高性能AdamW优化器,核心功能和torch.optim.AdamW兼容。

AdamW的功能和原理可参考undefined

参数说明

  • params:模型参数或模型参数组。
  • lr:学习率,float类型(默认值:1e-3)。
  • betas:用于计算梯度及其平方的运行平均值的系数,类型为Tuple[float, float](默认值:(0.9,0.999))。
  • eps:防止除0,提高数值稳定性,float类型(默认值:1e-8)。
  • weight_decay:权重衰减,bool类型(默认值:0)。
  • amsgrad:是否使用参考《undefined》的AMSGrad变种实现,bool类型(默认值:False)。

输入说明

params为参数的可迭代对象或参数组的dict类型。

输出说明

类型为“NpuFusedAdamW”的对象。

异常说明

  • “ValueError”- “lr”值小于0。
  • “ValueError”- “betas”的值小于0或者betas的值大于1。
  • “ValueError”- “eps”小于0。
  • “ValueError”- “weight_decay”小于0。

约束说明

NpuFusedAdamW的实现机制要求params中的每一个模型参数对象在使用过程中不能被重新申请,否则将导致无法预料的结果。引起模型参数对象被重新申请的操作包括但不限于:

  • 将模型或其子Module进行.cpu操作
  • 将模型参数对象指向新的对象
  • 将模型参数对象置为None

对模型参数对象进行inplace计算,或者读取参数的值,NpuFusedAdamW可正常工作。

支持的型号

  • [object Object]Atlas 训练系列产品[object Object]
  • [object Object]Atlas A2 训练系列产品[object Object]
  • [object Object]Atlas A3 训练系列产品[object Object]

调用示例

[object Object]