昇腾社区首页
中文
注册

SGD

自定义SGD优化器。

函数原型

1
def create_hash_optimizer(learning_rate, use_locking=False, name="GradientDescent")

参数说明

参数名

类型

必选/可选

说明

learning_rate

float/tf.Tensor

必选

学习率。

默认值:无

取值范围:[0.0, 10.0]

use_locking

bool

可选

优化器中防止对变量并发更新。

默认值:False

取值范围:

  • True
  • False

name

string

可选

优化器名称。

默认值:GradientDescent

名称长度范围:[1, 200]

use_fusion_optim

bool

可选

是否使能算子加速。

默认值:False

取值范围:

  • True:使能融合算子加速
  • False:不使能

weight_decay

float

可选

权重衰减系数。

默认值:None,不使能权重衰减

取值范围:[1e-5, 1e-2]

返回值说明

CustomizedGradientDescent(自定义SGD优化器)的一个实例对象。

使用示例

1
2
from mx_rec.optimizers.gradient_descent import create_hash_optimizer
hashtable_optimizer = create_hash_optimizer(0.001)