自定义SGDByAddr地址优化器。
1 | def create_hash_optimizer_by_addr(learning_rate, weight_decay=0.0001, use_locking=False, name="GradientDescentByAddr") |
参数名 |
类型 |
必选/可选 |
说明 |
---|---|---|---|
learning_rate |
float/tf.Tensor |
必选 |
学习率。 默认值:无 取值范围:[0.0, 10.0] |
weight_decay |
float |
可选 |
权重衰退。 默认值:0.0001 取值范围:[0.0, 1.0] |
use_locking |
bool |
可选 |
优化器中防止对变量并发更新。 默认值:False 取值范围:
|
name |
string |
可选 |
优化器名称。 默认值:GradientDescentByAddr 名称长度范围:[1, 200] |
CustomizedGradientDescentByAddr(自定义SGD地址优化器)的一个实例对象。
1 2 | from mx_rec.optimizers.gradient_descent_by_addr import create_hash_optimizer_by_addr hashtable_optimizer = create_hash_optimizer_by_addr(0.001) |