AdagradByAddress

自定义AdagradByAddress地址优化器。

函数原型

1
def create_hash_optimizer_by_address(learning_rate=0.001, initial_accumulator_value=0.9, name="Adagrad")

参数说明

参数名

类型

必选/可选

说明

learning_rate

float/tf.Tensor

可选

学习率。

默认值:0.001

取值范围:[0.0, 10.0]

initial_accumulator_value

float

可选

累加器的初始值。

默认值:0.9

取值范围:(0.0, 1.0]

name

string

可选

优化器名称。

默认值:Adagrad

名称长度范围:[1, 200]

返回值说明

CustomizedAdagradByAddress(自定义Adagrad地址优化器)的一个实例对象。

使用示例

1
2
from mx_rec.optimizers.adagrad_by_addr import create_hash_optimizer_by_address
hashtable_optimizer = create_hash_optimizer_by_address()