自定义AdagradByAddress地址优化器。
1 | def create_hash_optimizer_by_address(learning_rate=0.001, initial_accumulator_value=0.9, name="Adagrad") |
参数名 |
类型 |
必选/可选 |
说明 |
---|---|---|---|
learning_rate |
float/tf.Tensor |
可选 |
学习率。 默认值:0.001 取值范围:[0.0, 10.0] |
initial_accumulator_value |
float |
可选 |
累加器的初始值。 默认值:0.9 取值范围:(0.0, 1.0] |
name |
string |
可选 |
优化器名称。 默认值:Adagrad 名称长度范围:[1, 200] |
CustomizedAdagradByAddress(自定义Adagrad地址优化器)的一个实例对象。
1 2 | from mx_rec.optimizers.adagrad_by_addr import create_hash_optimizer_by_address hashtable_optimizer = create_hash_optimizer_by_address() |