Adagrad
自定义Adagrad优化器。
函数原型
def create_hash_optimizer(learning_rate=0.001, initial_accumulator_value=0.9, use_locking=False, name="Adagrad")
参数说明
| 参数名称 | 参数说明 | 参数类型 | 必选/可选 | 默认值 | 取值范围 | 
|---|---|---|---|---|---|
| learning_rate | 学习率。 | float | 可选 | 0.001 | [-2147483647.0, 2147483647.0] | 
| initial_accumulator_value | 累加器的初始值。 | float | 可选 | 0.9 | (0.0, 2147483647.0] | 
| use_locking | 优化器中防止对变量并发更新。 | bool | 可选 | False | 
 | 
| name | 优化器名称。 | string | 可选 | Adagrad | 优化器名称长度范围:[1, 255] | 
返回值说明
CustomizedAdagrad(自定义Adagrad优化器)的一个实例对象。
使用示例
from mx_rec.optimizers.adagrad import create_hash_optimizer hashtable_optimizer = create_hash_optimizer(0.001)
父主题: 优化器