Adagrad
自定义Adagrad优化器。
函数原型
def create_hash_optimizer(learning_rate=0.001, initial_accumulator_value=0.9, use_locking=False, name="Adagrad")
参数说明
参数名称  | 
参数说明  | 
参数类型  | 
必选/可选  | 
默认值  | 
取值范围  | 
|---|---|---|---|---|---|
learning_rate  | 
学习率。  | 
float/tf.Tensor  | 
可选  | 
0.001  | 
[0.0, 10.0]  | 
initial_accumulator_value  | 
累加器的初始值。  | 
float  | 
可选  | 
0.9  | 
(0.0, 1.0]  | 
use_locking  | 
优化器中防止对变量并发更新。  | 
bool  | 
可选  | 
False  | 
  | 
name  | 
优化器名称。  | 
string  | 
可选  | 
Adagrad  | 
优化器名称长度范围:[1, 200]  | 
返回值说明
CustomizedAdagrad(自定义Adagrad优化器)的一个实例对象。
使用示例
from mx_rec.optimizers.adagrad import create_hash_optimizer hashtable_optimizer = create_hash_optimizer(0.001)
父主题: 优化器